Sie sind auf Seite 1von 769

Statistik und konometrie fr

Wirtschaftswissenschaftler

Benjamin Auer Horst Rottmann

Statistik und
konometrie fr
Wirtschaftswissenschaftler
Eine anwendungsorientierte Einfhrung
3., berarbeitete und aktualisierte Auflage

Benjamin Auer
Universitt Leipzig
Leipzig, Deutschland

Horst Rottmann
Ostbayerische Technische Hochschule Amberg
Weiden | ifo Institut fr Wirtschaftsforschung an der Universitt Mnchen
Amberg Weiden und Mnchen, Deutschland

ISBN 978-3-658-06438-9
DOI 10.1007/978-3-658-06439-6

ISBN 978-3-658-06439-6 (eBook)

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;


detaillierte bibliografische Daten sind im Internet ber http://dnb.d-nb.de abrufbar.
Springer Gabler
Springer Fachmedien Wiesbaden 2010, 2012, 2015
Das Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwertung, die nicht ausdrcklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das
gilt insbesondere fr Vervielfltigungen, Bearbeitungen, bersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der
Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wren und daher von jedermann
benutzt werden drften.
Gedruckt auf surefreiem und chlorfrei gebleichtem Papier
Springer Gabler ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer
Science+Business Media.
www.springer-gabler.de

Vorwort
Vorwort zur 3. Auflage
Liebe Leserinnen und Leser,

seit der 1. Auflage erfreut sich unser Lehrbuch unter Studierenden und Dozierenden zunehmender Beliebtheit. Es wird mittlerweile deutschlandweit eingesetzt und
ist nicht nur in wirtschaftswissenschaftlichen Bachelor- und Masterstudiengngen,
sondern auch bei empirisch arbeitenden Promoventen sehr gefragt. Wie uns zahlreiches positives Feedback aus der Leserschaft zeigt, ist dies insbesondere auf den
umfassenden konometrieteil des Buches zurckzufhren, der anders als klassische statistische Grundlagenliteratur mit detaillierten Anwendungsbeispielen solide
Grundlagen fr das wissenschaftliche Arbeiten legt.
Aus diesem Grund haben wir uns in der 3. Auflage dafr entschieden, die bewhrte Konzeption des Buches beizubehalten. Das konometriekapitel wurde vollstndig berarbeitet und erweitert. So werden nun Themen wie Volatilittsmodellierung
mit ARCH- und GARCH-Prozessen, vor- und nachlaufende Konjunktutindikatoren
und die Spezifikation von Zeitreihenmodellen fr Anleihenrenditen behandelt.
Darber hinaus haben wir den Online-Service des Buches ausgebaut. Insbesondere
wurde die Formelsammlung zum Buch aktualisiert und auerdem die Sammlung an
bungsdatenstzen und Excel-Tools vergrert. So fmden Sie nun z.B. auch Tools
zur Abbildung von Autokorrelationsfunktionen fr autoregressive Prozesse und zur
Simulation von Regressionsmodellen mit heteroskedastischen oder autokorrelierten
Strtermen.
Wir danken fr die hilfreichen Kommentare und Verbesserungsvorschlge zu dieser
Auflage Herrn Prof. Dr. Thomas Jost, der uns auch schon ZU den vorherigen Auflagen sehr wertvolle Anregungen gab. Auerdem gilt den Herren Maurice Hoftnann,
Markus Kruse und Robert Vinzelberg fr das abschlieende Korrekturlesen besonderer Dank.
Wir wnschen Ihnen weiterhin viel Erfolg bei der Arbeit mit dem Lehrbuch und
wrden uns bei Fragen, Anregungen und Kritik sehr ber eine kurze E-Mail via
www.statistik-auer-rottmann.de freuen.

Weiden i. d. OPf. und Leipzig,


Juni 2014
Prof. Dr. Horst Rottmann
Dr. Benjamin R. Auer

Vorwort

VI

Vorwort zur 2. Auflage


Liebe Leserinnen und Leser,

wir freuen uns, Ihnen jetzt die 2. Auflage von "Statistik und konometrie fr Wirtschaftswissenschaftler" prsentieren zu drfen. Dozenten betonen uns gegenber
immer wieder, dass die umfassende Perspektive und der anwendungsorientierte
Ansatz mit vielen Beispielen aus der Praxis wesentliche Strken des Buches darstellen. Wir haben daher bei der Neuauflage des Buches die Grundkonzeption beibehalten und uns im Wesentlichen auf eine Korrektur der Fehler, Aktualisierungen
einiger Anwendungen aus der Praxis sowie kleine Ergnzungen inhaltlicher Art beschrnkt. Im Kapitel zur deskriptiven Statistik wurden etwa die Graftken und Berechnungen zu wichtigen Indizes aus der Wirtschaftspraxis und zur Volatilittsmessung auf Wertpapiennrkten auf den aktuellen Stand gebracht. Zustzlich haben
wir die Neuauflage um einen Abschnitt zur Momentenschtzung erweitert.
Weiterhin wurde auch der Online-Service zum Buch ausgebaut. Er umfasst nun
unter anderem auch einen umfangreichen bungsdatensatz mit Zeitreihen zur historischen Entwicklung des deutschen Kapitalmarktes (Aktien- und Rentenmarktindizes, Geldmarktstze, Wechselkurse sowie Preise ausgewhlter Rohstoffe und
Edelmetalle) und der deutschen konomie (Inflationsrate, Geldmengen, Geschftsklimaindizes und klassische Wirtschaftsdaten aus der Volkswirtschaftlichen Gesamtrechnung). Dieser wird regelmig aktualisiert zur Verfgung gestellt und gerne in
Reaktion auf Anregungen aus der Leserschaft erweitert.
Wir danken fr die hilfreichen Kommentare und Verbesserungsvorschlge zu dieser
Auflage Prof. Dr. Thorsten Hock und Prof. Dr. Thomas Jost, der uns auch schon
zur Erstauflage sehr wertvolle Anregungen gab.
Wir wnschen Ihnen weiterhin viel Erfolg bei der Arbeit mit dem Lehrbuch und
wrden uns bei Fragen, Anregungen und Kritik sehr ber eine kurze E-Mail via
www.statistik-auer-rottmann.de freuen.

Weiden i. d. OPf. und Leipzig,


Juli 2011

Prof. Dr. Horst Rottmann


Dipl.-Bw. (FH) Benjamin R. Auer

Vorwort

VII

Vorwort zur 1. Auflage


Liebe Leserinnen und Leser,

mit diesem Werk liegt Ihnen das erste deutsche Lehrbuch vor, das die beiden fr
empirisch arbeitende Wirtschaftswissenscbaftler relevanten Gebiete - die Statistik
und die konometrie - kombiniert und umlassend darstellt. Bei der Aufbereitung
der Themenbereiebe aebten wir besonders auf Klarheit und die Verwendung einer
Vielzahl theoretiseber und empirischer Beispiele. Auf komplizierte Herleitungen
und Beweise verzichten wir bewusst, wenn sie unseres Erachtens nur das Verstndnis erschweren.

Inhalte und Beispiele mit Praxisbezug


Das vorliegende Lehrbuch behandelt die traditionellen Bereiche der deskriptiven
und der induktiven Statistik sowie der Wahrsebeinlichkeitsrechnung. Es unterscheidet sich allerdings von anderen einschlgigen Lehrbchern in der speziellen Darstellungsweise. Jedes Kapitel enthlt zahlreiche Beispiele und bungen, die ausfhrlich erlutert werden und somit die abstrakten Zusammenhnge anschaulich
vertiefen. Sie behandeln auch die Anwendung der statistischen Methoden fr typisebe betriebswirtschaft1iche und sozialwissenschaftHche Problemstellungen.
Umfangreiche Darstellung der Regressionsanalyse
Darber hinaus stellt die Schwerpunktbildung dieses Buches ein entscheidendes
Alleinstellungsmerkmal dar. So bietet es beispielsweise ein Kapitel zur angewandten konometrie (veranschaulicht unter Verwendung der Software EViews 6.0), das
weit ber die in der Masse der Lehrbcher enthaltene deskriptive Behandlung der
linearen Regression hinausgeht. Dies ist besonders wertvoll fr all jene, die die
Regressionsanalyse fr empirische Untersuchungen, etwa fr eine praxisorientierte
Bachelor- oder Masterarbeit, verwenden wollen.
Konkrete Anwendungen der Methoden in der Praxis
Des Weiteren finden sich eine Vielzahl sehr konkreter wirtschafts- und insbesondere fmanzwirtschaftlieber AnwendungsfaJle (z.B. die Sebtzung von Aktienvolatilitten, die Analyse von Wettbewerbsprozessen und Einkommensverteilungen, Kaufkraftvergleiebe, Aktienindizes, subjektive Wahrscheinlichkeiten und Wettquotienten, Portfoliorisiko und Diversifikation, Qualittskonttolle, die Schtzung von
Nachfrage-, Produktions- und Konsumfunktionen, die Untersuchung von Trends in
der Goldpreisentwicklung, die Beurteilung des langftistigen Einflusses von Zentralbanken auf das Zinsniveau und der langfristigen Beziehung zwiseben Geldmarktzinsstzen versebiedener Fristigkeiten, die Analyse der Performance von Investmentfonds und Zinsprognosen). Wir haben Kapitel, die derartige Anwendungen
enthalten, im nachfolgenden Inhaltsverzeichnis mit dem Zeichen ,. kenntlieb gemaebt. Darber hinaus wurde ein separates Anwendungsverzeichrtis angelegt.
Dozenten- und Studentennutzen

Dieses Bueb soll Ihnen als Lehrenden helfen, die heiklen Themen Statistik und
konometrie verstndlich, studenten- und vor allem praxisgerecht fr Ihren Un-

VIII

Vorwort

terricht aufzubereiten. Den Studierenden soll es dazu dienen, alle relevanten Themen fr ihre Klausur noch einmal zu wiederholen und mit Hilfe zahlreicher
bungsaufgaben zu festigen. Bei der Lsung dieser Aufgaben lassen wir Sie nicht
alleine. Anders als in einschlgigen Lehrbchern wird Ihnen nicht einlach ein Ergebnis ohne Rechenweg und Erluterungen prsentiert. Stattdessen erklren wir
nachvollziehbar und anschaulich jeden einzelnen Rechenschritt und die allgemeine
Vorgehensweise.
Internetseite mit umfassendem Material
Zur Untersttzung von Dozenten und Studierenden wurde eigens die Internetseite
www.statistik-auer-rottmann.de eingerichtet. Hier finden Sie beispielsweise diverse
Excel-Tools, mit denen Rechenbeispiele und Verfahren einfach nachvollzogen und
praktisch umgesetzt werden knnen, sowie die Datentabellen konometrischer
Schtzungen im Excel- und EViews-Format. Auf die Verfgbarkeit derartigen Materials wird im Text durch das Symbol lt am Seitenrand hingewiesen. Weiterhin bieten wir Ihnen online zustzliche bungsaufgaben inklusive der ausfhrlichen
Lsungen und eine auf das Buch abgestimmte Formelsammlung. Speziell fr Dozenten stellen wir die Lsungen der bungsaufgaben mit geraden Aufgabennummern, die im Buch nicht verffentlicht sind, sowie alle Grafiken des Buches in

bearbeitbarer Form zur Verfgung. Benutzernamen und passwon fr den Zugang


zu diesem Onlineangebot knnen Sie ber das Kontakttnen auf der o.g. Seite anfordern.

Danksagung
Bei der Konzeption und Gestaltung des Buches haben uns viele Personen untersttzt. Wir danken Prof. Dr. Christopher Dietmaier, Prof. Dr. Gebhard Flaig, Prof.
Dr. Oliver Hlsewig, Prof. Dr. Norbert Janz, Prof. Dr. Thomas Jost, Prof. Dr. Erich
Ruppert, Prof. Dr. Franz Seitz und Dr. Timo Wolhnershuser fr wertvolle Hinweise
und Verbesserungsvorschlge. Ihnen mchten wir fr ihre hilfreichen kritischen
Auseinandersetzungen mit unseren Ideen ganz besonders danken. Fr das Gelingen dieser Arbeit war zudem der wissenschaftliche Freiraum hilfreich, den Herr
Benjamin Auer am Lehrstuhl von Prof. Dr. Frank Schuhmacher erhalten hat. Besonderer Dank gilt auerdem Herrn Steffen Burkhardt fr eine kritische Durchsicht
des Manuskripts, Korrekturrechnen und wertvolle formale Hinweise, sowie Herrn
Mark Kirstein und Frau Karla Strau fr ein abschlieendes Korrekturlesen.
Allen Lesern wnschen wir auf diesem Weg, dass sie durch dieses Buch einen Zugang zu den interessanten Fragestellungen finden, die sich mit Hilfe der Statistik
und konometrie beantworten lassen. Bei Fragen, Anregungen und Kritik wrden

wir uns ber eine E-Mail via www.statistik-auer-rottmann.de sehr freuen.

Weiden i. d. OPf. und Leipzig,


Juni 2010

Prof. Dr. Horst Rottmann


Dipl.-Bw. (FH) Benjamin R. Auer

In haltsverzeich nis
Vorwort ......................................................................................................................... v
Abbildungsverzeichnis .............................................................................................. XXI
Anwendungsverzeichnis .......................................................................................... XXV
I Deskriptive Statistik ............................................................................................ 1

1. Grundbegriffe ............................................................................................................ 3
1.1 Der Statistikbegriff............................................................................................... 3
1.2 Merkmalstrger, Grundgesamtheiten und Stichproben ..................................... 4
1.3 Klassifikation von Merkmalen ............................................................................. 6
1.3.1

Klassifikation nach dem Skalenniveau .................................................. 6

1.3.2

Klassifikation in diskrete und stetige Merkmale ................................... l0

1.3.3

Klassifikation in qualitative und quantitative Merkmale ...................... 11

2. Eindimensionale Hufigkeitsverteilungen ............................................................... 13


2.1 Hufigkeitsverteilung ......................................................................................... 13
2.1.1

Hufigkeitsverteilung bei diskreten Merkmalen ................................... 13

2.1.2

Empirische Verteilungsfunktion bei diskreten Merkmalen .................. 18

2.1.3

Klassierte Hufigkeitsverteilung bei stetigen Merkmalen .................... 21

2.1.4

Typische Hufigkeitsverteilungen ......................................................... 26

2.1.5

Quantile ................................................................................................. 28

2.2 Mazahlen .......................................................................................................... 31


2.2.1
Lageparameter ....................................................................................... 31
2.2.1.1
Modus ............................................................................................... 32
2.2.1.2

Median .............................................................................................. 34

2.2.1.3
2.2.1.4

Arithmetisches Mittel ........................................................................ 35

2.2.1.5

Exkurs: Renditen und Renditedurchschnitte .................................. .40

2.2.1.6

Lageregeln ....................................................................................... .44

2.2.2

Geometrisches Mittel ........................................................................ 38


~

Streuungsparameter .............................................................................. .45

2.2.2.1

Spannweite und Quartilsabstand ..................................................... 45

2.2.2.2

Mittlere absolute Abweichung ........................................................ .47

2.2.2.3

Varianz und Standardabweichung .................................................. .49

2.2.2.4

Exkurs: Volatilitt ............................................................................ .56

Inhaltsverzeichnis

2.2.2.5

Variationskoeffizient ........................................................................ 59

2.2.2.6

Box-Whisker-Plot ............................................................................. 61

Momente und Schiefemae .................................................................. 62


2.2.3
Empirische Momente ....................................................................... 63
2.2.3.1
2.2.3.2
2.2.4
2.2.4.1
2.2.4.2

Schiefemae ..................................................................................... 63
Konzentrationsmessung ........................................................................ 65
Mazahlen der absoluten Konzentration ........................................ 66
Mazahlen der relativen Konzentration .......................................... 70 ,.

3. Zweidimensionale Hufigkeitsverteilungen ............................................................ 81


3.1 Grundlagen ........................................................................................................ 81
3.1.1

Kontingenztabelle ................................................................................. 81

3.1.2

Randhufigkeiten und -verteilungen .................................................... 85

3.1.3

Bedingte Hufigkeiten und Verteilungen ............................................ 86

3.1.4

Statistische Unabhngigkeit .................................................................. 89

3.2 Korrelationsanalyse ............................................................................................ 92


3.2.1
3.2.2

Kovarianz und Bravais-Pearson-Korrelationskoeffizienl... ................... 92


Kreuzkorrelation ................................................................................... 98 ,.

3.2.3

Spearrnan-Rangkorrelationskoeffizient ............................................... 100

3.2.4

Kontingenzkoeffizient ......................................................................... 104

3.2.5

Lineartransforrnationen und Linearkombinationen ............................ 106

3.2.6
Kritische Anmerkungen zur Korrelationsanalyse ............................... 108
4. Messzahlen und Indizes ........................................................................................ 111
4.1 Messzahlen ....................................................................................................... 111
4.2 Indexzahlen ..................................................................................................... 113
4.2.1

Preisindizes ......................................................................................... 114

4.2.1.1

Grundlegendes ............................................................................... 114

4.2.1.2

Preisindex nach Laspeyres ............................................................. 116

4.2.1.3

Preisindex nach Paasche ............................................................... 117

4.2.1.4

Weitere Preisindizes ....................................................................... 118


Preisindexreihen und Inflationsmessung ...................................... 120 ,.

4.2.1.5
4.2.1.6

Preisbereinigung und reale Gren .............................................. 121 ,.

4.2.1.7

Interregionale Kaufkraftvergleiche ................................................ 123 ,.

4.2.1.8

Umbasierung und Verknpfung .................................................... 125

4.2.2

Mengenindizes .................................................................................... 127

4.2.3

Wertindex ............................................................................................ 129

4.2.4

Wichtige Indizes aus der Wirtschaftspraxis ........................................ 130

Inhaltsverzeichnis

XI

4.2.4.1

Verbraucherpreisindex (VPI) ......................................................... 130

4.2.4.2

Harmonisierter Verbraucherpreisindex (HYPI) ............................. 132

4.2.4.3

Deutscher Aktienindex (DA}{) ....................................................... 134

5. Aufgaben ................................................................................................................ 137

n Wahrscheinllchkeitsrechnung ..................................................................... 147


1. Grundlagen der Wahrscheinlichkeitstheorie ......................................................... 149
1.1 Grundbegriffe ................................................................................................... 149
1.2 Ereignisse und ihre Darstellung ....................................................................... 151
1.3 Wahrscheinlichkeitsregeln und -definitionen .................................................. 157
1.3.1
Axiome der Wahrscheinlichkeitsrecbnung ......................................... 158
1.3.2
Klassische WahrscheinlichkeitsdefInition ........................................... 161
1.3.3
Statistische Wahrscheinlichkeitsdefinition .......................................... 164
1.3.4
Subjektive Wahrscheinlichkeitsdefinition ........................................... 165
1.4 Zufallsauswahl und Kombinatorik ................................................................... 168
1.4.1
Zufallsauswahl und Umenmodell. ...................................................... 169
1.4.2
Kombinatorik ....................................................................................... 169
1.4.2.1
n-Fakultt und Binomialkoeffizient ............................................... 169
1.4.2.2 Prinzipien der Kombinatorik.......................................................... 171
Zusammenfassung und Vergleich .................................................. 176
1.4.2.3
1.5 Bedingte Wahrscheinlichkeiten ....................................................................... 178
1.5.1
Definition und Interpretation .............................................................. 178
1.5.2
MultiplikationssalZ ............................................................................... 179
1.5.3
Unabhngigkeit von Ereignissen ........................................................ 182
1.5.4
Satz der totalen wahrscheinlichkeit .................................................... 185
1.5.5
Formel von Bayes ............................................................................... 187
2. Zufallsvariablen ...................................................................................................... 193
2.1 Begriff der Zufallsvariable ................................................................................ 193
2.2 Diskrete Zufallsvariablen ................................................................................. 196
2.2.1
Wahrscheinlichkeitsfunktion ............................................................... 196
2.2.2
Verteilungsfunktion ............................................................................. 198
2.2.3
Zusammenfassende Gegenberstellung ............................................. 200
2.3 Stetige Zufallsvariablen .................................................................................... 202
2.3.1
Verteilungsfunktion ............................................................................. 202
2.3.2
Dichtefunktion ..................................................................................... 203
2.3.3
Zusammenfassende Gegenberstellung ............................................. 206

XII

Inhaltsverzeichnis

2.4 Kennzahlen von Wahrscheinlichkeitsverteilungen ......................................... 207


2.4.1

Erwartungswert ................................................................................... 207

2.4.1.1

Deftnition ....................................................................................... 207

2.4.1.2

Eigenschaften ................................................................................. 209

2.4.2

Varianz und Standardabweichung...................................................... 213

2.4.2.1

Deftnition ....................................................................................... 213

2.4.2.2

Eigenschaften ................................................................................. 214

2.4.2.3

Standardisierung von Zufallsvariablen .......................................... 216

2.4.3

Hhere Momente ................................................................................ 218

2.4.4

Quantile ............................................................................................... 219

25 Ungleichung von Tschebyscheff ..................................................................... 221


2.6 Anwendungsbeispiele ...................................................................................... 223
2.6.1

Renditen als Zufallsvariablen .............................................................. 223

2.6.2

Zufallsvariablen beim Roulette ........................................................... 224

2.7 Mehrdimensionale Zufallsvariablen ................................................................. 227


2.7.1

Begriff .................................................................................................. 227

2.7.2

Wahrscheinlichkeits- und Verteilungsfunktion .................................. 228

2.7.2.1

Gemeinsame Wahrscheinlichkeitsfunktion ................................... 228

2.7.2.2

Gemeinsame Verteilungsfunktion ................................................. 230

2.7.2.3
2.7.2.4

Randverteilungen ........................................................................... 230


Bedingte Verteilungen ................................................................... 231

2.7.3
2.7.4

Stochastische Unabhngigkeit ............................................................ 233


Kennzahlen zweidimensionaler Wahrscheinlichkeitsverteilungen.... 234

2.7.4.1

Erwartungswert und Varianz ......................................................... 234

2.7.4.2

Kovarianz und Korrelationskoeffizient .......................................... 236

2.75

nearkombinationen von Zufallsvariablen ........................................ 239

2.7.6

Formelzusammenstellung fr stetige Zufallsvariablen ....................... 241

2.7.7

Anwendungsbeispiel: portfoliotheorie ............................................... 242

3. Theoretische Verteilungen .................................................................................... 247


3.1 Diskrete Verteilungen ...................................................................................... 247
3.1.1

Binomialverteilung .............................................................................. 247

3.1.1.1

Wahrscheinlichkeits- und Verteilungsfunktion ............................. 247

3.1.1.2

Eigenschaften ................................................................................. 251

3.1.1.3

Praxisanwendung: Operationscharakteristiken ............................. 252

3.1.2
3.1.2.1

Hypergeometrische Verteilung ........................................................... 254


Wahrscheinlichkeits- und Verteilungsfunktion ............................. 254

Inhaltsverzeichnis

XIII

3.1.2.2

Eigenschaften ................................................................................. 257

3.1.2.3

Approximation durch die Binomialverteilung ............................... 258

Poissonverteilung ................................................................................ 259


3.1.3
Wahrscheinlichkeits- und Verteilungsfunktion ............................. 259
3.1.3.1
3.1.3.2
Eigenschaften ................................................................................. 261
3.1.3.3

Approximation ............................................................................... 261 "

3.2 Stetige Verteilungen ......................................................................................... 263


3.2.1

Gleichverteilung .................................................................................. 263

3.2.1.1

Dichte- und Verteilungsfunktion ................................................... 263

3.2.1.2

Diskretes Gegenstck. .................................................................... 264

3.2.2

Exponentialverteilung ......................................................................... 266

3.2.2.1

Dichte- und Verteilungsfunktion ................................................... 266

3.2.2.2

Diskretes Gegenstck ..................................................................... 268

3.2.3

Nonnalverteilung ................................................................................. 270

3.2.3.1

Dichte- und Verteilungsfunktion ................................................... 270

3.2.3.2

Standardnonnalverteilung .............................................................. 273

3.2.3.3

Reproduktionseigenschaft .............................................................. 277

3.2.4

Logarithmische Nonnalverteilung ....................................................... 278

3.3 Test-Verteilungen ............................................................................................. 280


3.3.1

Chi-Quadrat-Verteilung ....................................................................... 280

3.3.2

t-Verteilung .......................................................................................... 282

3.3.3

F-Verteilung ......................................................................................... 283

3.4 Bedeutung der Nonnalverteilung .................................................................... 285


3.4.1

Zentraler Grenzwertsatz ...................................................................... 285

3.4.2

Approximation diskreter Verteilungen ............................................... 287

3.4.2.1

Binomialverteilung ......................................................................... 287

3.4.2.2

Hypergeometrische Verteilung ...................................................... 288

3.4.2.3

Poissonverteilung ........................................................................... 289

3.4.2.4

berblick zur Approximation eindimensionaler Verteilungen ..... 291

3.4.2.5

Empirische Verteilungen ................................................................ 292

4. Aufgaben ................................................................................................................ 295

m Induktive Statistik ......................................................................................... 309


1. Punkrschtzung ...................................................................................................... 311
1.1 Stichproben ...................................................................................................... 311
1.2 Schtzer und ihre Stichprobenverteilungen .................................................... 312

XIV

Inhaltsverzeichnis

1.2.1

Grundlagen der Punktschtzung ........................................................ 312

1.2.2

Verteilung des Stichprobenmittels ...................................................... 315

1.2.2.1

Ziehen mit Zurcklegen ................................................................ 315

1.2.2.2

Ziehen ohne Zurcklegen ............................................................. 318

1.2.3

Verteilung des Stichprobenanteilswerts ............................................. 320

1.2.3.1

Ziehen mit Zurcklegen ................................................................ 320

1.2.3.2

Ziehen ohne Zurcklegen ............................................................. 321

1.2.4

Verteilung der Stichprobenvarianz ..................................................... 323

1.2.5

Verteilung weiterer Stichprobengren ............................................. 324

1.2.5.1

Differenz zweier Stichprobenmittel... ............................................ 324

1.2.5.2

Differenz zweier Stichprobenanteilswerte .................................... 325

1.2.5.3

Quotient zweier Stichprobenvarianzen ......................................... 326

1.3 Gte von Schtzern ......................................................................................... 328


1.3.1

Erwartungstreue .................................................................................. 328

1.3.2

Asymptotische Erwartungstreue ......................................................... 329

1.3.3

EffIzienz ............................................................................................... 330

1.3.4

Konsistenz ........................................................................................... 331

1.3.5

Mittlerer quadratischer Fehler ............................................................. 332

1.4 Konstruktion von Schtzern ............................................................................ 333


1.4.1

Methode der kleinsten Quadrate ........................................................ 333

1.4.2

Maximum-Likelihood-Methode ........................................................... 334

1.4.3

Momentenmethode ............................................................................. 337

2. Intervallschtzung .................................................................................................. 339


2.1 Grundlagen ...................................................................................................... 339
2.2 KonfIdenzintervalle fr den Mittelwert ........................................................... 340
2.2.1

Normalverteilte Grundgesamtheit mit bekannter Varianz ................. 342

2.2.2

Normalverteilte Grundgesamtheit mit unbekannter Varianz ............. 344

2.2.3

Beliebig verteilte Grundgesamtheit .................................................... 345

2.3 KonfIdenzintervall fr den Anteilswert ........................................................... 346


2.4 KonfIdenzintervall fr die Varianz .................................................................. 348
2.5 berblick ber die behandelten KonfIdenzintervalle ..................................... 349
2.6 Planung des Stichprobenumfangs ................................................................... 350
2.6.1

KonfIdenzintervall fr den Mittelwert ................................................ 350

2.6.2

KonfIdenzintervall fr den Anteilswert .............................................. 351

2.6.3

KonfIdenzintervall fr die Varianz ..................................................... 351

3. Testen von Hypothesen ........................................................................................ 353

xv

Inhaltsverzeichnis

3.1 Allgemeines Testschema .................................................................................. 353


3.2 Testklassifizierung ............................................................................................ 357
3.3 Parametertests ................................................................................................... 358
3.3.1
Einstichprobentests ............................................................................. 358
3.3.1.1
Einstichprobentest fr den Anteilswert.......................................... 358
3.3.1.2

Einstichprobentest fr den Mittelwert ............................................ 365

3.3.1.3
3.3.1.4

Statistische Qualittskontrolle ........................................................ 369

3.3.2

Einstichprobentest fr die Varianz ................................................. 370


Zweistichprobentests ........................................................................... 372

3.3.2.1

Vergleich zweier Mittelwerte ......................................................... 373

3.3.2.2

Vergleich zweier Anteilswerte ....................................................... 376

3.3.2.3

Vergleich zweier Varianzen ........................................................... 377

Parametertests bei verbundenen Stichproben .................................... 379


3.3.3
Differenzentest ............................................................................... 380
3.3.3.1
3.3.3.2 Korrelationstesl.. ............................................................................. 382
3.3.4

Gtefunktionen von Parametertests ................................................... 385

3.4 Verteilungstests ................................................................................................. 390


3.4.1

Chi-Quadrat-Anpassungstest ............................................................... 390

3.4.1.1

Anpassungstest bei diskret verteilter Grundgesamtheit ................ 390

3.4.1.2

Anpassungstest bei stetig verteilter Grundgesamtheit ................... 395


Chi-Quadrat-Unabhngigkeitstest ....................................................... 396

3.4.2
3.4.3

Chi-Quadrat-Homogenittstest... ........................................................ .401

3.5 Einfache Varianzanalyse .................................................................................. 403


3.6 berblick ber die behandelten Testverfahren ............................................. .407
4. Aufgaben ................................................................................................................ 409
IV Einfhrung in die konometrie

uuu_uuu.uuuuuu.u.u.u.u.u.u.uuu.u.u.u.uu.

417

1. Grundlagen ............................................................................................................ 419


1.1 Was ist Regressionsanalyse? ............................................................................ 419
1.1.1

Ziele der Regressionsanalyse ............................................................. .419

1.1.2

Grundgedanken und Abgrenzungen .................................................. 421

1.2 Das Prinzip der kleinsten Quadrate ............................................................... .422


1.2.1

OLS bei Modellen mit einer erklrenden Variablen .......................... .422

1.2.2

OLS und Linearitl.. ............................................................................. 428

1.2.3

OLS bei Modellen mit mehreren erklrenden Variablen .................. .430

1.2.4

Gte einer geschtzten Regressionsgleichung .................................. .432

XVI

Inhaltsverzeichnis

1.2.4.1

Das Bestimmtheitsma .................................................................. 432

1.2.4.2

Einfacher Korrelationskoeffizient .................................................. 435

1.2.4.3

Angepasstes Bestimmtheitsma ..................................................... 436

2. Das lineare Regressionsmodell und seine Annahmen ........................................ .439


2.1 Das lineare Regressionsmodell ........................................................................ 439
2.1.1

Die Regressionsfunktion der Grundgesamtheit ................................. 439

2.1.2

Die Regressionsfunktion der Stichprobe ............................................ 444

2.2 Klassische Annahmen ...................................................................................... 447


2.2.1

Annahmenkatalog ............................................................................... 447

2.2.2

Bedeutung detenrtinistischer und stochastischer Regressoren ......... .455

2.2.3

Duplikation der Annahmen des CLRM durch OLS ........................... .456

2.3 Statistische Eigenschaften der OLS-Schtzer .................................................. .456


2.3.1

Verteilung der OLS-Schtzer ............................................................... 456

2.3.2

Gau-Markov-Theorem ...................................................................... 460

3. Testen von Hypothesen und Konfidenzintervalle ............................................... .463


3.1 Testen einzelner Regressionsparameter - t-Test.. .......................................... .463
3.1.1
Hypothesen, t-Statistik und Entscheidungsregel... ............................. 463 ,.
3.1.2

Der p-Wert .......................................................................................... 467

3.1.3
3.1.4

Beschrnkungen des t-Tests ............................................................... 468


Konfidenzintervalle fr Regressionsparameter................................... 469 ,.

3.2 Simultanes Testen mehrerer Parameter - F-Test ............................................ .471


3.2.1
Hypothesen, F-Statistik und Entscheidungsregel.. ............................. 471
3.2.2

F-Test fr die Gesamtsignifikanz ....................................................... .472

3.2.3
Weitere Anwendungen des F-Tests und der Chow-Test.. ................ .474
3.3 Test der Normalverteilungsannahme ............................................................. .477 ,.
4. Verletzungen der Annahmen des klassischen Regressionsmodells .................... .481
4.1 Modellspezifikation I: Varlablenwahl .............................................................. 481
4.1.1

Vernachlssigte Variablen ................................................................... 481

4.1.2

berflssige Variablen ........................................................................ 484

4.1.3

Modellspezifikationskriterien und Spezifikationstests ....................... 486

4.1.4

Verzgerte erklrende Variablen ........................................................ 489

4.2 Modellspezifikation II: Funktionale Fonn ...................................................... .492


4.2.1

Bedeutung des konstanten Terms ...................................................... 492

4.2.2

Alternative funktionale Fonnen .......................................................... 494

4.2.2.1

Lineare Fonn .................................................................................. 494

4.2.2.2

Doppel-Log-Fonn ........................................................................... 495

Inhaltsverzeichnis

XVII

4.2.2.3

Semi-Log-Form ............................................................................... 496

4.2.2.4

Polynom-Form ................................................................................ 498

4.2.2.5

Inverse Form .................................................................................. 499

4.2.2.6

Zusammenfassender berblick. .................................................... .500

4.2.3

Dummy-Variablen ............................................................................... 501

4.2.3.1

Achsenabschnitts-Dummies .......................................................... .501 "

4.2.3.2

Steigungs-Dummies ........................................................................ 507

4.2.4

Folgen der Wahl einer falschen funktionalen Form ......................... .509

4.3 Multikollinearitt. .............................................................................................. 511


4.3.1

Formen und Ursachen von Multikollinearitt ..................................... 511

4.3.2

Konsequenzen von Multikollinearitt ................................................. 513

4.3.3

Aufdecken von Multikollinearitt... ..................................................... 514 "

4.3.4

Vorgehensweise bei festgestellter Multikollinearitt ......................... .518

4.4 Heteroskedastizitt .......................................................................................... .524


4.4.1

Formen und Ursachen von Heteroskedastizitt ................................ .524

4.4.2

Konsequenzen von Heteroskedastizitt ............................................. .526

4.4.3

Aufdecken von Heteroskedastizitt ................................................... .528 "

4.4.3.1

Grafische Methode ........................................................................ .528

4.4.3.2

Breusch-Pagan LM-Tes!. ................................................................. 531

White-Test ...................................................................................... 533


4.4.3.3
4.4.4
Vorgehensweise bei festgestellter Heteroskedastizitt.. .................... .536
4.4.4.1

Gewichtetes Prinzip der kleinsten Quadrate (WLS) ..................... .536

4.4.4.2

White Standardfehler...................................................................... 539

4.4.4.3

Variablenredefinition ...................................................................... 541

4.5 Autokorrelation ................................................................................................ 542


4.5.1

Formen und Ursachen von Autokorrelation ...................................... 542

4.5.2

Konsequenzen von Autokorrelation ................................................... 549

4.5.3

Aufdecken von Autokorrelation ......................................................... 551 "

4.5.3.1

Grafische Methode ......................................................................... 551

4.5.3.2

Durbin-Watson d-Test .................................................................... 553

4.5.3.3

Breusch-Godfrey LM-Test ............................................................. .555

4.5.4

Vorgehensweise bei festgestellter Autokorrelation ........................... .557

4.5.4.1

Verallgemeinertes Prinzip der kleinsten Quadrate (GLS) ............. 557

4.5.4.2

Newey-West Standardfehler ........................................................... 561

4.5.4.3

Dynamische Modellformulierung ................................................. .562

4.6 Korrelation zwischen erklrenden Variablen und stochastischem Strlerm .. 564

XVIII

Inhaltsverzeichnis

4.6.1

Konsequenzen .................................................................................... 564

4.6.2

Ursachen ............................................................................................. 565

4.6.2.1

Vernachlssigte Variablen .............................................................. 565

4.6.2.2

Messfehler ...................................................................................... 565

4.6.2.3

Verzgerte endogene Variable ...................................................... 566

4.6.2.4

Simultanitt..................................................................................... 567

4.6.3

Instrurnentenvariablenschtzung ........................................................ 568

4.6.3.1

Instrurnentenvariablen ................................................................... 568

4.6.3.2

Zweistufige Methode der kleinsten Quadrate (TSLS) ................... 570 "-

4.6.3.3

Hausrnan-Test und Verletzung von Annahme 2b ......................... 574

4.6.3.4

Sargan-Test und Gte von Instrwnenten ...................................... 577

4.7 Besonderheiten bei der Arbeit mit Zeitreihen ................................................ 580


4.7.1

Dynamische Modelle .......................................................................... 580

4.7.1.1

Autoregressive distributive Lag-Modelle ....................................... 580

4.7.1.2

Spezialfall: Autoregressive Modelle ............................................... 581 "-

4.7.1.3

Problem der Autokorrelation in ARDL-Modellen .......................... 585


Nichtstationre Zeitreihen und Kointegration .................................... 586

4.7.2
4.7.2.1

Stationaritt vs. Nicht-Stationaritt.. ............................................... 586

4.7.2.2

Random Walks und Unit Roots ..................................................... 587

4.7.2.3

Differenzstationaritt vs. Trendstationaritt.. ................................. 590

4.7.2.4

Scheinregression und ihre Bekmpfung ....................................... 592

4.7.2.5

Priifung auf Stationaritt ................................................................ 596 "-

4.7.2.6

Kointegration und Fehlerkorrekturmodell .................................... 604 "-

4.7.2.7

Zusammenfassung ......................................................................... 609

4.8 Modelle fr die volatilitt.. .............................................................................. 610


4.8.1

Volatillttseigenschaften von Finanzmarktdaten ................................ 610

4.8.2

Historische volatilitt und gleitende Durchschnitte ........................... 613

4.8.3

ARCH- und GARCH-Modelle .............................................................. 616

4.8.3.1

Grundlagen des ARCH-Modells ...................................................... 616

4.8.3.2

Nichtnegativitt, unbedingte Varianz und Stationaritt .................. 618

4.8.3.3

Schtzen von und Prognose mit ARCH-Modellen ......................... 619 "-

4.8.3.4

berprfen von ARCH-Modellen ................................................... 622

4.8.3.5
4.7.3.4

Das GARCH-Modell und das GARCH-in-Mean-Modell .................. 624 "-

4.7.3.5.

Zusammenfassung und Ausblick .................................................... 632

Das asymmetrische ARCH- und GARCH-Modell ............................ 629 "-

5. Zusammenfassende Anwendungen aus dem Finanzbereich ............................... 635

Inhaltsverzeichnis

XIX

5.1 Capital Asset Pricing Model ............................................................................. 635

5.2 Investmentfondsperfonnance .......................................................................... 638

6. Progoose mit geschtzten Regressionsmodellen .................................................. 643


6.1 Grundlagen der Progoose ................................................................................ 643
6.2 Bedingte Prognosen ......................................................................................... 646
6.2.1

Prognosefehler bei bedingten Prognosen .......................................... 646

6.2.2

Beurteilung der Gte von Prognosen ................................................. 649

6.2.3

Prognose bei Vorliegen von Autokorrelation ..................................... 653

6.2.4

Trendprognosen .................................................................................. 656

6.3 Unbedingte Progoosen .................................................................................... 658


6.4 Zusammenfassung ............................................................................................ 660
7. Aufgaben ................................................................................................................ 661
V Lsungen ......................................................................................................... 677

Kapitel I - Deskriptive Statistik ................................................................................. 679


Kapitel II - Wahrscheinlichkeitsrechnung ................................................................ 685
Kapitel III - Induktive Statistik .................................................................................. 695
Kapitel IV - konometrie ......................................................................................... 705
VI Anhang ........................................................................................................... 721

1. Statistische Tafeln ................................................................................................... 723


1.1 Binomialkoeffizienten ...................................................................................... 723
1.2 Binomialverteilung - Verteilungsfunktion ....................................................... 724
1.3 Poissonverteilung - Verteilungsfunktion .......................................................... 731
1.4 Standardnormalverteilung - Verteilungsfunktion ............................................ 734
1.5 Standardnormalverteilung - Wichtige Quantile ............................................... 735
1.6 Chi-Quadrat-Verteilung - Quantile .................................................................. 736
1.7 t-Verteilung - Quantile ..................................................................................... 738
1.8 F-Verteilung - Quantile .................................................................................... 739
2. konometrische Tafeln ......................................................................................... 745
2.1 Kritische Werte der Durbin-Watson-Statistik ................................................... 745
2.2 Kritische Dickey-Fuller t-Werte ........................................................................ 747
Literaturverzeichnis .................................................................................................... 749
Stichwortverzeichnis .................................................................................................. 757

Abbildungsverzeichnis
Abbildung I 1: Deskriptive und induktive Statistik ......................................................... 3
Abbildung I 2: Grundgesamtheit oder Stichprobe und Merkmalstrger ........................ 4
Abbildung I 3: Statistische Maskalen ............................................................................. 6
Abbildung I 4: Stetige und diskrete Merkmale .............................................................. 10
Abbildung I 5: Hufigkeitstabelle ................................................................................... 15
Abbildung I 6: Hufigkeitstabelle bei klassierten Daten ............................................... 22
Abbildung I 7: Histogramme typischer Hufigkeitsverteilungen ................................... 27
Abbildung I 8: Quartile in der Urliste ............................................................................ 28
Abbildung I 9: Statistische Mazahlen ............................................................................ 31
Abbildung I 10: Lageparameter und Skalierung ............................................................ 32
Abbildung I 11: Zusammenhang zwischen stetigen und diskreten Renditen .............. .42
Abbildung I 12: Lageregeln ........................................................................................... .44
Abbildung I 13: Arbeitstabelle zur Varianzberechnung ................................................ .51
Abbildung I 14: Einfacher Box-Whisker-Plot ................................................................. 61
Abbildung I 15: Spezieller Box-Whisker-Plot................................................................. 62
Abbildung I 16: Konstruktion der Lorenz-Kurve ........................................................... 70
Abbildung I 17: Arbeitstabelle zur Berechnung des Gini-KoefflZienten ....................... 75
Abbildung I 18: Streudiagramm ...................................................................................... 82
Abbildung I 19: Kontingenztabelle ................................................................................. 83
Abbildung I 20: Kontingenztabelle mit Randhufigkeiten ............................................. 85
Abbildung I 21: Korrelationsmae und Skalierung ........................................................ 92
Abbildung I 22: Interpretation der Kovarianz ................................................................ 93
Abbildung I 23: Bravais-Pearson-Korrelationskoeffizient und Streudiagramm ............. 98
Abbildung 124: Spearman-Rangkorrelationskoeffizient und Streudiagrarnm ............. l02
Abbildung 125: Kausale versus statistische Zusammenhnge .................................... 108
Abbildung II 1: Teilereignis und quivalente Ereignisse ............................................. 153
Abbildung II 2: Vereinigung und Durchschnitt ........................................................... 154
Abbildung II 3: Disjunkte und komplementre Ereignisse .......................................... 155
Abbildung II 4: Differenz .............................................................................................. 156
Abbildung II 5: Durchschnitte bei der Zerlegung ........................................................ 161
Abbildung II 6: Umenmodel1 ....................................................................................... 169

XXII

Abbildungsverzeichnis

Abbildung II 7: berblick Kombinatorik ..................................................................... 178


Abbildung II 8: Vierfeldertafel.. .................................................................................... 183
Abbildung II 9: Herleitung der totalen Wahrscheinlicbkeit 1.. .................................... 185
Abbildung II 10: Herleitung der totalen Wahrscheinlichkeit II ................................... 186
Abbildung II 11: Zufallsvariablen als Abbildung von n auf die reelle Achse ............ 194
Abbildung II 12: Zusammenhang Wahrscheinlichkeits- und Verteilungsfunktion ..... 201
Abbildung II 13: Verteilungsfunktion einer stetigen Zufallsvariable ........................... 202
Abbildung II 14: Dichtefunktion einer stetigen Zufallsvariable .................................. 204
Abbildung II 15: Zusammenhang Verteilungs- und Dichtefunktion ........................... 207
Abbildung II 16: Symmetrie und Erwartungswert (stetige ZV) ................................... 211
Abbildung II 17: Bestimmung des Median (stetige ZV) .............................................. 220
Abbildung II 18: Ungleichung von Tschebyscheff ...................................................... 222
Abbildung II 19: Gemeinsame Wahrscheinlichkeitsfunktion ...................................... 229
Abbildung II 20: Dichtefunktion der stetigen Gleichverteilung .................................. 263
Abbildung II 21: Verteilungsfunktion der stetigen Gleichverteilung .......................... 264
Abbildung II 22: Dichte- und Verteilungsfunktion der Nonnalverteilung .................. 271
Abbildung II 23: Skizzierte NV-Dichtefunktionen fr verschiedene

CJ ..........

272

Abbildung II 24: Skizzierte NV-Dichtefunktionen fr verschiedene 11. ....................... 272


Abbildung II 25: Dicbtefunktion der Standardnormaiverteilung ................................. 273
Abbildung II 26: Dichtefunktion, Quantile und Intervallwahrscheinlichkeiten.......... 277
Abbildung II 27: Diskrete Verteilungen im berblick ................................................. 284
Abbildung II 28: Stetige Verteilungen im berblick .................................................... 285
Abbildung II 29: Approximationsregeln ausgewhlter Verteilungen .......................... 291
Abbildung III 1: Verteilung des Sticbprobenmittels .................................................... 319
Abbildung III 2: Wichtige Stichprobenverteilungen im berblick .............................. 327
Abbildung III 3: Erwartungstreue und verzerrte Schtzer ........................................... 328
Abbildung III 4: Effizenz .............................................................................................. 330
Abbildung III 5: Dichten einer konsistenten Schtzfunktion fr verschiedene n ...... 331
Abbildung III 6: Vorteilhaftigkeit leicht verzerrter Schtzer ........................................ 332
Abbildung III 7: Wahrscheinlichkeitsintervall .............................................................. 341
Abbildung III 8: Intervallschtzungen fr den Mittelwert ........................................... 342
Abbildung III 9: Konfidenzintervalle im berblick ..................................................... 349
Abbildung III 10: Fehler 1. und 2. Art ......................................................................... 355
Abbildung III 11: Interpretation eines Testergebnisses ............................................... 357
Abbildung III 12: Dichtefunktion von V bei korrekter Nullhypothese a) .................. 360
Abbildung III 13: Dichtefunktion von V bei korrekter Nullhypothese b) .................. 361

Abbildungsverzeichnis

XXIII

Abbildung III 14: Dichtefunktion von V bei korrekter Nullhypothese c) ................... 361
Abbildung III 15: Einstichprobentests den Mittelwert ................................................. 366
Abbildung III 16: berwachungsgrafik zur statistischen Qualittskontrolle ............... 370
Abbildung III 17: Gtefunktion eines unverflschten und eines idealen Tests .......... 386
Abbildung III 18: Gtefunktion vs. OC-Kurve ............................................................. 387
Abbildung III 19: Gtefunktionen beim einfachen Gautest ...................................... 389
Abbildung III 20: Hilfstabelle fr den Chi-Quadrat-Anpassungstest ........................... 391
Abbildung III 21: Kontingenztabelle fr den Chi-Quadrat-Unabhngigkeitstest.. ...... 397
Abbildung III 22: Kontingenztabelle fr den Chi-Quadrat-Homogenittstest ............ .402
Abbildung IV 1: Linearer Zusammenhang zweier Variablen ...................................... .422
Abbildung IV 2: OLS-Schtzung ................................................................................... 423
Abbildung IV 3: Zerleguog der Varianz von Y ........................................................... .433
Abbildung IV 4: Bestimmtheitsma .............................................................................. 434
Abbildung IV 5: Regressionsfunktion der Grundgesamtheit 1.. .................................. .440
Abbildung IV 6: Regressionsfunktion der Grundgesamtheit 11................................... .442
Abbildung IV 7: Wahre und geschtzte Regressionsgerade 1.. ................................... .446
Abbildung IV 8: Wahre und geschtzte Regressionsgerade 11 ................................... .446
Abbildung IV 9: Bedingte Verteilung der

E, ................................................................. 448

Abbildung IV 10: Homoskedastizitt ............................................................................ 450


Abbildung IV 11: Heteroskedastizitt ........................................................................... 451
Abbildung IV 12: Korrelationsmuster des Strtenns ................................................... .452
Abbildung IV 13: Einfluss von Ausreiern auf OLS-Schtzungen .............................. .453
Abbildung IV 14: Veranschaulichung der BLUE-Eigenschaft von OLS ...................... .460
Abbildung IV 15: Vernachlssigung des konstanten Tenns ....................................... .493
Abbildung IV 16: Doppel-Log-Fonn ............................................................................. 496
Abbildung IV 17: Semi-Log-Fonnen ............................................................................. 497
Abbildung IV 18: Inverse Fonn .................................................................................... 500
Abbildung IV 19: Achsenabschnitts-Dummy ................................................................ 502
Abbildung IV 20: Steigungs-Dummies ......................................................................... 508
Abbildung IV 21: Vollkommene vs. unvollkommene Multikollinearitt.. ................... 512
Abbildung IV 22: Homo- vs. Heteroskedastizitt.. ....................................................... 525
Abbildung IV 23: Grafische Aufdeckung von Heteroskedastizitt .............................. 529
Abbildung IV 24: Autokorrelationsfunktionen von AR(1)-Prozessen .......................... 545
Abbildung IV 25: Positive, negative und fehlende Autokorrelation ............................ 546
Abbildung IV 26: Autokorrelationsfunktion AR(1) versus AR(2) ................................. 548
Abbildung IV 27: Autokorrelation des Strtenns und funktionale Fonn .................... 549

XXIV

Abbildungsverzeichnis

Abbildung IV 28: Durbin-Watson d-Test ..................................................................... 554


Abbildung IV 29: Tagesrenditen mit Volatility Clustering ........................................... 611
Abbildung IV 30: Autokorrelogramme von DAX-Renditen ......................................... 612
Abbildung IV 31: Progoosearten (Zeitreihenmodelle) ................................................ 644
Abbildung IV 32: Progoosekonfidenzintervalle ........................................................... 648

Anwendungsverzeichnis
Renditen und Renditedurchschnitte ............................................................................... 40
Schtzung von Aktienvolatilitten .................................................................................. 56
Analyse von Wettbewerbsprozessen und Einkommensvetteilungen ............................ 70
Vor- und nachlaufende Konjunkturindikatoren ............................................................. 99
Inflationsmessung ......................................................................................................... 120
Inflationsbereinigung .................................................................................................... 121
Kaufkraftvergleiche ....................................................................................................... 123
Indizes aus der Wirtscbaftspraxis (vpI, HVPI, DA}{) ................................................... 130
Wettquotienten .............................................................................................................. 167
Das Dreitorespiel .......................................................................................................... 191
Roulette ......................................................................................................................... 224
Portfoliorisiko und Diversifikation ............................................................................... 242
Statistische Qualittskontrolle ....................................................................................... 252
Kreditrisiko .................................................................................................................... 262
Planung von Sticbprobenumfngen ............................................................................. 350
Schtzung von Konsumfunktionen .............................................................................. 464
Schtzung von Produktlonsfunktionen ........................................................................ 470
Erklrung der Lhne arbeitsttiger Frauen ................................................................... 478
Erklrung der Lhne arbeitsttiger Mnner .................................................................. 502
Erklrung von Impottvolumina in Wirtschaftsrumen ................................................ .517
Erklrung von Immobilienpreisen ................................................................................ 530
Schtzung von Nachfragefunktionen ........................................................................... 552
Erklrung der Umlaufsrenditen deutscher Untemehmensanleihen ............................ 583
Untersucbung von Trends in der Goldpreisentwicklung ............................................ 602
Beurteilung des langfristigen Zinseinflusses von Zentralbanken ................................ 605
Beurteilung der langfristigen Beziehung zwischen Geldmarktzinsstzen................. 608
Zeitvariable Volatitlitt von Aktienrenditen .................................................................. 620
Prfung der empirischen Validitt des Capital Asset Pricing Models .......................... 635
Analyse der Performance von Investmentfonds .......................................................... 638
Zinsprognose ................................................................................................................. 651

DESKRIPTIVE STATISTIK

Thema dieses ersten Kapitels ist die Aufbereitung von Zahlenmaterial mittels
Oberschaubarer Tabellenstrukturen, grafischer Abbildungen und aussagekrftiger Kennzahlen. Nach einem Grundlagenabschnitt, in dem wir zunchst
die wichtigsten Grundbegriffe der deskriptiven Statistik klren, befassen wir
uns ausfOhrlich mit sog. eindimensionalen Hufigkeitsverteilungen, die sich
Ober Lage-, Streuungs-, Schiefe- und Konzentrationsparameter charakterisieren lassen. Im Anschluss daran erfolgt die detaillierte Behandlung wichtiger Kennzahlen mehrdimensionaler Hufigkeitsverteilungen.
Den Abschluss des Kapitels zur deskriptiven Statistik bildet die Behandlung
von Preismesszahlen und -indizes. Neben verschiedenen Indextypen und
-berechnungsmethoden stellen wir dabei insbesondere verschiedene in der
Praxis wichtige Indizes zur Abbildung des gesamtwirtschaftlichen Preisniveaus und der Lage auf Finanzmrkten vor.

G ru nd beg riffe

Bevor wir auf statistische Methoden zur Zahlenaufbereitung eingehen, werden wir in
diesem einfhrenden Abschnitt zunchst den Begriff Statistik definieren (1.1) und seine
Teilgebiete kurz erlutern. Darauf folgend klren wir die fr die deskriptive Statistik bedeutenden Begriffe Merkmalstrger, Merkmal, Merkmalsausprgung, Grundgesamtheit
und Stichprobe (1.2) und gehen nher auf Maskalen und andere Kriterien ein, die sich
zur Klassifizierung von Merkmalen verwenden lassen (1.3).

1.1 Der Statistikbegriff


Der Begriff Statistik hat im Allgemeinen keine eindeutig festgelegte Defmition. Er
ist mehrdeutig. Zum einen verstehen wir unter Statistik eine Zusammenstellung

(tabellarisch oder grafisch) von Zahlen und Daten ber bestimmte Sachverhalte.
Typische Beispiele hierfr sind Bevlkerungs- und Umsatzstatistiken. Zum anderen
ist Statistik die Gesamtheit aller Methoden zur Erhebung, Aufbereitung und Analyse
empirischer Infonnationen. Gerade diese Methoden gehren mittlerweile zum unverzichtbaren Instrumentarium vieler Fachwissenschaften wie etwa der Physik, der
Biologie, der Geografie und natrlich der Wirtschaftswissenschaften.
Die Statistik kann in die Teilgebiete deskriptive und induktive Statistik untergliedert
werden (vgl. Abbildung I 1). Die deskriptive Statistik (beschreibende, explorative
Statistik) befasst sich damit, die umfangreichen und unberschaubaren Einzeldaten
statistischer Erhebungen durch mglichst wenige, aussagekrftige Kennzahlen Zu
charakterisieren. Die Aufgabe der induktiven Statistik (schlieende Statistik) ist
der Rckschluss auf eine Grundgesamtheit anhand von Stichproben. Dies ist in der
Praxis von entscheidender Wichtigkeit, da Vollerhebungen im Vergleich zu Teilerhebungen (vgl. Abschnitt 1.2) oft zu kostenintensiv oder einfach unmglich sind.
Statistik
Deskriptive Statistik

Induktive Statistik

Beschreibung und Darstellung von


Daten durch wenige Zahlen oder
Grafiken

Rckschluss auf Grundgesamtheit


aufgrund von Stichproben

z.B.

Schtzen, Testen von Hypothesen,

Mittelwerte, Streuungsmae,

stat. Entscheidungstheorie,
multivariate stat. Methoden

Indexberechnung

Teilgebiete:

Abbildung I 1: Deskriptive und induktive Statistik


B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_1, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

Als weiteres Teilgebiet knnte die Wahrscheinllcbkeltsrechnung aufgefhrt


werden. Sie wird im Rahmen dieses Lehrbuches als eigenstndiges Kapitel II behandelt. Da sie fr das Verstndnis der Verfahren der induktiven Statistik unerlsslich ist, wird sie hufig in einem Zug mit der induktiven Statistik genannt.

1.2 Merkmalstrger, Grundgesamtheiten und Stichproben


In der Statistik bezeichnen wir die Gegenstnde einer Untersuchung als Merkmalstrger (statistische Einheiten). Die Gesamtheit der Merkmalstrger mit bereinstimmenden Identifikationskriterien (sachlich, rumlich, zeitlich) bzw. die fr eine
statistische Untersuchung relevanten Merkmalstrger bilden die sog. Gnmdgesamtheit (statistische Masse). Jeder Merkmalstrger besitzt gewisse Eigenschaften,
die im Rahmen einer Untersuchung relevant bzw. zu analysieren sind. Diese nennen wir Merkmale. Jedes Merkmal besitzt zwei oder mehr Merkmalsausprgungen (Menge der Ergebnisse), die bei der Beobachtung auftreten knnen. Wird die
Grundgesamtheit bei einer Untersuchung vollstndig erfasst, so sprechen wir von
einer Voll- oder Totalerhebung. Im Gegensatz dazu wird bei einer Tell- oder
Stichprobenerhebung nur ein Bruchteil der Grundgesamtheit nach gewissen Zufallsgesetzen ausgewhlt.
Diese Bezeichnungen sollen anhand von Abbildung I 2 und des konkreten Beispiels I 1-1 veranschaulicht werden.
Grundgesamtheit oder Stichprobe
Merkmalstrger 1

Merkmalstrger 2

Merkmalstrger n

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal rn

Merkmalsausprgung

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal rn

Merkmalsausprgung

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal m

Merkmalsausprgung

Abbildung I 2: Grundgesamtheit oder Stichprobe und Merkmalstrger

1. Grundbegriffe

Beispiel I 1-1

Merkmalsbegriffe

Im Rahmen einer Vollerhebung soll das monatliche Durchschnittseinkommen von bayeri


schen Betriebswirtschaftsstudenten im Jahr 2010 untersucht werden. Dazu werden von
den Hochschulverwaltungen Fragebgen an die Studentinnen und Studenten ausgegeben,
worin Angaben Ober Alter, Geschlecht, Familienstand, Wohnort, Einkommenshhe usw. zu
machen sind. Die vorhergehend definierten Begrifflichkeiten knnen nun folgendermaen
auf dieses BeispielObertragen werden:

Grundgesamtheit: Alle bayerischen (rumliche Identifikation) Betriebswirtschaftsstudenten (sachliche Identifikation) im Jahr 2010 (zeitliche Identifikation)

Merkmalstrger: einzelner Student

Merkmal:

Mgliche Merkmalsausprgungen:

Alter

19,20,21,22,23, ...

Geschlecht

mnnlich, weiblich

Familienstand

ledig, verheiratet

Wohnort

Mnchen, NOrnberg, .. .

Einkommenshhe

300 , 400 , 450 , .. .

Neben realen Gmndgesamtheiten (z.B. Erwerbsttige in Bayern zum 31.12.2008,


herzinfarktbedingte Todesfalle im Jahr 2008, ... ) existieren auch hypothetische
Gmndgesamtheiten (z.B. Menge der Ergebnisse eines fortlaufenden Wrfelspiels,
Geburten bis zum Menschheitsende, ... ). Gerade bei den zuletztgenannten
Grundgesamtheiten, welche auch als unendliche Grundgesamtheiten bezeichnet
werden, ist ausschlielich eine Stichprobenbetrachtung sinnvoll oder mglich.
Nach der zeitlichen Abgrenzung der untersuchten Grundgesamtheit unterscheiden
wir Bestandsgroen (Bestandsmassen) und StronJgren (Bewegungsmassen).
Bestandsgren beziehen sich auf einen bestimmten Zeitpunkt (z.B. Einwohner
Bayerns zum 01.01.2008, Kassenbestand zum 31.12.2008), Stromgren sind in Bezug auf einen Zeitraum definiert (z.B. Geburten in Bayern in 2008, Insolvenzen in
der BRD in 2007). In der statistischen Praxis werden Bestandsgren in der Regel
aus Kostengrnden durch geeignete Stromgren fortgeschrieben. Wir knnen
nmlich den allgemeinen Zusammenhang
Anfangsbestand + Zugnge - Abgnge = Schlussbestand
festhalten, den wir auch als Bestandsgleicbung bezeichnen. In der Bevlkerungsstatistik wird beispielsweise die Wohnbevlkerung nur in greren Abstnden vollstndig erfasst (Volkszhlung) und in den Zwischenjahren durch die Beziehung
Bevlkerung Ende Jahr x = Bevlkerung Ende des Vorjahres + Zugnge im Jahr x
(Geburten, Zuwanderung) - Abgnge im Jahr x (Sterbeflle, Abwanderung) fortgeschrieben. Ein Beispiel fr die Fortschreibung aus der betriebswirschaftlichen Praxis
ist etwa die Emlittlung von Lagerbestnden an einem Stichtag nach der Methode
der laufenden Inventur.

I Deskriptive Statistik

Klassifikation von Merkmalen

1.3
1.3.1

Klassifikation nach dem Skalenniveau

Gerade das Beispiel I 1-1 aus dem vorhergehenden Abschnitt hat gezeigt, dass
jedes Merkmal zwei oder mehr mgliche Ausprgungen besitzen kann. Je nach Alt
des betrachteten Merkmals knnen diese Merkmalsausprgungen anhand verschiedener Skalen gemessen werden. Abbildung I 3 zeigt die zu unterscheidenden Skalen im berblick und gibt auerdem an, welche Rechenoperationen bei der Auswertung mit den Daten sinnvoll durchfhrbar und interpretierbar sind.
Qualitative
Variablen

Quantitative
Variablen

r~

NomJnaJskala

Ordinalskala

* > <

* > < + -

*><+-.

VerhltnJsskala

Kardinalskala
(metrische
Skala)

Abbildung I 3: Statistische Maskalen


Zur Verdeutlichung der in der Grafik dargestellten Sachverhalte betrachten wir nun
die einzelnen Skalen nher und veranschaulichen sie durch geeignete Beispiele:

1. Nominalskala
Die Nominalskala findet bei Merkmalen Anwendung, bei denen die Ausprgungen
lediglich eine Verschiedenartigkeit und keine Reihenfolge ausdrcken. Dies bedeutet, dass die Merkmalsausprgungen gleichberechtigt nebeneinander stehen. Es besteht zwar die Mglichkeit jeder Merkmalsausprgung eine Zahl zuzuordnen, doch
dient eine solche Verschlsselung der reinen Identifikation und nicht einer Rangfolgenbildung.

Beispiel I 1-2

Nominalskalierte Merkmale

Als typische Beispiele !Ur nominalskalierte Merkmale sind etwa die Religionszugehrigkeit
oder das Geschlecht eines Merkmalstrgers zu nennen. Betrachten wir das Merkmal Geschlecht nher, so zeigen sich die Ausprgungen "Mann" und "Frau". Es kann keine Rangfolge gebildet werden, da keine der Ausprgungen eine hhere WertigkeH besitzt. Selbst
wenn man die Verschlsselung "1 = Mann" und "2 = Frau" vornimmt, dienen die Zahlen
nicht der Rangfolgenbildung. Es kann mit und ohne Verschlsselung nur Gleichheit oder
Ungleichheit Oberprft werden. Wir knnen also z.B. sagen, dass zwei Merkmalstrger ein
unterschiedliches Geschlecht aufweisen. Ein "besseres Geschlecht" gibt es nicht.

1. Grundbegriffe

Kann ein Merkmal nur zwei verschiedene Ausprgungen annehmen (z.B. IIMann l1
und "Frau" beim Merkmal "Geschlecht"), sprechen wir auch von einem dichotomen

Merkmal.
2. Ordinalskala
Neben der Verschiedenartigkeit besitzen die Merkmalsausprgungen ordinalskaHerter Merkmale eine natrliche Rangfolge. Das heit, es kann eine "grer als"Beziehung zwischen den Ausprgungen aufgestellt werden. Wichtig ist dabei aber,
dass die Abstnde zwischen den Merkmalsausprgungen nicht quantifizierbar sind.

Beispiel I 1-3

Ordinalskalierte Merkmale

Typische ordinalskalierte Merkmale sind z.B. der Intelligenzgrad, der Tabellenplatz in der
Fuballbundesliga und Schulnoten. Fr das Merkmal Schulnoten zeigen sich z.B. die Ausprgungen 1, 2, 3, 4, 5, 6. Die Noten erfllen das Verschiedenartigkeitskriterium einer
Nominalskala. Zustzlich kann die Aussage gemacht werden, dass z.B. die Note 2 besser
(hherwertiger) ist als die Note 4. Es kann aber nicht geschlossen werden, dass die 1 im
Vergleich zur 2 genau so viel besser ist wie die 4 im Vergleich zur 5. Die Berechnung eines
Notendurchschnitts ist daher streng genommen nur zulssig, wenn wir unterstellen, dass
die Abstnde zwischen den einzelnen Noten gleichartig sind. Nur dann kann eine Durchschnittsnote von 1,5 als genau zwischen 1 und 2 liegend interpretiert werden.
Im Zusammenhang mit Schulnoten und dem Tabellenplatz in der Bundesliga sprechen wir
auch vom Vorliegen einer sog. Rangskala, da es sich um eine Skala handelt, die nur
ganzzahlige Ordnungsziffern aulweist, die mit 1 beginnen und in ununterbrochener Reihenfolge hintereinander stehen.
Wird z.B. in einem Fragebogen die Qualitt einer Lehrveranstaltung evaluiert, so knnten
die Ausprgungen der Qualittsvariablen folgende Gestalt aulweisen:

-2 = sehr niedrig -1

= niedrig 0 = mittelmig +1 = hoch +2 = sehr hoch

Solche Bewertungs- oder Einschtzungsskalen nennen wir auch Rating-Skalen.

3. Intervallskala
Zustzlich zu den Eigenschaften einer Ordinalskala knnen bei intervallskalierten
Merkmalen zwischen den Merkmalsausprgungen Entfernungen oder Abstnde angegeben und sinnvoll verglichen werden. Es existiert kein natrlicher Nullpunkt. Er
ist willkrlich definiert. Zwischen den Merkmalstrgern knnen keine Produkte
oder Quotienten gebildet werden.

Beispiel I 1-4

Intervallskalierte Merkmale

Die Kalenderzeitrechnung und Temperaturen in 'C knnen als intervallskaliert betrachtet


werden. Es kann nmlich z.B. fr das Merkmal Temperatur (von Wasser) zwischen den
Ausprgungen 20' C und 30' C eine Differenz von 10' C festgestellt werden. Dieser Unterschied wird als genau so gro erachtet wie der Unterschied zwischen 50' C und 60' C.
Eine Aussage wie "20' C ist viermal so warm wie 5' C." ist hingegen nicht mglich.

I Deskriptive Statistik

4. Verhltnisskala

Zu den Eigenschaften der Intervallskala kommt bei der Verhltnisskala noch ein
natrlicher Nullpunkt hinzu, wodurch eine Produkt- und Quotientenbildung mglich wird. Dies ist typischerweise bei Skalen zur Lngen-, Mengen- und Gewichtsmessung der Fall.
Beispiel I 1-5

Verhltnisskalierte Merkmale

Alter, Krpergre und Umsatz knnen zu den verhHnisskalierten Merkmalen gezhlt


werden. Es kann nmlich z.8. fr die Ausprgungen 100 und 200 des Merkmals Umsatz ausgesagt werden, dass 200 zweimal so viel ist wie 100 .

Intervall- und Verhltnisskalen werden auch unter den Begriffen Kardinalskalen


oder metrische Skalen zusammengefasst, da ihnen ein Masystem zugrunde liegt.
Mit jedem Skalentyp ist ein eindeutig festgelegtes Informationsniveau verbunden.
In der Praxis kann es nun aber aus verschiedenen Grnden erforderlich sein, eine
Transformation von Merkmalsausprgungen vorzunehmen. Eine solche ist
natrlich nur zulssig, wenn dadurch die in den Skalenwerten ursprnglich enthaltenen Informationen nicht verndert werden (skalenerbaltende Transjonnatlon).
Wrden wir z.B. die Ausprgungen 1, 2, 3, 4, 5 und 6 des Merkmals Schulnote in
10, 20, 30, 40, 50 und 60 transformieren, so wren weiterhin alle Merkmale einer
Ordinalskala erfllt und es wrden keine Informationen verlorengehen. Wrden
wir aber z.B. Zu Krpergren eine gewisse Konstante addieren, so wrde dies zu
Interpretationsfehlem der neuen Gren fhren. Es ist also deutlich zu erkennen,
dass fr jeden Skalentyp nur ganz bestimmte Transformationen mglich sind. Diese
betrachten wir im Folgenden nher:
1. Nominalskala

Hier sind alle Transjonnationen zulssig, unterschiedliche Ausprgungen auf unterschiedliche Ausprgungen und gleiche Ausprgungen auf gleiche Ausprgungen
abbilden. So knnen beispielsweise in einem Produktsortiment Artikel Nr. 321 und
Nr. 322 mit neuen Artikelnummern 2005 und 1998 versehen werden.
2. Ordlnalskala

Zulssig sind hier nur sog. streng monotone Transjonnatlonen. Dies bedeutet, dass
aus jedem Merkmalswert X, mit einer Funktion f(x,) der neue Merkmalswert y, gebildet wird. Die Rangfolge der Merkmalstrger darf sich dadurch nicht verndern.

YI = fex)

wobei

fr alle i

(11: 1)

Als Beispiel kann hier die bereits genannte Schulnotentransformation aufgefhrt


werden. Vor und nach der Transformation y, = lax, ist die Rangfolge identisch.
Alternativ wren hier ebenso Transfonnationen wie Yi ; ; ; Inx j oder Yi ; ; ;
denkbar. Auch bei ihnen bleibt nmlich die Rangfolge erhalten.

rx:

1. Grundbegriffe

3. Intervallskala
Bei intervallskalierten Merkmalen drfen ausschlielich lineare Transformationen
durchgefhrt werden. Dies bedeutet, dass sich die neuen Merkmalswerte y, als
lineare Funktion von X. ergeben.

y, = ax, + b

ntit a > 0

(11: 2)

Nehmen wir etwa an, dass die Ausprgungen 30 C und 40 C des Merkmals Temperatur in 0 F (Fahrenheit) transforntiert werden sollen, so erfolgt dies ber

Yl=32+~XI'
.....
.....
C
.p

was zu den neuen Werten 86 Fund 104 0 F fhrt, welche weiterhin intervallskaliert
sind und keine Informationen eingebt haben.
0

4. Verhltnisskala
Die wohl restriktivsten Transfonnationen sind bei Verhltnisskalen mglich. Es sind
hier nmlich nur sog. hnlIchkeitstransformationen (proportionale Transformationen), d.h. Multiplikationen ntit positiven Konstanten zulssig.
(11: 3)

hnlichkeitstransformationen fmden etwa bei der Umrechnung von Krpergren


Anwendung. Sollen z.B. die Gren 1,60 mund 1,70 m in ern-Werte umgerechnet
werden, erfolgt dies ber die Transfonnation y, = 100x" welche die ern-Werte 160
und 170 liefert. Auch die Umrechnung von DM in Euro ber die gelufige Transformation y, - 1/1,95583 . X. ist eine typische hnlichkeitstransformation.
In Ausnahmefallen kann es erforderlich sein skalensenkende Transformationen

durchzufhren, d.h. solche, die mit einem Infannationsverlust verbunden sind. Da


die von uns behandelten Skalen in der Reihenfolge Verhltnis-, Intervall-, Ordinalund Nominalskala dominant sind, bedeutet dies, dass wir durch Transformationen
mettisch skalierte Merkmale in ordinalskalierte oder nominalskalierte Merkmale
und ordinalskalierte in nominalskalierte Merkmale berfhren knnen. Eine Umkehrung ist nicht mglich, d.h. es gibt keine skalenerhhenden Transfonnationen.

Beispiel I 1-6

Skalensenkende Transformationen

blicherweise werden zur Messung von Krpergren Verhltnisskalen (z.B. Zentimeterskala) eingesetzt. Eine Messung kann jedoch auch auf ordinalem oder nominalem Niveau
erfolgen. So knnen wir z.B. metrische Grenklassen bilden und diese durch eine skalensenkende Transformation ordinal oder nominal abbilden.
Verhltnisskala

(5 Grenklassen)

bis 140 cm
ber 140 bis 160 cm
ber 160 bis 180 cm
ber 180 bis 200 cm
Ober 200 cm

Ordinalskala

(5 GrOenrnge)

1
2
3
4

sehr klein
klein
mittelgro
gro
5 sehr gro

Nominalskala

(2 GrOenklassen)

normgerechte Gr e

(I50 cm bis 190 cm)

2 nicht normgerechte Gr e
(unter 150 oder Ober 190 cm)

10

I Deskriptive Statistik

1.3.2

Klassifikation in diskrete und stetige Merkmale

Neben der Untergliederung bezglich der Skalierung ist die Einteilung in diskrete
und stetige Merkmale von Bedeutung. Wir bezeichnen ein Merkmal als diskret,
wenn es nur endlich viele oder hchstens abzhlbar unendlich viele unterschiedliche Ausprgungen annehmen kann. Allgemein knnen alle nominal- und ordinalskalierten Merkmale als diskret angesehen werden. Auch metrisch skalierte
Merkmale knnen diskret sein, wenn sie nur isolierte Zahlenwerte annehmen. Dies
ist typischerweise der Fall, wenn ihnen ein Zhlvorgang zugrunde liegt.
Beispiel I 1-7

Diskrete Merkmale

Typische diskrete Merkmale sind die Anzahl der Studenten an einer Hochschule oder die
Anzahl der Einwohner eines Landes. Betrachten wir das Merkmal Einwohnerzahl nher, so
sind Ausprgungen von 1 bis n mit nE W mglich. Es knnen also beispielsweise Werte
wie 50 oder 51, aber keine beliebigen Zwischenwerte wie 50,5 o. . auftreten.
Im Gegensatz zu diskreten Merkmalen sprechen wir von stetigen Merkmalen,
wenn in einem bestimmten Intervall jeder beliebige Wert angenommen werden
kann, wobei die Intervallgrenzen auch offen sein knnen. Dies gilt in der Regel fr
Merkmale, denen ein beliebig genauer Messvorgang zugrunde liegt.

Beispiel I 1-8

Stetige Merkmale

Lebensdauern, Lngen, Breiten und Hhen sowie Fllgewichte sind typische stetige
Merkmale. Fr das Beispiel FOligewicht knnen so etwa 5 kg oder 6 kg, aber auch beliebige Zwischenwerte wie 5,1 kg oder 5,25 kg bei einer Messung festgestellt werden.

Hufig werden aus Zweckmigkeitsgrnden bei der Datenauswertung diskrete


Merkmale mit sehr vielen Ausprgungen (z.B. Umstze) als stetig betrachtet. Wir
bezeichnen solche Merkmale als quasistetig. Umgekehrt knnen stetige Merkmale
durch sog. Klassierung (Gruppierung) als diskrete Merkmale behandelt werden
(vgl. Abbildung I 4). Dies ist Z.B. blich, wenn der Datenerhebung nur ein sehr
grober Messvorgang zugrunde liegt. Anstelle des genauen Merkmalswertes wird
nur noch das Intervall angegeben, in welches der Wert fllt. Hierauf werden wir im
Rahmen des Abschnitts I 2 zu Hufigkeitsverteilungen noch genauer eingehen.
Klassierung

Stetiges Merkmal
(Ld.R. Messvorgang)

Diskretes Merkmal
(Ld.R. Zhlvorgang)
Quasistetigkeit

Abbildung I 4: Stetige und diskrete Merkmale

11

1. Grundbegriffe

1.3.3

Klassifikation in qualitative und quantitative Merkmale

Neben den bisherigen Klassifizierungen knnen wir Merkmale auch in qualitative


und quantitative Merkmale unterteilen. Quantitative Merkmale sind Merkmale,
deren Ausprgungen Zahlen sind. Qualitative Merkmale hingegen besitzen in der
Regel Ausprgungen, die durch einen verbalen Ausdruck charakterisiert sind. Dies
bedeutet also, dass nominalskalierte Merkmale als qualitativ und metrisch skalierte
Merkmale als quantitativ zu betrachten sind. Ordinalskalierte Merkmale hingegen
knnen nicht genau zugeordnet werden.
Werden die Ausprgungen qualitativer Merkmale durch Zahlen ersetzt, wird dieser
Vorgang als Quantifizlerung bezeichnet. Aus dem qualitativen Merkmal wird also
(nur uerlich) ein quantitatives. Bei der statistischen Auswertung des Datenmaterials ist jedoch zwischen einem echt quantitativen Merkmal und einem quantifizierten Merkmal zu unterscheiden.
Beispiel I 1-9

Quantitative und quantifizierte Merkmale

Fr das verhltnisskalierte und damit quantitative Merkmal Einkommen liegen nach Befragung zweier Personen die Ausprgungen 1.000 und 3.000 vor. Es kann also ein
Durchschnittseinkommen von 2.000 angegeben werden.
Fr dieselben Personen haben sich die Religionszugehrigkeiten 1 und 3 (vorherige Quantifizierung: 1 = katholisch, 2 = evangelisch, 3 = sonstige) ergeben. Hier von einer "mittleren
Konfession" 2 zu sprechen ware unsinnig. Trotz Quantifizierung bleibt die Religionszugehrigkeit ein nominalskaliertes Merkmal, sodass lediglich Vergleiche der Merkmalsausprgungen zulssig sind.

2.

Eindimensionale
Hufigkeitsverteilungen

Thema dieses Abschnitts ist die Auswertung eindimensionalen (univariaten) Datenmaterials, d.h. Daten zu einem einzigen Merkmal einer Grundgesamtheit oder Stichprobe. Der erste Schritt besteht dabei im Auszhlen von Hufigkeiten, mit der die Ausprgungen des interessierenden Merkmals einzeln oder in Klassen zusammengefasst
auftreten. Dies liefert uns die sog. Hufigkeitsverteilung. In einem zweiten Schritt knnen
wir Mazahlen berechnen, die diese Hufigkeitsverteilung charakterisieren. Mazahlen
geben zwar einen kompakten berblick ber wesentliche Eigenschaften einer Hufigkeitsverteilung, doch lassen sich in grafischen Darstellungen oft Strukuren im Datenmaterial erkennen, die Mazahlen nicht widerspiegeln. Gerade daher empfiehlt es sich, tabellarische und grafische Darstellungen von Hufigkeitsverteilungen mit ihren Mazahlen zu
kombinieren, um das vorliegende Datenmaterial mglichst gut zu beschreiben.

2.1

Hufigkeitsverteilung
Das Auszhlen der Hufigkeiten von Ausprgungen diskreter Merkmale und derer
stetiger (bzw. quasistetiger) Merkmale erfordert unterschiedliche Vorgehensweisen.
Bei diskreten Merkmalen (mit nicht zu vielen unterschiedlichen mglichen Ausprgungen) kommen im auszuwertenden Datenmaterial die einzelnen Ausprgungen
meist mehrmals, d.h. bei mehreren Merkmalstrgem vor. Bei stetigen (und quasistetigen) Merkmalen ist das mehrmalige Auftreten hingegen nicht die Regel.

2.1_1

Hufigkeitsverteilung bei diskreten Merkmalen

In statistischen Erhebungen werden von einer Grundgesamtheit mit insgesamt N

Elementen (Merkmalstrgem) in der Regel genau n Elemente (Stichprobe) hinsichtlich eines einzigen Merkmals X untersucht. Die durch die Stichprobe gewonnenen
Werte ~, ~, ... , ~ bezeichnen wir als Beobachtungswerte. Durch Aneinanderreihung aller Beobachtungswerte erhalten wir die sog. Beobachtungsreihe oder Urliste. Anders ausgedrckt ist die Urliste das n-Tupel (x" x" ... , x,,) aller n Beobachtungswerte.
Zur Aufbereitung dieses Datenbestandes bzw. der Urliste empfiehlt es sich, die
Hufigkeitsverteilung des Merkmals X zu gewinnen. Dazu bentigen wir die absoluten und relativen Hufigkeiten, der in der Urliste vorkommenden individuellen
Merkmalsausprgungen von X. Wir bezeichnen diese Merkmalsausprgungen mit
all a 21 ... , ~, d.h. wir gehen davon aus, dass in der Stichprobe genau k verschiedene Ausprgungen des Merkmals X auftreten und k nicht ZU gro ist. Wir knnen
damit fr die gesuchten Hufigkeiten die folgenden Zusammenhnge festhalten:
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_2, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

14

1. Absolute Hufigkeit
Unter der absoluten Hufigkeit h(a,) verstehen wir die Anzahl von Elementen der
Urliste, die auf eine bestimmte Merkmalsausprgung a; entfallen.
Es gilt allgemein
(12: 1)
und
k

h(a,) + h(a,) + ... + h(ak ) = ~>(aj) = n.

1_'

(12: 2)

Der Wert der absoluten Hufigkeit muss also nach (12: 1) zwingend grer oder
gleich Null und kleiner oder gleich der Gesamtzahl n der Elemente der Urliste sein.
Zudem ergibt nach (12: 2) die Summe aller absoluten Hufigkeiten stets n.
2. Relative Hufigkeit
Dividieren wir die absoluten Hufigkeiten h(a,) durch die Gesamtzahl der Elemente
n, so erhalten wir die relative Hufigkeit

f(a.) = h(a j )
J

(12: 3)

fr die
(12: 4)
und
k

f(a,) + f(a,) + ... + f(a,) = Lf(aj) = 1

1_'

(12: 5)

gilt. Da die relative Hufigkeit f(a,) nichts anderes angibt als den Anteil, mit dem a,
in der Stichprobe des Umfangs n vertreten ist, liegt f(a,) nach (12: 4) logischerweise
stets zwischen 0 und 1 oder stimmt mit diesen Werten berein. Zudem muss die
Summe aller Anteilswerte zwingend 1 ergeben, was (12: 5) zum Ausdruck bringt.
Relative Hufigkeiten werden hufig auch in Prozent angegeben. Ihre Summe liegt
dann bei 100 %.
Unter der absoluten HufigkeitsverteiIung verstehen wir nun nichts anderes als
die Paare (a" h(a~) mit j - 1,2, ... ,k und unter der relativen Hugkeitsvertellung
die Paare (al' f(a~) mit j = 1,2, ... ,k. Die einzelnen Merkmalsausprgungen aj werden

in einer Hufigkeitsverteilung meist zur besseren bersicht in aufsteigender Reihen-

folge sortiert.
Hufigkeitsverteilungen knnen wir bersichtlich in Fonn von Hujlgkeitstabellen
darstellen. Es empfiehlt sich dabei die Verwendung der in Abbildung I 5 skizzierten
Struktur. Wir erkennen daran recht schn, dass die Eigenschaften (12: 2) und (12: 5)
von absoluten und relativen Hufigkeiten hier als Spaltensummen berprfbar
sind. Fr eine anschauliche Tabellengestaltung empfiehlt es sich, mit mglichst
wenig Linierungen zu arbeiten, um die Tabelle optisch nicht zu berfrachten.

15

2. Eindimensionale Hlufigkeitsverteilungen

Laufende

ausprgung

HufIgkeit

absolute

relative
Hufigkeit

hCa,)

Merlanal>-

N~

h(a\)

"
"

hCa,)

fCa,)
fCa,)
fCa,)

a,.

hCa,)

fCa,)

Abbildung I 5: Hufigkeitstabelle

Bel.plell 2-1

Tabellarische Darstellung einer Hufigkeilsverteilung

Anlsslich einer Mitarbeiterstatistik wurde in einer Abteilung eines Unternehmens das Aller
X von n _ 25 Mitarbeitern erfasst. Dabei ergab sich die folgende Urliste:
XI In Jahren

23
25
23
29

1
2

3
4

5
6
7
8
9

10

XI In Jahren

11

12
13
14

35

25
23
25
29

I.

23
25
29
25
29
25
23

15

16

17

20
21
22
23
24
25

35

XI In Jahren

35

25
23

35

25
29
25

25

18

Wir erkennen daran, dass in der Stichprobe lediglich die k '" 4 Ausprgungen 23, 25, 29
und 35 des Merkmals X auftauchen. Durch Auszhlung dieser Ausprgungen erhatten wir
die absoluten Hufigkeiten. Diese liefern dividiert durch n - 25 schlielich die relativen
Hufigkeitsn. Wir kOnnen damit die Hufigkeitsverteilung tabellarisch wie folgt darstellen:
Laufende
Nummer
j

1
2
3
4

Merkmalsausprgung

a,
23
25
29
35

Absolute
Hufigkeit
h(~)

6
10
5
4
25

Relative
Hufigkeit

f(a,

0,24

0,40
0,20
0\16

Prozentwert

100 %. f(aJ

24%
40%
20%
16%

100%

Alternativ zur Hufigkeitstabelle kann die Darstellung der absoluten und relativen
Hufigkeitsverteilung auch grafisch in Form eines Piktogranunes, Stab- oder Sulendiagrammes, Hufigkeitspolygons oder Kreissektorendiagrammes erfolgen. Auch
wenn sich in der Praxis berwiegend das Sulendiagramm durchgesetzt hat, wollen
wir im Folgenden dennoch alle Mglichkeiten kurz betrachten:

I Deskriptive Statistik

16
1. PIkIogramm

Wie die Diagrammbezeichnung schon verrt, erfolgt eine Darstellung der Huftgkeiten durch unterschiedliche Anzahl oder Gre von Bildsymbolen.
2. Stobdlogromm
Ein Stabdiagramm (hhenproportionale Darstellung) entsteht durch Eintragung von
Punkten P(al'h(a j )) oder P(al'f(aj )) in ein Koordinatensystem, wobei jeder Punkt
durch eine Senkrechte mit der x-Achse bzw. ~-Achse verbunden wird. Die Lngen
dieser Senkrechten (Stbe) entsprechen daher den absoluten bzw. relativen Hu-

figkeiten. Werden relative Hufigkeiten abgetragen, so muss die Gesamdnge aller


Stbe zusammen gleich 1 sein. Wir knnen daher bei Stabdiagrammen fr relative
Hufigkeiten immer den gleichen Mastab auf der y-Achse whlen. Dies bietet sich
insbesondere beim Vergleich der Ergebnisse mehrerer Stichproben an.
3. HlJ'gkeltspolygon

Wie bei der Konstruktion eines Stabdiagrammes werden hier zunchst entweder
die Punkte P(al'h(aj )) oder P(apf(a j )) in ein Koordinatensystem eingetragen. Im
Anschluss daran werden diese durch Geraden verbunden.

4. Snlendfagramm
Im Vergleich zum Stabdiagramm werden beim Sulendiagramm (flchenproportionale Darstellung) die Hufigkeiten durch Flchen (Rechtecke) und nicht durch
Strecken abgebildet. Um eine Verwechslung mit einem Histogramm (vgl. Abschnitt
I 2.1.3) ZU vermeiden, ist ZU beachten, dass die Rechtecke nicht aneinanderstoen.

5. Kreblscktore~
Hier wird zu jeder Merkmalsausprgung ar ein Kreissektor gebildet, wobei die
Flchen der Sektoren und damit auch die Innenwinkel proportional ZU den Hufigkeiten gewhlt werden. Dazu muss fO.t den Innenwinkel ~ des j-ten Sektors

a j = 3600 ((a j )

Bit

(12: 6)

gelten. Kreissektorendiagranune eignen sich besonders gut fr nominalskalierte


Merkmale, da hier die Merkmalsausprgungen nicht auf einem Zahlenstrahl abgetragen werden mssen und somit aufgrund ihrer Anordnung nicht flschlicherweise
eine Rangfolge vermutet wird.

Beispiel I 2-2

Grafische Darstellung einer HAuflgkeltsvenellung

Eine Untersuchung aber die Industriesektorenzugehrigkeit von Untemehmen in einer bestimmten Region liefene das Ergebnis, dass 25 % der Unternehmen zum primren (P),
25 % zum sekundren (S) und 50 % zum teniAren Sektor (1) zahlen. Auch wenn bei einem
deranig einfach Oberschaubaren Resultat eigentlich keine grafische Darstellung erforderlich ist, wollen wir dieses einfache Beispiel im Folgenden dazu nutzen, die vorhergehend
beschriebenen Darstellungsformen zu veranschaulichen:

1. Piktogramm:
00000

Primrer Sektor

oee@e
o@o@o@ooo@

TenlArer Sektor

SekundArer Sektor

2. Eindimensionale Hufigkeitsverteilungen

17

Zur Konstruktion von Stab- und Sulendiagramm sowie des Hufigkeitspolygons im


Koordinatensystem bentigen wir die Punkte
P,{P; 0,25}

P2{S; 0,25}

PatT; 0,50}.

Wir erkennen daran, dass in derartigen grafischen Darstellungen nicht zwangslufig Zahlenwerte auf der x-Achse abgetragen werden mssen.

2. Stabdiagramm:

0,50

0,25

3. Hufigkeitspolygon:

4. Sulandiagramm:
f{a j }

0,50

0,25

,--

aJ

18

I Deskriptive Statistik
5. Kreissektorendiagramm:
Winkelberechnung:

= 360 f(a,l = 3600,25 = 90


", = 360 f(a,l = 3600,25 = 90
", =360f(a,l = 3600,50 = 180
IX,

2.1.2

Empirische Verteilungsfunktion bei diskreten Merkmalen

Ist ein Merkmal X ordlnal- oder metrisch skallert, dann unterliegen seine Merkmalsausprgungen a, einer Rangordnung. Es ist hier (nur hier) sinnvoll, die absoluten und relativen Hufigkeiten in aufsteigender Reihenfolge der a, zu summieren.
Durch fortlaufende Aufsummierung (Kumulierung) der absoluten Hufigkeiten
einer Huftgkeitsverteilung mit a, < a, < ... < a k lassen sich sog. absolute Summenhufigkeiten oder kumulierte absolute Hufigkeiten
H(x) = H(X S x) = ~>(al)

(12: 7)

i(SX

ermitteln, wobei H(x) die Anzahl jener Merkmalstrger angibt, welche einen Merkmalswert besitzen, der hchstens (kleiner oder gleich) x betrgt. Falls x genau
einem der a, entspricht, sind also lediglich die absoluten Hufigkeiten bis ZU dieser
Ausprgung a, aufzusummieren, d.h. H(a~ = h(a,) + h(a,) + ... + h(a~. Die ungewhnliche Summenschreibweise in (12: 7) wird verwendet, da x auch Werte annehmen kann, fr die kein a, existiert. In einem solchen Fall werden die absoluten
Hufigkeiten aufsummiert, die ZU Merkmalswerten a, gehren, die kleiner als x
sind.
Analog lassen sich sog. relative Summenhufigkeiten oder kumulierte relative Hufigkeiten ermitteln. Fr diese gilt
F(x) = F(X S x) =

L f(a l) ,
J

(12: 8)

~<I

wobei F(x) den Anteil der Merkmalstrger angibt, welche einen Merkmalswert aufweisen, der hchstens x betrgt. Alternativ kann die Bestimmung von F(x) auch
ber den Zusammenhang
F(x) = H(x)
n

(12: 9)

erfolgen. Wir bezeichnen (12: 8) auch als empirische Vertellungsfunktion. Da


fr die Hufigkeitsverteilung a1 < a2 < ... < ak gilt, ist der Funktionswert fr ein
jedes x, welches kleiner als a, ausfllt, unweigerlich Null. Es gibt schlielich keine
Merkmalstrger, die eine Merkmalsausprgung aufweisen, die kleiner als a, ist, da
dies bereits der kleinste Wert im Datensatz ist. Der Funktionswert fr ein jedes beliebiges x, das ber dem grten Merkmalswert a. liegt, ist gleich 1. Der Anteil der-

19

2. Eindimensionale Hlufigkeitsverteilungen

jeniger Merkmalstrger, die eine Merkmalsausprgung von weniger als x aufweisen,


ist schlielich 100 %. Wir knnen also zusammenfassend festhalten, dass die empirische Verteilungsfunktion beschrnkt ist, d.h. 0 :S F(x) :S 1 gilt. Wegen f(~ ~ 0 gilt
auerdem F(a) S ... S F(a) S ... S F(a.,), d.h. die empirische Verteilungsfunktion ist
monoton steigend. Wie wir im Beispiel I 2-3 sehen werden, hat sie auerdem
grafisch die Gestalt einer Treppcnfunktlon, welche bei jedem ~ eine Sprungstelle
mit einem Sprung in der Hhe von f(a;> aufweist.
Bei vorliegenden kumulierten absoluten oder relativen Hufigkeiten knnen wir
natrlich unmittelbar wieder auf die Einzelhufigkeiten schlieen. Es gelten nmlich die Zusammenhnge
und

Beispiel I 2-3

Empirische Verteilungslunktion

In 100 Filialen einer Buchhandlung wurden an einem bestimmten Tag entweder 0, 1, 2


oder 3 Exemplare (Ausprl.gungen des Merkmals Absatzzahl) eines bestimmten Buches
verkauft. Die resultierende Hiufigkeitstabelle, die uns die Huligkeit (absolut und relativ)
der Filialen angibt, in denen es zu den jeweiligen Verkaufszahlen kam, zeigt sich wie folgt:

j
1
2
3
4

h(a,
10
40
20
30
100

a,
0
1
2
3

I(al
0,10
0,40
0,20
0,30
1,00

Ennitteln wir nun zunA.chst die absoluten und relativen kumulierten Hlufigkeiten:

j
1
2
3

IIJ
0
1
2
3

h(IIJ)
10
40
20
30
100

H(IIJ)
10
50
70
100

+-

j
1
2
3
4

1(1IJl
0,10
0,40
0,20
0,30
1,00

F(al
0,10
0,50
0,70
1100

+-

0
1
2
3

Berechnung
h(O)
h(O) + h(1)
h(O) + h(1) + h(2)
h(O) + h(l) + h(2) + h(3)
Berechnung
1(0)
1(0) + 1(1)
1(0) + 1(1) + 1(2)
1(0) + 1(1) + 1(2) + 1(3)

Zur besseren Veranschaulichung der Berechnung einzelner kumulierter Hufigkeiten wollen wir diese nun noch einmal fOr den Wert F(2) Im Detail darlegen:
F(2) - 1(0)+1(1)+1(2) - 0,1+0,4+0,2 - 0,7

oder altemativ

F(2) -

H~2) - 1~~ - 0,7

20

I Deskriptive Statistik
Soll nun beispielsweise der Wert von f(l} aus den relativen kumulierten Hufigkeiten errechnet werden, kann dies wie folgt geschehen:
f(l} = F(I}-F(O} = 0,50-0,10 = 0,40
Wie wir gleich sehen werden, lsst sich dieser Wert auch aus der grafischen Darstellung
der empirischen Verteilungsfunktion ablesen, da in dieser die Sprung hhe zwischen einzelnen Treppenstufen an einer Stelle aj jeweils den zugehrigen Wert f(a~ angibt. Fr die
grafische Konstruktion der empirischen Verteilungsfunktion tragen wir lediglich die Punkte
P(aj, F(a~} in ein Koordinatensystem ein und versehen diese mit Unienzgen:
F(a j }

1,00
0,75

0,50

0,25

Auch die konkrete Funktionsschreibweise der empirischen Verteilungsfunktion knnen wir


angeben. Auerdem knnen wir das in absoluten kumulierten Hufigkeiten formulierte Gegenstck zur empirischen Verteilungsfunktion bestimmen:
0
fr
0,10

x<O
OS x <I

F(x} = 0,50
0,70

I S x <2
2Sx<3

1,00

x2:3

0
10
H(x} =

fr

x<O

oSx <I

50
70

ISx<2
2Sx<3

100

x2:3

Beantworten wir nun mittels dieser beiden Funktionen folgende Fragen:


a}

In wie viel Prozent der Filialen wurden hchstens 2 Bucher verkauft?


Die Antwort auf diese Fragestellung kann direkt als F(2} = 0,70 bzw. als 70 % angegeben werden.

b}

In wie vielen Filialen wurde mindestens I Buch verkauft?


Hier knnen wir die Beziehung n - H(O} = 100 - I 0 = 90 nutzen, d.h. wir subtrahieren
von der Gesamtzahl der Filialen die Anzahl derjeniger Filialen, in denen kein Buch verkauft wurde.

2. Eindimensionale Hufigkeitsverteilungen

2.1.3

21

Klassierte Hufigkeitsverteilung bei stetigen Merkmalen

Liegt ein stetiges (oder quasistetiges) Merkmal X vor, so taucht das Problem auf,
dass die Elemente der Urliste hufig alle voneinander verschieden sind. Das Aufstellen einer "regulren" Hufigkeitstabelle des im Abschnitt I 2.1.1 vorgestellten
Typs bietet hier keinen Infonnationsgewinn, da die meisten Merkmalsausprgungen nur einmal vorkommen. Es empfiehlt sich in einem solchen Fall, die Auspr-

gungen von X in der Stichprobe in k Klassen K; Ci - 1,2, ... , k) einzuteilen und die
zugehrigen Klassenhufigkeiten zu ermitteln. Die absolute KlassenhufIgkeit 11,
ist dabei die Anzahl derjeniger Elemente, deren Merkmalswerte in die Klasse K; fallen. Wir knnen also sagen, dass hier die Klassen

die Rolle der aj aus der "regu-

lren" Hufigkeitstabelle bernehmen. Die relativen Klassenhuflgkeiten


geben sich wieder ber

h
~ =--.L

er-

(12: 12)

und weisen damit die gleichen Eigenschaften wie in (12: 4) und (12: 5) auf. Auch
fr die h, gelten (12: 1) und (12: 2) analog. Zudem sei erwhnt, dass wir auch
kumulierte Klassenhufigkeiten gem der unter I 2.1.2 beschriebenen Vorgehensweise bestimmen knnen.

Wieviele Klassen sinnvollerweise gebildet werden sollten, kann aus DIN 55302
(Blatt 1) entnommen werden. Hier fmden sich unter anderem die Empfehlungen
bei Stichprobenumfngen n von 100, 1.000 und 10.000 eine Anzahl von 10, 13
bzw. 16 Klassen zu whlen. Natrlich kann aus Grnden der bersichtlichkeit der
Darstellung auch bereits bei geringerem n eine Klassierung vorgenommen werden.

Auerdem kann aufgrund des Untersuchungsobjekts auch eine andere Klassenanzahl geeigneter erscheinen.
Um Probleme bei der Zuordnung einzelner Merkmalswerte zu den Klassen zu ver-

meiden, empfiehlt es sich die Klassen K; in der Form aj < x:s; aj bzw. Jaj, ajl Zu
definieren. Jede Klasse K; ist damit gekennzeichnet durch eine Klassenuntergrenze aj und eine Klassenobergrenze aj. Da die einzelnen Klassen direkt ineinander bergehen, entspricht bei k Klassen die Untergrenze einer Klasse jeweils
der Obergrenze der vorhergehenden Klasse.

Ci = 2,3, ... ,k)

(12: 13)

Die Untergrenze der ersten Klasse knnen wir anhand des kleinsten Merkmalswerts

der Stichprobe whlen. Hufig wird sie auch auf Null gesetzt. Die letzte Klasse Kk
besitzt hufig eine Form a~ < x < 00 bzw. Ja~, oo[ und wird als offene Randklasse
bezeichnet. Dies bedeutet, dass in diese Klasse alle Merkmalsausprgungen fallen,
die grer als a~ sind.
Die sog. Klassenbreite Aa j der j-ten Klasse, die nach Mglichkeit durchgehend
einheitlich (konstant) gestaltet werden sollte, ist (auer fr offene Randklassen) als

Ci = 1,2, ... ,k)

(12: 14)

definiert. Bei der Wahl konstanter Klassenbreiten sind jedoch hufig manche Klas-

sen sehr schwach besetzt. Dies trifft vor allem auf die Randklassen zu. Dann ist es
evtl. sinnvoll, diese Klassen breiter zu whlen.

I Deskriptive Statistik

22

Besonders fr die im Kapitel I 2.2 behandelnden Messzahlen ist es von entscheidender Wichtigkeit, jeder Klasse ~ einen reprsentativen Zahlenwert zuzuordnen.
Dazu bietet sich die K1assen mJtte aj an, fr welche (auer bei offen Randklassen) folgendes gilt:
u
aM
J =.!Ca
2 J

+aO)
J

C'J= 1,2, ... , k)

Die Kombination der Klassen ~ mit ihren Klassenhufigkeiten ~ bzw. ~ bildet die
JdassJertc lIiufigkc:ltsve des Merkmals X. Wieder haben wir die Mglichkeit einer tabellarischen Darstellung. Abbildung I 6 veranschaulicht eine typische klassierte Hufigkeitstabelle.
Klassenn""""",

"""'"

Klassenbreite

Klassenmltte

ber aj' bis aj

a"

K,

absolute

relative

h,

~
~

"""oen- hufigkeit
"""oenhufigkeit

1a~. a~]

da,
da,

Ja~, a~]

Aa,

a",

h,
h,

~_I' a~]

Aa,

a"

h,

f,

a",

l:

Abbildung I 6: Hufigkeitstabelle bei klassierten Daten

Bit

Beispiel I 2-4

Hiiufigkeitstabelle bei klassierten Daten

Nehmen wir an, eine Erhebung in 47 amerikanischen Staaten ergab folgende Anzahlen
polizeilich gemeldeter Straftaten bezogen auf 100.000 Einwohner:

79,3 163,4 57,8 196,1 123,5 68,1 96,3 155,8 85,3 70,9 167,4 84,8 51,2 66,4 79,1
94,3 53,1 92,475,1 122,574,843,3 121,996,552,7 199,1 34,2 121,6 104,569,3

37,775,9 107,2 92,4 65,1 127,683,356,582,8 115,888,1 54,282,4 103,0 44,5


50,8 84,9
Eine erste Untersuchung des Datenmaterials zeigt, dass die kleinste KriminalitAtsrate bei
34,2 und die grte bei 199,1 liegt. Die Mehrzahl der Staaten verzeichnete Kriminalitiilsraten im Bereich von 50 bis 120. Um sich einen genaueren berblick. zu verschaffen, bietet
sich hier die Aufstellung einer klassierten Hufigkeitstabelle mit Klassenbreiten von 25 an.
Da dabei die entstehende untere Randklasse jedoch nicht besetzt wre, verdoppeln wir
diese und erhalten damit folgende Tabelle (Achtung: Rundungsungenauigkeiten bei relativen Haufigkeitenl):

2. Eindimensionale Hufigkeitsverteilungen

Nr.

Klasse K;

Klassenhufigkeit

Kumulierte
Klassenhufigkeit

absolut

relativ

absolut

hJ

fJ

4
13
16
8
1
5
47

0,09
0,28
0,34
0,17
0,02
0,11
1,00

ber aj bis a;
1
2
3
4
5
6
1:

23

0-50
50 -75
75 - 100
100 - 125
125 - 150
> 150

Klassenbreite

Klassenmitte

aaj

aIm

50
25
25
25
25

25
62,5
87,5
112,5
137,5

relativ

4
17
33
41
42
47

0,09
0,37
0,71
0,88
0,90
1,00

Die grafische Darstellung einer Hufigkeitsverteilung klassierter Daten erfolgt durch


ein sog. Histogramm. Als Darstellungsmittel dienen hier Rechtecke, die ber den
jeweiligen x-Achsen-Abschnitten der Klassen gezeichnet werden. Die Grundlinien
der Rechtecke entsprechen somit den Klassenbreiten. Anders als beim Sulendiagramm fr unklassierte Daten ist es hier nicht sinnvoll, die Hhe der Rechtecke als
Ma fr die Hufigkeiten zu whlen. Bei ungleichen Klassenbreiten entsfnde ein
falscher Eindruck von der Hufigkeitsverteilung.
Der Betrachter eines Histogramms orientiert sich beim Vergleich der Gre zweier

Rechtecke nicht an ihrer Hhe, sondern an ihrem Flcheninhalt. Die Hhe der
Rechtecke ist deshalb so zu whlen, dass ihr jeweiliger Flcheninhalt proportional
zur Klassenhufigkeit ist. Dies wird erreicht, indem als Hhe der Rechtecke die
sog. normierten absoluten oder normierten relativen Klassenhufigkeiten h; bzw.
~. verwendet werden. Diese ergeben sich zu
h
h J =-'

aaJ

bzw.

=-'-

aal

Cj=1,2, ... ,k).

(12: 16)

Liegen einem Histogramm normierte absolute Klassenhufigkeiten zugrunde, ist die


Gesamtflche aller Rechtecke H = n, im Falle nonnierter relativer Klassenhufigkeiten ist sie F - 1. Es gilt nmlich
k
k h
H = "'h:
aa.J = "'_I
aa.J =n
~ J
~A.~
1"'1

j_1 i l a j

bzw.

k
k
f
F = '"
f' . aa.J = L..
'" _I
. aa.J = 1.
~ J
A..~

1..1

)..1 Ui:L j

Da im Histogramm relativer Hufigkeiten unabhngig vom Stichprobenumfang n


die Flche immer auf 1 normiert ist, eignet sich dieses insbesondere beim Vergleich
verschiedener Datenstze mit unterschiedlichen Stichprobenumfangen. Wir bezeichnen die normierten relativen K.lassenhufigkeiten auch als Hufigkeitsdichten.
Beispiel I 2-5

Histogramm

Fr 200 Unternehmen einer Region wurden jeweils die Mitarbeiterzahlen erfasst, dafr
Klassen unterschiedlicher Breiten gebildet und die jeweiligen Hufigkeiten ausgezhlt. Die
Ergebnisse sind in nachfolgender Tabelle zu sehen. Darin sind auerdem bereits die normierten absoluten und relativen Klassenhufigkeiten berechnet, die wir zur Konstruktion
der Histogramme bentigen. Die Berechnungen bereiten hier keine sonderlichen Schwie-

24

I Deskriptive Statistik
rigkeiten. Wre jedoch eine offene Randklasse enthalten, so knnten wir keine Klassenbreite und damit auch keine normierten Klassenhufigkeiten fr unser Histogramm
bestimmen. In einem solchen Fall behelfen wir uns in der Praxis meist damit, einen knstlichen Hchstwert fOr die Klasse festzulegen, der sich am grten Wert der Stichprobe
orientieren kann.
Nr.

1
2
3
4
5

Klasse K;

Klassenbreite

Klassenhufigkeit
absolut

relativ

ber ai bis aj

hl

fl

1-2
2-5
5 -10
10 - 20
20 - 40

40
60
30
30
60
200

0,20
0,30
0,15
0,15
0,20
1,00

Normierte
Klassenhufigkeit
absolut

relativ

MI

h'

1
3
5
10
20

40
20
6
3
2

0,200
0,100
0,030
0,015
0,100

Wir erhalten aus diesem Datenmaterial folgende Histogramme:

fI

h'
I

40

0,2

20

0,1

10

20

40

30

10

MitarbeitelZahl

20

30

40

MitarbeitelZahl

Htten wir nur ein Sulendiagramm konstruiert, welches als Sulenhhen die nichtnormierten relativen Hufigkeiten verwendet, so wiirden wir ein vllig anderes Bild von der Hufigkeitsverteilung vermitteln:

fl

0,4
0,2
O'-------------~

]1,2]

]2,5]

]5,10]

]10,20] ]20,40]

MitarbeitelZahl
In der Praxis werden Histogramme gelegentlich auf sog. Hiiufigkeitspolygone reduziert.
Solche erhalten wir durch Verbinden der Mittelpunkte der oberen Sulenseiten. Sie kommen insbesondere dann zum Einsatz, wenn in einer Grafik verschiedene Haufigkeitsverteilungen miteinander verglichen werden sollen. Im hier vorliegenden Fall htte das
Hufigkeitspolygon folgende Gestalt:

2. Eindimensionale Hufigkeitsverteilungen

25

f1
0,2

0, 1

.~

~,

\-

..
Mitarbeiterzahl

Zur Interpretation eines Histogramms:


Im vorliegenden Beispiel ist eine recht einfache Interpretation des Histogramms mglich.
Das zugrunde liegende Merkmal X (Mitarbeiteranzahl) ist diskret und kann nur natUr/iche
Zahlen 1,2,3, ... als Ausprgungen annehmen. Whlen wir auf der x-Achse des Histogramms einen beliebigen ganzzahligen Wert wie z.B. 15, kann auf der y-Achse eine dazugehrige Hufigkeitsdichte abgelesen werden. Diese ist interpretierbar als diejenige Hufigkeit, die wir beim Auszhlen der unklassierten Daten erhalten htten, wenn die beobachteten Werte innerhalb der Klassen vollstndig gleichmig verteilt wren. Eine solche
Interpretation ist allerdings unzulssig, wenn ein Merkmal vorliegt, das auch nichtganzzahlige Werte annehmen kann. Dies gilt insbesondere fOr stetige Merkmale. Auch wenn wir
ein diskretes Merkmal mit nur natOrlichen Zahlen als Ausprgung vorliegen haben, werden
wir in der Praxis von der hier geschilderten Interpretation Abstand halten, da in der Mehrzahl der Flle nicht davon ausgegangen werden kann, dass eine Gleichverteilung innerhalb der Klassen gegeben ist.

Analog zu "regulren" Hufigkeitsverteilungen knnen wir auch fr klassierte Daten


eine empirische Venellungifunktlon bestimmen und skizzieren. Es bernehmen ja,
wie bereits angemerkt, die Klassen K, die Rolle der a,.
Beispiel I 2-6

Empirische Verteilungsfunktion bei klassierten Daten

Skizzieren wir fOr unser Beispiel I 2-5 die empirische Verteilungsfunktion. Wir bentigen
dazu zunchst die kumulierten relativen Klassenhufigkeiten Fj, die wir in der folgenden
Tabelle bestimmen:

ber a~ bis af
1
2
3
4
5
E

1-2
2-5
5 -10
10 - 20
20 - 40

fl

F1

0,20
0,30
0,15
0,15
0,20
1,00

0,20
0,50
0,65
0,80
1,00

Die empirische Verteilungsfunktion erhalten wir damit grafisch wie folgl. Die Sprung hOhen
sind nun relative Klassenhufigkeiten IJ.

26

I Deskriptive Statistik

FJ

1,0
0,8

............

0,6

0,4
0,2

10

20

30

40

Mitarbeiterzahl

In der Literatur fmdet sich auerdem gelegentlich der Vorschlag die empirische
Verteilungsfunktion klassierter Daten durch ein sog. Summenpolygon abzubilden.
Dazu werden die Punkte P(a~, FJ), d.h. die Klassenobergrenzen mit zugehrigem
kumulierten relativen Klassenhufigkeitswert, in ein Koordinatensystem eingetra-

gen. Unter der Annahme, dass die Elemente innerhalb einer Klasse gleichmig
verteilt sind, drren diese Punkte linear miteinander verbunden werden. Der so

entstehende stetige Graf heit schlielich Summenpolygon.


Beispiel 12-7

Summenpolygon

Das Summenpolygon zu Beispiel I 2-5 bzw. I 2-6 hat folgende Gestalt:

1,0
0,8
0,6
0,4
0,2

10

20

30

40

Mitarbeiterzahl

2.1_4

Typische Hufigkeitsverteilungen

Bei der Beschreibung von Datenmaterial mittels tabellarischer oder grafischer


Hilfsmittel finden sich intmer wieder typische Formen von Hufigkeitsverteilungen.
Wichtige Charakteristika dieser Sttukturen sind z.B. die Anzahl der Gipfel, die Symmetrie und die Streuung. Wir unterscheiden

2. Eindimensionale Hufigkeitsverteilungen

27

nach Anzahl der Gipfel:


Verteilungen ohne Gipfel (z.B. Gleichverteilung)
Verteilungen mit einem Gipfel (unimodiale Verteilungen)
Verteilungen mit mehreren Gipfeln (multimodiale Verteilungen)

nach Symmetrie:

symmetrische Verteilungen (z.B. unimodial-symmetrisch, U-fnnig)


unsymmetrische Verteilungen (z.B. linksschief, rechtsschief)

nach Streuung:

geringe Streuung (Daten konzentrieren sich um ein Datenzentrum)


groe Streuung (Daten streuen sehr stark um ein Zentrum)
Diese Charakteristika knnen wir grafisch gut mittels Stab- und Sulendiagrammen
oder Histogrammen (vgl. Abbildung I 7) veranschaulichen. Sie knnen aber auch
zahlenmig mit Hilfe von Mazahlen beschrieben werden. Dies ist Thema von
Abschnitt I 2.2.
unimodal,

rechtsschief

unimodal,
linksschief

groe Streuung

unimodal,
geringe Streuung

GleichverteUung

bimodal

unimodal,

Abbildung I 7: Histogramme typischer Hufigkeitsverteilungen

unimodal,

symmetrisch

28

I Deskriptive Statistik

2.1.5

Quantile

In diesem Abschnitt wollen wir kurz den Begriff des Quantils (auch als FraktiJ
bezeichnet) einfhren. Wir werden im Abschnitt I 2.2 sehen, dass wir Quantile sowohl zur Beschreibung der Lage als auch der Streuung von Hufigkeitsverteilungen
einsetzen knnen. Aufgrund ihrer hohen praktischen Bedeutung wollen wir ihnen
jedoch bereits an dieser Stelle einen eigenen Abschnitt widmen.
Liegt eine der Gre nach aufsteigend sortierte Urliste (x, < x, < ... < x n ) und ein
vorgegebener Anteilssatz a mit 0 < a < 1 vor, so bezeichnen wir eine Zahl Xa als aQuantil oder (IOOa) %-Quantil, wenn mindestens (IOOa) % der Werte der Urliste
kleiner oder gleich und mindestens 100{1-a) % grer oder gleich Xa sind.
Ist das produkt an aus dem vorgegebenen Anteilssatz und der Anzahl der Elemente der Urliste nicht ganzzahlig, so ist das a-Quantil der Beobachtungswert, der auf
den an-ten folgt. Ist an hingegen ganzzahlig, besteht in der Literatur Uneinigkeit
darber, ob der an-te Beobachtungswert (Variante A) oder der Mittelwert aus der
an-ten und der (an+l)-ten Beobachtung der Urliste (Variante lJ) als a-Quantil
gelten soll. Vorteil von Variante B ist, dass ein so ermittelter Zahlenwert die Urliste
exakt im Verhltnis a zu 1-a teilt. Als nachteilig wird jedoch zumeist angesehen,
dass ein nach Variante B ermittelter Wert in der Urliste gar nicht existiert. Soll ein
echter Beobachtungswert als Quantil dienen, ist auf Variante A zurckzugreifen,
wobei das genannte exakte Teilungsverhltnis hiermit aber nicht erreicht wird.
Je nach Ausprgung von a haben sich in der Literatur verschiedene Bezeichnungen
und auch Symboliken fr Quantile eingebrgert:

Quartile:

Ql

= X O,25 ,

Q2

= X O,50'

Q3

= X O,75

Dezlle:
XO,lO' X O,20' ...
perzentile: XO,Ol' X O,02' .
Die bedeutendsten Quantile sind die QuartiJe. Wir bezeichnen Q, als unteres oder
erstes, Q, als mittleres oder zweites und Q, als oberes oder drittes Quartil. Quartile
teilen die Daten in vier etwa gleichgroe Teilgesamtheiten ein. Betrachten wir dazu
das Beispiel in Abbildung I 8.

-- ~- - ~- -~- - - ~ - - ~ - - ~ - -- - I-t- I- I-t- I- I-t- I-Q,

Q,

Q,

Q,

Q,

Sortierte Beobachtungen
einer Urliste mit n = 11

Variante A

Q,

Variante B

Q,

Q,

Abbildung I 8: Quartile in der Urliste

Q,

Sortierte Beobachtungen
einer Urliste mit n = 12

2. Eindimensionale Hufigkeitsverteilungen

29

Im Falle der ungeraden Urltste mit n = 11 ist das Produkt aus n und 0,25, 0,50 bzw.

0,75 jeweils nicht ganzzahlig, sodass wir den dritten, sechsten und neunten Beobachtungswert als Q" Q, und Q, erhalten. 3/11 - 27,27 % der Beobachtungen sind
kleiner oder gleich Q, und 9/11 = 81,81 % sind grer oder gleich Q,. Analoges gilt
fr Q, und Q,. In der geraden Urliste mit n = 12 erhalten wir nach Variante A die
Quantile Q" Q, und Q, als den dritten, sechsten und neunten Beobachtungswert.
3/12 = 25 % der Beobachtungen sind kleiner oder gleich Q, und 10/12 = 83,33 %
sind grer oder gleich Q,. hnliches gilt fr Q, und Q,. Nach Variante B erhalten
wir Q, hingegen als Mittelwert aus der dritten und vierten Beobachtung, sodass
3/12 = 25 % links und 9/12 = 75 % der Beobachtungen neben diesem gemittelten
Wert liegen. Er existiert zwar nicht als Beobachtung in der Urliste, erlaubt jedoch
eine exakte 25-75-Einteilung der Urliste. hnliche Aussagen knnen wir auch ber
die nach Variante B bestimmten Quartile Q, und Q, machen.
Beispiel I 2-8

Quartile aus Urlisten

Die Auszhlung der Kassenbestnde in 11 Filialen einer Supermarktkette ergab folgende


gerundete und bereits der Gre nach sortierte Euro-Werte:
420 430 440 440 500 550 700 700 800 950 990
Bestimmen wir das 25 0/0-, 50 0/0- und 75 O/O-Quantil bzw. das untere (Q,), mittlere (0.) und
obere (Q,) Quartil aus dieser Urliste. Da aufgrund von n = 11 das Produkt Cln hier keine
ganze Zahl ergeben kann, runden wir Cln zur nachsten ganzen Zahl auf. Wir erhalten:

Q, ist der 110,25 = 3-te Beobachtungswert, d.h. Q, = 440 .

0. ist der 11 0,50 = 6-te Beobachtungswert, d.h. Q, = 550 .

Oa ist der

11 0, 75 = 9-te Beobachtungswert, d.h.

Oa = 800 .

Bei der Ermittlung von Quantilen aus Hufigkeitstabellen ist minimal anders vorzugehen, wie folgendes Beispiel zeigt. Hier ist entweder "im Hinterkopf" die Urliste
aus der Hufigkeitstabelle zu rekonstruieren oder die empirische Verteilungsfunktion zur Quantilsbestimmung heranzuziehen.
Beispiel I 2-9

Quartile aus Haufigkeitstabellen

Eine Fertigungsabteilung hat Ober einen Zeitraum von 30 Tagen die Anzahl von Ausschussteilen je Fertigungstag ermittelt. Dazu ergab sich folgende Hufigkeitstabelle:

1
2
3
4
5

Ausschussteile
a,
0

1
2
3

10

Anzahl der Tage mit aj Ausschussteilen


h(a~

6
6
9
3
6
30

f(a.)
0,20
0,20
0,30
0,10
0,20
1,00

F(a~

0,20

0,40
0,70
0,80

1,00

Ermitteln wir das 25 0/0-, 50 0/0- und 75 O/O-Quantil. Da fr Q, und Q, sowohl 0,25 . 30 = 7,5
als auch 0,75 . 30 = 22,5 nicht ganzzahlig sind, bestimmen wir diese nach der beschriebenen Aufrundungsmethodik. Bei Q, haben wir die Wahl zwischen den Varianten A und B.

30

I Deskriptive Statistik

0, ist der 0,2530 = 8-te Beobachtungswert, d.h. 0, = I Stck.

a. ist entweder der

0,5030 =15-te Beobachtungswert (Variante A), sodass 02 = 2


Stck, oder der Durchschnitt aus 15-tem und 16-tem Beobachtungswert (Variante B),
sodass 02 = (2 + 2)/2 = 2 Stck. Es spielt hier also keine Rolle, welches Verfahren wir
heranziehen.

Os ist der 0,75 30 = 23-te Beobachtungswert, d.h. Os = 3 StOck.


Diese Ouantile knnen wir auch mittels der empirischen Verteilungsfunktion bestimmen,
deren wesentliche Werte (die kumulierten relativen Hufigkeiten) in unserer Ausgangstabelle enthalten sind. 0, ist diejenige Ausprgung von al, fOr die F(x) den Wert 0,25 erreicht bzw. berschreitet. Fr 02 und 03 gilt selbiges fOr die Werte 0,50 und 0,75.
Im Falle klassierter Daten bedienen wir uns ebenfalls der empirischen Verteilungsfunktion zur Quantilsfindung. Als Ergebnis erhalten wir hier jedoch eine Klasse. Bei
der Verwendung eines konkreten Wertes aus der Klasse als Quantil besteht wieder
das Problem, dass das so bestimmte Quantil als Beobachtung in der Urliste vielleicht nicht existiert.

Beispiel I 2-10

Ouartile aus klassierten Hufigkeitstabellen

Nehmen wir an, uns liegt der folgende Auszug aus einer klassierten Hufigkeitstabelle vor:

aber
I
2
3
4
5

aj bis aj

0-100
100-200
200 - 300
300 - 400
400 - 500

aIm

Fj

50
150
250
350
450

0,20
0,25
0,70
0,80
1,00

Da die kumulierten Klassenhufigkeiten fOr Klasse 2 den Wert 0,25 erreichen, bestimmt
diese das Ouartil 0,. Wir knnen daher 0, = 200 angeben. Analog erhalten wir
= 250
und 03 = 350. Diese Ouartilsfindung knnen wir anschaulich im Summenpolygon der klassierten Hufigkeitsverteilung skizzieren. Ouartile werden darin dadurch gefunden, dass zunchst horizontale Linien bei 0,25, 0,50 und 0,75 eingezeichnet werden. Von den Schnittpunkten dieser Linien mit dem Summenpolygon werden dann Lote auf die x-Achse gefllt,
um so das entsprechende Ouartil ablesen zu knnen.

a.

1,00
0,75
0,50
0,25

250

500

2. Eindimensionale Hlufigkeitsverteilungen

31

2.2 Mazahlen
Neben Huflgkeitstabellen und Diagrammen knnen wir zur Beschreibung von
Hufigkeitsverteilungen auf statistische Mazahlen (Parameter) zurckgreifen. Sie
bringen die wichtigsten Charakterisika einer Verteilung zum Ausdruck und lassen
sich grob in Lage-, Streuungs-, Schiefe- und Konzentrationsparameter einteilen (vgl.
Abbildung I 9). Da mit der Berechnung von Mazahlen eine Verdichtung der Daten
und damit auch ein Infonnationsverlust verbunden ist, erlauben einzelne Mazahlen keinen Rckschluss auf den Typ der Verteilung. Sie werden erst kombiniert
aussagefhig.

v_

_rte

Lageparameter (Mittelwerte)

Komcntrationsparamctcr

Kennzeichnung des Zentrum/l eJner

Beschreibung der Verteilung der


Merkma.ls5urmne auf bestimmte

Statistische
Mazahlen

streuongsparameter
CVariabilits-, Variationsmae)
Be3Chreibung der Streuung der

BeschreJbung der Abweichung eJner


Verteilung von der Symmetrie

Einzelwerte um das Zentrum

Abbildung I 9: Statistische Mazahlen


Die Berechnung der Mazahlen bzw. deren Berechnungsformeln unterscheiden
sich je nach vorliegendem Datenmaterial (Urliste, Hufigkeitstabelle, Hufigkeitstabelle mit klassierten Daten). Fr den Fall klassierter Daten sei bereits vorweggenommen, dass hier immer mit einem reprsentativen Wert fr jede Klasse gerechnet wird. Dieser ist in der Regel die Klassenmitte. Da dies allerdings nur als
Nherung angesehen werden kann, ist die Berechnung von Mazahlen aus der DrUste oder der un.klassierten Hufigkeitstabelle zu bevorzugen. Wir greifen auf eine
derartige nherungsweise Berechnung in der Praxis in der Regel nur zurck, wenn
uns nur eine klassierte Huf.tgkeitstabelle (z.B. in statistischen Verffentlichungen)
und weder Urliste noch unklassierte Huf.tgkeitstabelle vorliegen.

2.2.1

Lagaparamatar

Lageparameter dienen der Kennzeichnung des Zentrums einer Verteilung durch lf1
eine einzige Zahl. Gerade diese Komprimierung ennglicht den Vergleich zweier ~
oder mehrerer Gruppen bezglich eines Merkmals (z.B. "In welchem von zwei Betrieben wird durchschnittlich besser verdient?").
Im Folgenden werden der Modus, der Median, das arithmetische Mittel und das

geometrische Mittel nher betrachtet. Es ist zu beachten, dass die Berechnung die-

32

I Deskriptive Statistik

ser Lageparameter von der Skalierung der zugrunde liegenden Daten abhngt. Abbildung I 10 zeigt deutlich, dass gewisse Lageparameter nur bei bestimmten Skalierungen angewendet werden drren. So ist das geometrische Mittel beispielsweise
nur bei verhltnisskalierten Daten sinnvoll.
Nominalskala
Ordinalskala

Modus
Median

Intervallskala
Verhltrtlsskala

artihm. Mittel
geom. Mittel

Es drfen zustzlich nur positive Werte vorliegen.

Abbildung I 10: Lageparameter und Skalierung


Auer mit der Berechnung O.g. Lagemae, werden wir uns mit wichtigen Eigenschaften der Mae auseinandersetzen. Wir werden dabei insbesondere Datentransformationen und Ausreier bzw. ihre Auswirkungen auf die Lagemae errtern.

Transformationen erleichtern uns die inhaltliche Interpretation und vor allem den
Vergleich von Daten, die z.B. in unterschiedlichen Einheiten gemessen werden. So
knnen wir z.B. das Zentrum zweier Umsatzverteilungen, die in verschiedenen
Whrungen errasst wurden, einfacher vergleichen, wenn wir die Beobachtungen
einer Verteilung in die Whrung der anderen umrechnen.
Ausreier stellen einzelne extreme Beobachtungswerte X, dar, die auerhalb des
Intervalls liegen, in dem sich der Groteil der anderen befindet, d.h. die weit vom
Zentrum der Verteilung entfernt liegen. Das Auftreten derartiger Beobachtungen
kann unterschiedliche Grnde haben. Ein Ausreier karm ein untypischer Wert
sein, der sich auf eine Sonderstellung des betroffenen Merkmalstrgers in der
Grundgesamtheit zurckfhren lsst. Ausreier knnen aber auch aufgrund von
Messfehlern entstehen. Besonders bei komplexen Messvorgngen sind Messfehler
ein hufiges Phnomen.
2.2.1.1

Modus

Der auch als dichtester Wert, hufigster Wert oder Modalwert bezeichnete Modus

x,..,. kann bei jedem Skalenniveau einer Merkmalsvariablen X ermittelt werden. Er


ist diejenige Merkmalsausprgung in einer Beobachtungsreihe, die am hufigsten
vorkommt, und ist fr nominalskalierte Merkmale der einzig sinnvolle Lageparameter. Der Modus muss dabei nicht eindeutig sein. Gibt es zwei oder mehr
Merkmalsausprgungen, die die gleiche maximale Hufigkeit aufweisen, dann ist
jeder dieser Werte ein Modus. Wir sprechen dann von einer multimodalen Verteilung. Um die Aussagekraft des Modus zu erhhen, sollte man ihn nur bei eingipfeligen Verteilungen verwenden.

2. Eindimensionale Hufigkeitsverteilungen

33

Modus aus der Urliste:

Ein einfaches Auszhlen ist zur Ermittlung des Modus ausreichend. Der Modus ist
jenes x" welches am hufigsten vorkommt.
Modus aus der Hufigkeitstabelle:

Der Modus ist hier jenes al' das am hufigsten vorkommt.


Modus aus der Hufigkeitstabelle mit klassierten Daten:

Bei klassierten Daten knnen wir lediglich eine sog. Modalklasse angeben. Dies ist
diejenige Klasse K, mit der grten Klassenhufigkeit 11, bzw. f;.! Als Modus knnte
man nun die Mitte dieser Modalklasse verwenden. Problem kann dann natrlich
sein, dass der so bestimmte Modus gar nicht als Beobachtung in der Urliste existiert
oder nicht der am hufigsten vorkommende Wert sein muss.
Beispiel I 2-11

Basisbeispiel fr die Berechnung von Lageparametern

Ein Assessment-Center beurteilte im Rahmen einer Einslellungsmanahme eines Unternehmens mittels diverser Intelligenz- und Leistungstests den 10 von 30 Bewerbern. Fiir die
lOs ergaben sich folgende sortierte Werte:
70 70 70 80 80 80 80 80 80 90 90 90 90 90 90 90 90 90 90 90 90 100 100
100 100 100 100 110 110 110
Da die Beobachtung 90 am hufigsten vorkommt, ergibt sich x..,. = 90.
Aus der vorliegenden Urliste erhalten wir folgende Hufigkeitstabelle. Bei Betrachtung der
Hufigkeiten wird darin deutlich, dass es sich bei der vorliegenden Verteilung um eine
symmetrische Verteilung handelt. Ihr Zentrum liegt bei aa = 90.
Lid. Nr.

1
2
3
4
5

10
aj

70
80

abs. Hufigkeit
h(aj)
3

90

100
110

6
12
6
3
30

rel. Hufigkeit

rel. Summenhufigkeit

f(a~

F(a~

0,10
0,20
0,40
0,20
0,10
1,00

0,10
0,30
0,70
0,90
1,00

Aus der Hufigkeitstabelle erhalten wir hier ebenfalls XMo. = 90, da die absolute Hufigkeit
der Beobachtung 90 mit12 maximal ist.

Eigenschaften des Modus:

Der Modus ist zwar einfach bestimmbar und auch anschaulich interpretierbar,
jedoch besitzt er einen geringen Informationsgehalt.

x.oo

sollte nur bei eingipfeligen Verteilungen und nominal- oder ordinalskalierten Daten verwendet werden, da sonst der Informationsverlust zu gro ist.

Der Modus ist unempfindlich gegenber Ausreiern, da solche nichts an der


Hufigkeit der Modusbeobachtung ndern.

1 In der Literatur wird hier auch gelegentlich vorgeschlagen, die normierten Klassenhufig-

keiten h; bzw. ~. nach (12: 16) zu verwenden.

34

I Deskriptive Statistik

2.2.1.2

Median

Ein weiteres Lagema ist der Median oder Zentralwert x...,. Er kann aus den n vorliegenden Merkmalswerten bestimmt werden, wenn diese der Gre nach geordnet
sind. Fr die Anwendung des Medians muss das untersuchte Merkmal X daher zumindest ordinalskaliert sein. Der Median ist dadurch charakterisiert, dass mindestens 50 % der Merkmalswerte kleiner oder gleich und mindestens 50 % grer oder
gleich x.., sind. Er stellt somit nichts anderes als einen Sonderfall der unter I 2.1.5
behandelten Quantile dar. Konkret gilt x.., - "0.,. - Q" d.h. der Median ist das
50 %-Quantil bzw. das Quartil Q,. Vereinfacht ausgedrckt wird auch hufig formuliert, dass der Median detjenige Merktnalswert ist, der genau In der Mitte der sortierten Beobachtungsreihe liegt.
Median aus der Urliste:
Aus einer sortierten Urliste der Form x, ,,; x, ,,; ... ,,; X n ergibt sich der Median bei
ungerader Beobacbtungszabl n als
(12: 17)

Ist n allerdings gerade, erfllt jeder Wert im Intervall [x n/"x n12+,] die Bedingung
(12: 17). Es ist hier blich, den Median als Mitte dieses Intervalls, d.h. als

x Med

;;;;;; - . (XII.

'

+ X.!l+l)

(12: 18)

anzugeben. Dieser berechnete Median existiert jedoch in der Urliste nicht, was ins-

besondere bei ordinalskalierten Merkmalen problematisch sein kann.


Median aus der Huftgkeltstabelle:
Der Median ist hier jener Merktnalswert al' bei dem die empirische Verteilungsfunktion F(x) den Wert 0,5 erreicht oder berschreitet.
Median aus der Huftgkeitstabelle mit klassierten Daten:

K, definiert, bei der F(x) den Wert 0,5 erreicht oder berschreitet. Es ist klar, dass hier
Medianwerte resultieren knnen, die in der Urliste nicht existieren, und wir das
Zenttum der Verteilung nur nherungsweise beschreiben knnen. Haben wir die
klassierte Hufigkeitstabelle selbst erstellt, werden wir diese Nherungslsung meiden und den Median stattdessen aus Urliste oder Hufigkeitstabelle bestimmen.
Nur bei klassierten Tabellen aus anderen Quellen nutzen wir diese Nherung.
Im Falle klassierter Daten wird der Median als die Mitte detjertigen Klasse

Beispiel I 2-12

Berechnung des Median

Berechnen wir fOr unser IQ-Datenmaterial aus Beispiel I 2-11 den Median. Da die Beobachtungszahl n - 30 gerade ist, erhalten wir den Median aus der Urliste Ober (12: 18) als
Mittelwert aus den Merkmalswerten der 15-ten und 16-ten Beobachtung zu
x. od = 0,5(x.., +X",+,) = 0,5,(x15 +X 16 ) = 0,5(90+90) = 90.
Auch in der Hufigkeitstabelle ist XMod = 90, da fOr aj = 90 die kumulierte relative Hufigkeit
den Wert 0,5 berschreitet.
Wrden wir den IQ-Datensatz um eine Beobachtung mit dem Wert 110 ergnzen (n = 31).
so wre der Median der Merkmalswert der 16-ten Beobachtung, d.h. x ... = x_ = x18 = 90 .

2. Eindimensionale Hufigkeitsverteilungen

35

Eigenschaften des Median:

Uegen die Merkmalswerte als Zahlen vor, hat die Summe der absoluten Abweichungen der Merkmalswerte von einer beliebigen Zahl ein Minimum,
wenn diese Zahl gleich x,..,. ist.
(12: 19)

MintlXI - I fr = XM,d
i=l

Dies ist die sog. Opttmalttts- oder Mlnlmumsetgenschaft des Medians.

Der Median ist unempfmdlich gegenber Ausreiern. Nehmen wir z.B. an, es
ist eine geordnete Urliste von Werten 1, 2, 3, 4, 5 gegeben. Der Median liegt
hier klar bei x,." - 3. Tritt nun an die Stelle des Wertes 5 der Wert 100, so
liegt ein Ausreier vor. Dieser hat jedoch keinen Einfluss auf den Median, da
der Wert 3 schlielich seine Position in der Mitte behlt.

Der Median ist das wichtigste Lagema fr ordinalskalierte Daten.

Arithmetisches Mittel
Der wohl bekannteste und wichtigste Lageparameter ist das auch als Durchschnittswert bezeichnete arithmetische Mittel x . Es findet bei zuntindest intervallskalierten Merkmalen Anwendung.

2.2.1.3

Arithmetisches Mittel aus der Urliste:


Liegt eine Urliste x t ,x2 , ... ,xn vor, so ermitteln wir das arithmetische Mittel
1
1 n
x=-,(x,+x,+",+xn)=-Lx, .
n

als

(12: 20)

i=-l

Es werden also lediglich alle Merkmalswerte aufsumntiert und durch die Anzahl der
Merkmalstrger n dividiert.
Arithmetisches Mittel aus der Huftgkeitstabelle:
Ist eine HufigkeitsverteUung vorhanden, erleichtert sich die Berechnung erheblich.
Zur Bestimmung des arithmetischen Mittels ist dann nmlich lediglich die Summe
der Produkte der Merkmale a, und ihrer absoluten Hufigkeiten h(a~ zu bestimmen
und diese durch n zu dividieren. Es gilt nmlich

x=!.(a
+ ... +a 1, +a. 2 + ... +a2.
+ ...,
+ak + ... +ak,)
n .1
h(~ )-mal

h(a,j-mal

h(ak )-mal

1
=-(h(a,)a, +h(a,)a, + ... +h(ak)ak ),
n

woraus
(12: 21)

folgt. Bringen wir 1/n in den Summenausdruck und substituieren h(a.) / n = f(a,),
erhalten wir folgende alternative Berechnungsfonnel mit relativen Huflgkeiten:
k

x=Lf(a,).a,
I- I

(12: 22)

36

I Deskriptive Statistik

Wir erkennen an (12: 22), dass das arithmetische Mittel ein Sonderfall des sog. gewogenen arithmetischen Mittels ist. Dieses ist definiert als
mit

O';;g,';;1

und

(12: 23)

!g,=1.
j .. l

Die Beobachtungswerte >; werden hier durch vorgegebene Zahlen & gewichtet und
aufsummiert. Die Gewichte mssen nichtnegative reelle Zahlen sein, deren Summe
sich auf Eins beluft. Das arithmetische Mittel (12: 22) erhalten wir, wenn wir in
(12: 23) die Beobachtungen a, mit ihren relativen Hufigkeiten f(a~ gewichten.
Arithmetisches Mittel aus der Hufigkeitstabelle mit klassierten Daten:
Da wir in der Praxis (z.B. in statistischen Verffentlichungen) die einzelnen Beobaebtungen niebt kennen, die einer klassierten Hufigkeitstabelle zugrunde liegen,
sind wir nur in der Lage, aus dieser ein approximatives arithmetisches Mittel Zu
bestimmen. Wir ersetzen dazu in den Formeln (12: 21) und (12: 22) die a, durch die
Klassenmitten aj bzw. (12: 15) als reprsentative Werte fr die einzelnen Klassen
und verwenden zugehrige Klassenhufigkeiten. Wir erhalten damit die Nherung

~h J -alm
-x=-,
1 L..J
n

bzw.

j_1

(12: 24)

x~ L~ aj.
j_1

Haben wir die klassierte Hufigkeitstabelle selbst erstellt, werden wir natrlich
niebt auf (12: 24), sondern auf die Urlistenformel (12: 20) zurckgreifen.
Beispiel I 2-13

Berechnung des arithmetischen Mittels

Fr unseren IQ-Datensatz aus Beispiel I 2-11 wollen wir nun das arithmetische Mittel aus
den verschieden aufbereiteten Daten berechnen:
Urliste:

x = 3~ (70+ 70+ 70+80+80+80+80+80+80+ ... +110+110+110) = 90


Hufigkeitstabelle:

x= ~.(3.
70+680+1290+6100+3110) = 90
30
Vergleichen wir Modus, Median und arithmetisches Mittel lr unseren IQ-Datensatz, so
stellen wir lest, dass alle drei Mae den Wert 90 annehmen. Wir werden unter I 2.2.1.6
sehen, dass fr den Fall einer symmetrischen unimodalen Verteilung Modus, Median und
arithmetisches Mittel stets identisch sind.
Huligkeitstabelle mit klassierten Daten:
Zwar kennen wir hier die Urliste und sollten daher das beschriebene Nherungsverfahren
nicht anwenden, doch wollen wir dies zur Veranschaulichung des entstehenden Rechenfehlers trotzdem tun. Wir fuhren dazu die folgende Klassierung ein:

1
2
3

ber aJ bis aJ

a Jm

hj

Ij

60 - 80
80 - 90
90 - 110

70
85
100

9
12
9
30

0,30
0,40
0,30
1,00

37

2. Eindimensionale Hufigkeitsverteilungen
Wir erhalten daraus nicht den Wert 90, sondern

x= ~.(9. 70+1285+9100) = 85.


30

Eigenschaften des arithmetischen Mittels:

Die Summe der Abweichungen der Merkmalswerte vom arithmetischen Mittel


ist stets Null. Wir sprechen hier auch von der Zentraleigenschaftvon X.
(12: 25)
Berechnen wir beispielsweise das arithmetische Mittel von 2, 4, 6 und 8, so

erhalten wir 5. Die Abweichungen der Einzelwerte von 5 sind -3, -1, 1 und 3,
was in der Summe genau Null ergibt.

Die Summe der quadrierten Abweichungen der Merkmalswerte von einer beliebigen Zahl A hat ein Minimum, wenn diese Zahl gleich x ist. Wir sprechen
hier auch von der Optimalitts- oder Minimumseigenschaft von X.
n

(12: 26)

MinL(xj-A)' fr A=X
1=1

Diese Eigenschaft knnen wir beweisen, indem wir zunchst die erste Ableitung der Summe nach A bilden und gleich Null setzen (notwendige Bedingung fr einen Extremwert):
n

n ,

L2,(x j -A)' (-1) =-2L(x j -A)';'O


1=1

1=1

Division durch -2 und Auflsen nach A liefert


n

Lx,-nA=O
1_1

Lx,=nA
1_ 1

1 n
A=-Lx,=X.
n

1_1

Hinreichende Bedingung fr ein Minimum ist eine positive zweite Ableitung


an der Stelle A = X, was gegeben ist, da die zweite Ableitung 2n lautet.

Werden die Merkmalswerte X, in der Form YI = a + b . Xl mit a, b E IR und


b "* 0 linear transformiert (vgl. Beispiel I 2-14), so kann das neue arithmetische Mittel y durch dieselbe Transformationsvorschrift aus x ermittelt werden. Es gilt nmiich

woraus wir nach Division durch n folgende Beziehung erhalten:


y=a+bx

Ist eine Gesamtheit in zwei Teilgesamtheiten zerlegt (n =

(12: 27)
01

+ n 2 ), so ermittelt

sich das arithmetische Mittel folgendermaen (vgl. Beispiel I 2-15):


_Xgcs = - -1- 0 (~
~) n,'xl+n,'x,
L...Jx j + L...Xj =
1..1
01 + n 2
\_ 1
n

(12: 28)

38

I Deskriptive Statistik

Liegen mehrere Teilgesamtheiten (n = n, + n, + ... + n rn ) vor, gilt


(12: 29)
Eine nhere Betrachtung von (12: 29) bzw. eine Umformung

Xges ;;;;;;

{'nk _
L..J-x.
k..l

zeigt, dass es sich hierbei um nichts anderes als ein gewogenes arithmetisches
Mittel der Mittelwette der Teilgesamtheiten handelt. Die jeweiligen Gewichte
ergeben sich zu n/n.
Das arithmetische Mittel reagiert empfindlich auf Ausreier, da in x anders
als beim Modus und Median alle Beobachtungswerte der Verteilung eingehen
und so ein einzelner extremer Wert Einfluss auf das Ma nehmen kann (vgl.
Beispiel I 2-16).

Beispiel I 2-14

Transformation und arithmetisches Mittel

Ein Vertriebsmitarbeiter erhlt ein fixes Grundgehalt von 1.500 . Als Provision stehen ihm
zustzlich 5 % des von ihm erwirtschafteten Umsatzes zu. Ferner sei bekannt, dass dieser
Mitarbeiter im Durchschnitt einen Umsatz von 10.000 je Monat erzielt. Bestimmen wir auf
Basis dieser Daten sein monatliches Durchschnittseinkommen:

Y= a+bj( = 1.500 +0,0510.000 = 2.000


Beispiel I 2-15

Arithmetisches Mittel aus Teilgesamtheiten

In einer Stadt mit 10.000 Einwohnern (6.000 Mnner, 4.000 Frauen) liegt das Durchschnittseinkommen der Mnner bei 2.500 und der Frauen bei 2.000 . Wie hoch ist das
durchschnittliche Einkommen aller Einwohner?
6.0002.500 +4.0002.000
10.000

Beispiel I 2-16

2.300

Arithmetisches Mittel und Ausreier

Haben 10 Personen ein Jahreseinkommen von 20.000 , liegt ihr Durchschnittseinkommen


bei 20.000 . Besitzt nun jedoch eine der Personen ein Jahreseinkommen von 500.000 ,
so erhalten wir ein Durchschnittseinkommen in Hhe von 68.000 , was ein "falsches" Bild
von der Einkommensverteilung liefert. Gerade hieran erkennen wir, dass Lageparameter
allein nicht ausreichen, um eine Hufigkeitsverteilung zutreffend zu beschreiben.

2.2.1A

Geometrisches Mittel

Ein weiteres in der Praxis bedeutendes Mittel ist das geometrische Mittel x..... Es
kann grundstzlich nur fr verhltnisskalierte Merkmale bestimmt werden, deren
Ausprgungen X, ausschlielich positive Werte aufweisen.

39

2. Eindimensionale Hufigkeitsverteilungen

Geometrisches Mittel aus der Url/ste:

Liegt eine Urliste n positiver Beobachtungswerte X, vor, so ergibt sich das geometrische Mittel als note Wurzel des Produkts aller Beobachtungen. Es wird also ber
(12: 30)
berechnet. Hufig sind diese X, im Zeitverlauf aufgezeichnete relative nderungen
(Wachstumsfaktoren) eines Merktnals, sodass ""0 Aussagen ber das durchschnittliche Wachstum des Merktnals ennglicht.
Beispiel 12-17

Geometrisches Mittel aus der Urliste

ber einen Zeitraum von 4 Jahren wurde die Mitarbeiterzahl z, eines Unternehmens jeweils zum Jahresende aufgezeichnet und in der nachfolgenden Tabelle niedergeschrieben.
Von Interesse ist nun das durchschnittliche Jahreswachstum der Belegschaft dieses
Unternehmens. Dazu werden zunchst zwischen den Perioden die Wachstumsraten

w _ Zt- Z t_1

,-

Zt_1

bestimmt, aus denen Wachstumsfaktoren x, = 1 + w, gewonnen werden. Wie zu erkennen


ist, wird im Zeitraum kontext das Subskript i meist durch t ersetzt. Auf die Gltigkeit der behandelten Formeln hat dies aber keinen Einfluss.

1
2
3

Jahr

Mitarbeiterzahl z,

Wachstumsrate w,

Wachstumsfaktor x,

2002
2003
2004
2005

2.300
3.000
2.700
3.500

0,3043
-{),1000
0,2963

1,3043
0,9000
1,2963

Setzen wir die x, in (12: 30) ein, so ergibt sich damit das geometrische Mittel zu

Xgoo = ~1, 3043 . 0, 9000 1, 2963 = 1,1502 ,


d.h. das durchschnittliche Jahreswachstum liegt bei (1,1502 -1)100 % = 15,02 % .

Um das Prinzip zu verdeutlichen, welches sich in Fonnel (12: 30) verbirgt, empfiehlt sich die Betrachtung des nachfolgenden Beispiels, welches eine "intuitive
Herleitung" des geometrischen Mittels im Wachstumsfaktorenkontext liefert.
Beispiel I 2-18

Prinzip des geometrischen Mittels

Nehmen wir an, der Umsatz UD eines Unternehmens steigt in den Folgequartalen um 2 %,
3 %, 4 % und 5 %. Die Umsatzsteigerungen beziehen sich dabei jeweils auf den Umsatz
des Vorquartals. Die Umsatzentwicklung zeigt sich daher wie folgl:

U, =UD (1+0,02)
u, = U, (1 +0,03) = UD (1 +0,02)(1+ 0,03)
U, = U,' (1 +0,04) = UD' (1 +0,02) (1 +0,03Hl +0,04)
U, = U, (1 +0,05) = UD (1 +0,02Hl +0,03Hl +0,04) (1 +0,05)

40

I Deskriptive Statistik
Eine durchschnittliche Zuwachsrate w der Quartalsumstze ist nun eine fOr alle Quartale
identische Zuwachsrate, die zum gleichen Jahresumsatz U. fOhrt. Setzen wir also obigen
Ausdruck mit U, = UD . (1 + w)' gleich, so erhalten wir folgendes Ergebnis:

Uo ' (1 +w)' = Uo (1 +0,02)-(1 +0,03)(1 +0,04) (1 +0,05)


(1 +w)' = (1 +0,02) (1 +0,03) (1+0,04) (1 +0,05)
l+w={lt,1473
w =0,0349 =3,49 %
Die Zeilen 2 und 3 lassen hier deutlich das geometrische Mittel und die in selbiges eingehenden Wachstumsfaktoren erkennen.

Geometrisches Mittel aus der Hufigkeitstabelle:


Liegen die positiven Merkmalswerte all ~, .. , a., und die dazugehrigen Hufigkeiten h(a,), h(a,), ... , h(a,) bzw. f(a,), f(a,), ... , fCa,) vor, so berechnen wir das geometrische Mittel wie folgt:

(12: 31)
(12: 32)
Durch Logarithmierung von (12: 30), (12: 31) und (12: 32) erhalten wir eine interessante Eigenschaft des geometrischen Mittels zu
1

1_ 1

1"'1

J=1

In>:..., =- ~)nxi =- Lh(aj).lna j = Lf(aj).lna j .

(12: 33)

Der Logarithmus des geometrischen Mittels ist also gleich dem arithmetischen Mittel
der logarithmierten Daten.
Das geometrische Mittel findet, wie bereits angesprochen, vor allem bei der Berechnung durchschnittlicher Wachsrurnsraten Anwendung. Einen besonderen Anwendungsbereich stellt daher die Berechnung von durchschnittlichen Zinsstzen
oder Renditen dar, da diese nichts anderes als Wachstumsraten von Kapital sind.
2.2.1.5

Exkurs: Renditen und Renditedurcbschnitte

Legen wir einen Geldbetrag K,-, zu Beginn einer Periode t-l zu einem Zins von r,d
bis zum Ende dieser Periode an, so ergibt sich am Ende der Periode t-l bzw. dem
Beginn der Periode tein Endkapital K, als
K, = (1 + r,d). KH .
(12: 34)
Wir bezeichnen die Gre r,d dabei auch als sog. diskrete Rendite. Sie ist nichts
anderes als die Wachstumsrate des Kapitals zwischen den Zeitpunkten t-l und t
und kann durch folgende allgemeine Formel bestimmt werden, die sich durch Umformung von (12: 34) herleiten lsst:
"K::I,:::-_K=,!.'
r d ;;;;;;t
K _
t 1

(12: 35)

41

2. Eindimensionale Hufigkeitsverteilungen

Die sog. geometrische Durchschnitts- oder zeitgewichtete Rendite r..., stellt


die fr jede Periode identische Rendite dar, die bei einer Kapitalanlage in Hhe
von K, ber n Perioden zum gleichen Endkapital K" fhrt, wie die n individuellen
Periodenrenditen. Fr die Kapitalstnde K, und K, kann deshalb entsprechend der
Vorgehensweise aus Beispiel I 2-18 der Zusammenhang
(1 + r,d). (1 + r:) ..... (1 + r:). Ko = ~1 + r",,)' . Ko,

K.

(12: 36)

i.

festgehalten werden, aus dem durch Umstellung

r..., = ~(1+r:). (1+ r:) .... (1+ r:)-l

(12: 37)

resultiert. Diesen Berechnungen unterliegt die Annahme, dass Zinsertrge auf dem
Anlagekonto verbleiben und daher in den Folgeperioden zustzlich zum Anfangskapital mitverzinst werden.
Von der sog. arithmetischen Durchschnittsrendite sprechen wir hingegen bei
-d

1 ~ d
=_.
L..ft
n

(12: 38)

t=1

Hierbei wird von der Annahme ausgegangen, dass jede Periode mit dem gleichen
Kapitaleinsatz startet, entstandene Zinsertrge also nicht reinvestiert werden.

Beispiel I 2-19

Diskrete Durchschnittsrenditen

Eine Anlage in Hhe von 1.000 ergab bei Jahreszinsstzen von 2 %, 3 % und 4 % und
Wiederanlage der Zinsertrge ein Endkapital von 1.000 . (1 + 0,02) . (1 + 0,03) . (1 + 0,04)
= 1.092,62 . Die geometrische Durchschnittsrendite ergibt sich daraus zu

r,~ = ~(1 +0,02) (1 +0,03) (1 +0,04) -1 = 0,0299 = 2,99 %.


Dies bedeutet, dass wir auch zu einem Jahreszins von 2,99 % htten anlegen knnen, um
(bei Wiederanlage der Zinsertge) den Endbetrag 1.092,62 zu erhalten.
Werden die Zinsertrge hingegen jedes Jahr entnommen, so erhalten wir lediglich ein
Endkapital von 1.000 . (1 + 0,02 + 0,03 + 0,04) = 1.090 . Die arithmetische Durchschnittsrendite ergibt sich daraus zu

Y" =~.(O,02+0,03+0,04) = 0,03 =3 %.


Dies bedeutet, dass wir durch Anlage zu einem Zins von 3 % pro Jahr (bei Entnahme der
Zinsertrge) ebenso ein Endkapital von 1.090 erreichen knnen.

Unterstellen wir eine stetige Verzinsung des Kapitals K,-, mit dem Satz r:, so ergibt
sich das Endkapital K, nach einer Periode als
(12: 39)

wobei e fr die Eulersche Zahl mit e = 2,718281. .. steht. Durch Logarithmierung


beider Seiten der Gleichung (12: 39)
InK t =rtS + In Kt _ 1

und anschlieender Umformung erhalten wir die sog. stetige Rendite

42

I Deskriptive Statistik

r: = InK, -lnK H =

In(~J
.
K

(12: 40)

_
t 1

Die Zusammenhnge, die zwischen stetigen und diskreten Renditen bestehen, sind
in Abbildung I 11 veranschaulicht.
Diskrete Verzinsung

Stetige Verzinsung

K, = (l+r,') K H

K,=e~ KH

Logarithmierung
[

[
InK, = In(1 + r,') + InK H
'---~)

LOgari~m~erung
InK t

(1) r: = In(1+ r,')

ft

""

+ In Kt _ 1

<;(-----'

(2)

Abbildung I 11: Zusammenhang zwischen stetigen und diskreten Renditen


Betrachten wir nun insgesamt n Perioden, so gilt zunchst unter Verwendung diskreter Renditen nach (12: 36) Kn = (1 + r,d) . (1 + r,d) ..... (1 + r:) . Ko ' Logarithmieren
wir diese Gleichung, erhalten wir unter Nutzung der Beziehung (1) aus Abbildung
I 11 den Zusanunenhang In Kn == r; + r; + ... + r: + In Ko , woraus wir

InK n -lnK o == frt

(12: 41)

1_'

ableiten knnen. Wir knnen also sagen, dass sich die stetige Rendite einer Gesamtperiode als Summe der stetigen Renditen der dazugehrigen Teilperioden ermitteln
lsst. Fr diskrete Renditen gilt ein solcher Zusammenhang nicht. Hier sind die um
Eins erhhten diskreten Teilperiodenrenditen miteinander zu multiplizieren und
Eins zu subtrahieren, um die Gesamtperiodenrendite zu erhalten.
Beispiel I 2-20

Mikro- und Makroperiodenrenditen

Eine Investition wirft innerhalb eines Jahres die stetigen Quartalsrenditen 1 %, 5 %, -2 %


und 3 % ab. Die stetige Jahresrendite ergibt sich daraus als

r:.

hr

= Lr~.rta't = 0,01 +0,05-0,02+0,03 = 0,07 =7 %.

,.,

Nehmen wir an, es handeH sich bei den gegebenen Renditen um diskrete Quartalsrenditen, so erhalten wir die diskrete Jahresrendite zu
rJ~h' =

rr,.,

(I +r~~"'It) -I = (I +0,01) (I +0,05) (1-0,02) (I +0,03) -I = 0,0704 = 7,04 %.

2. Eindimensionale Huligkeitsverteilungen

43

Spezieller Exkurs Finance:


Es soll nicht unerwhnt bleiben, warum gerade stetige Renditen in vielen statistischen Verfahren und Modellen Anwendung finden. Sie besitzen nmlich eher als
diskrete Renditen die Eigenschaften der Symmetrie und der Normalverteilung (vgl.
Abschnitt II 3.2.3), welche Voraussetzung fr diverse Verfahren der Finanzmarktstatistik und -konometrie sind.

Beispiel I 2-21

Symmetrie stetiger Renditen

Gegeben sei die Kapitalentwicklung K, =2Ko und K, =O,5K,. woraus sich die lolgenden stetigen und diskreten Renditen ergeben:

Stetig: r1s = In2

Diskret: r1d

r:

= InO,5
= 1 r: = -0,5
I

Bei den stetigen Renditen ist die Symmetriebedingung r,' = Ir;1 erfijllt, wohingegen bei den
diskreten Renditen r,' Ir:1 gilt.

Es ist auerdem interessant, dass die geometrische Durchschnittsrendite in stetiger


Schreibweise gleich dem arithmetischen Durchschnitt der stetigen Einzelrenditen ist.
Um diesen Zusammenhang zu erklren, betrachten wir zunchst die Formel (12: 36)
(1 + '",,)' = ~1 + r,d). (1 + r,") ..... (1 + r:~.
wachsnunsnniltlpllkator WM

Durch Logarithmierung erhalten wir daraus

n10(1 + fgeo);;;;;; fIS + r; + ... + r:,


was schlielich mittels Division durch n zum eingangs beschriebenen Zusammenhang fhrt:

ln(1+r )=r;+r;+ ... +r:


""

rS

02: 42)

Wir stellen fest, dass dieses Resultat (12: 33) entspricht.

Beispiel I 2-22

Stetige Durchschnittsrendite

Eine Aktienanlage wird vier Jahre betrachtet. Die diskreten Renditen der einzelnen Jahre
sind +30 %, -10 %, +50 % und -20 %. Das Vermgen ist gesamt von 100 aul 140,40
gestiegen. In diesem Beispiel lsst sich die stetige Durchschnittsrendite nun auf zwei verschiedene Arten berechnen:
1.

Berechnung der stetigen Einzelrenditen, Aufsummierung und Division durch n:


Die gegebenen diskreten Renditen werden zunchst mit der Formel r,' = In(1 H,d) in
stetige Renditen umgerechnet. Es ergeben sich +26,2 %, -10,5 %, +40,5 % und
-22,3 %. Addiert und durch 4 (Jahre) dividiert, ergibt sich so eine stetige Durchschnittsrendite von 8,48 %.

2.

Geometrische Ermittlung der diskreten Durchschnittsrendite und Darstellung in stetiger Schreibweise:

r,~ = ~(I +o.a)-(I-O,I) (1+0,5)(1-0,2) -I = ~I,404 -I = 8,85 %

44

I Deskriptive Statistik
Der sich hier ergebende Wachstumsmultiplikator von 1,404 kann schneller direkt als
Quotient aus Vermgensendbestand und -anfangsbestand ermittelt werden.
Die stetige Durchschnittsrendite ist damit 7' = In(1 + 7... ) = In(1 +0,0885) = 8,48 %.

2.2.1.6

Lageregeln

Fr jede Art von Verteilung (symmetrisch, rechtsschief, linksschief) gilt zwischen


dem geometrischen und arithmetischen Mittel die Beziehung x"", ~ x. Wie Abbildung I 12 skizziert, sind des Weiteren fr symmetrische Verteilungen arithmetisches
Mittel, Median und Modus immer identisch, d.h. es gilt
x = x Med = x Mod
Dies haben wir bereits in Beispiel I 2-13 gesehen. Fr linksschiefe Verteilungen
(auch rechtssteil genannt) gilt stets
x< x Med < X Mod '
d.h. das arithmetische Mittel ist stets kleiner als Median und Modus. Fr rechtsschiefe Verteilungen (auch linkssteil genannt) gilt dies umgekehrt, d.h. es liegt stets
x Mod < x Med < X
vor. Das arithmetische Mittel ist also hier stets grer als Median und Modus. Diese

"Grenverschiebung" des arithmetischen Mittels ist nicht berraschend, da linksschiefe Verteilungen einige besonders niedrige Merkmalsausprgungen und rechtsschiefe Verteilungen einige besonders hohe Merkmalsausprgungen aufweisen.
symmetrische Verteilung

I--

rechtsschiefe Verteilung

Abbildung I 12: Lageregeln

linksschiefe Verteilung

2. Eindimensionale Hlufigkeitsverteilungen

45

Wir erkennen, dass auer beim Auftreten von Ausreiern auch durch die Asymmetrie oder Schiefe einer Verteilung die Interpretation von Lagemaen erschwert
werden kann. Bei ausgeprgt schiefen Verteilungen ist die Frage nach dem geeigneten Lageparameter besonders schwer zu beantworten, da sich die Mae z.T.
deutlich unterscheiden. Hier empfiehlt sich zur Beschreibung der Verteilung die
Verwendung weiterer Parameter (siehe Abschnitt I 2.2.2 bis I 2.2.4).

2.2.2

Streuungs parameter

Die bisher behandelten Lageparameter dienten lediglich der Kennzeichnung des lf')
Zentrums einer Verteilung. ofunals ist jedoch von Interesse, wie stark die Einzel- ~
werte vom Zentrum abweichen, d.h. wie eng oder weit sie um das Zentrum der
Verteilung streuen. Zur Gewinnung dieser Informationen sind sog. St:rcuunpparameter geeignet, die wir im Folgenden nher betrachten. Sie setzen stets eine
Kardinalskala voraus.
Die Streuungsparameter, die wir im Folgenden behandeln, lassen sich grob in zwei
Kategorien einteilen. Zur ersten zhlen die Spannweite und der Quartilsabstand.
Bei diesen Maen dienen die Abstnde zwischen speziellen Beobachtungen der
Hufigkeitsverteilung als Ma fr die Streuung. Zur zweiten Kategorie zhlen die
mittlere absolute Abweichung, die Varianz und die Standardabweichung. Hier sind
die Abweichungen aller Daten von einem Lagema entscheidendes Kriterium fr
die Beurteilung der Streuung. Je kleiner diese Kennzahlen sind, desto strker sind
die Daten um den jeweiligen Lageparameter konzentriert.

2.2.2.1

Sponnwdle und Quartilsab.land

Die SPiUlD.weite SP gehrt zu den wohl einfachsten Streuungsmaen. Unter ihr


verstehen wir lediglich die Differenz zwischen dem grten und kleinsten Merkmalswert im vorliegenden Datenmaterial. Sie gibt uns allgemein Informationen ber
den Ausdehnungsbereich des Datenbestandes.
Aus einer der Gre nach sortierten Urliste errechnet sich die Spannweite als Differenz zwischen grtem (x.) und kleinstem (x) Beobachtungswert.

Aus der H4uftgkeitsvertetlung ermitteln wir die Spannweite ebenfalls als Differenz
zwischen grter (a,) und kleinster (a,) Merkmalsausprgung.

Beispiel I 223

Basisbeispiel fOr die Berechnung von Streuungsmaen

An 10 zeitpunkten wird der Kurs des A-Dollars und des B-Dollars notiert. Der A-Dollar
hatte folgende Notierungen: 1,10, 1,15, 1,10, 1,20, 1,25, 1,30, 1,30, 1,25, 1,20 und 1,15
8$. Der B-Dollar lag dreimal bei 1,SO, zweimal bei 1,80, viermal bei 2,30 und einmal bei

2.40 AS.

Wir wollen diese beiden Verteilungen nutzen, um die Berechnung der von uns vorgestellten Streuungsmae zu veranschaulichen. Bei EinfOhrung eines neuen Maes werden wir
jeweils wieder auf dieses Beispiel zuruckgreifen, weshalb die im Folgenden aufgestellten
Tabellen bereits Berechnungen enthalten, die wir erst nach und nach benOtigen werden.

46

I Deskriptive Statistik
Fr den A-Dollar zeigt sich die folgende Urliste:

'"

i
1
2
3
4
5
6
7
8
9
10

lx,-x...
0,10
0,10
0,05
0,05
0,00
0,00
0,05
0,05
0,10
010
0,60

1 ,10
1 ,10
1 ,15
1 ,15
1,20
1,20
1,25
1,25
1,30
1 30
12,00

x'I
1 ,21
1 ,21
1 ,32
1 ,32
1,44
1,44
1,56
1,56
1,69
1 69
14,44

Wir erhalten daraus die Spannweite


SP =x,-x, = x" -x, =1,30-1,10=0,20 A$.
Fr den B-Dollar ergibt sich folgende Haufigkeitstabelle:

aj

hj

hlal

1
2
3
4

1,60
1,80
2,30
2,40

3
2
4
1
10

4,80
3,60
9,20
2,40
20,00

hJ" I al -x...

1,35
0,50
1,00
0,35
3,20

a'I

hl a~

2,56
3,24
5,29
5,76

7,68
6,48
21,16
5,76
41,08

Dies liefert eine Spannweite von


SP = ak -a, = a, -a, = 2,40-1,60 = 0,80 B$.

Aufgrund der Tatsache, dass die Spannweite gerade durch ihr Wesen uerst empfindlich auf Ausreier reagiert und aufgrund der sehr geringen Ausnutzung des
Datenmaterials nur einen geringen Infonnationsgehalt besitzt, wird sie in der Praxis
kaum als Streuungsma eingesetzt. Vielmehr dient sie dazu, Hinweise auf Ausreier
zu geben. Ein anderes, der Spannweite sehr hnliches Ma, das hingegen robust

gegen Ausreier ist, findet hufiger Anwendung. Es handelt sich dabei um den sog.
Quartilsabstand QA, der als die Differenz zwischen oberem und unterem Quartil
deflOiert ist und nichts anderes als die Spannweite der 50 % mittleren Beobachtungswerte darstellt.
QA=Q, -Q,
Gelegentlich wird auch der sog. mittlere Quartilsabstand
1
QA=-(Q,-Q,).
2

(12: 45)

(12: 46)

als Streuungsma genutzt. Auch er ist robust gegen Ausreier und kann wegen

1
1
QA=2(Q, -Q')=2([Q, -Q21-[Q, -Q,])

als mittlerer Abstand der Quartile vom Median interpretiert werden.

47

2. Eindimensionale Hufigkeitsverteilungen
2.2.2.2

Mittlere absolute Abweichung

Definieren wir den Abstand eines Messwertes X; der Urliste vom Median x.... als
IX; - x.... 1 so ist die mittlere absolute Abweichung von x..... MA. das arithmetische Mittel dieser Abweichungen. d.h. es gilt
1 n
MA=-"'Ix.
I
~
1 -xMed.
n l=-1

(12: 47)

In Abschnitt I 2.2.1.2 haben wir gesehen. dass die Summe der absoluten Abwei-

chungen vom Median minimal ist. Die mittlere absolute Abweichung ist daher immer dann ein sinnvolles Streuungsma, wenn der Median als Lagema verwendet
wird. Das Zentrum einer Verteilung wird umso besser durch den Median beschrieben. je kleiner die mittlere absolute Abweichung ist. Gelegentlich wird bei der Berechnung von MA das arithmetische Mittel x herangezogen. Dadurch geht jedoch

die Optimalittseigenschaft verloren. Wird das arithmetische Mittel als Lagerna


verwendet. wird die Streuung meist durch die sog. Standardabweichung (vgl. Abschnitt I 2.2.2.3) gemessen.
MA aus der Hufigkeitsverteilung:

Bei Vorliegen einer Hufigkeitsverteilung knnen wir MA unter Verwendung von


absoluten und relativen Hufigkeiten bestimmen. Es knnen nmlich bestimmte
absolute Abweichungen mehrfach auftreten. sodass wir
1 k
MA = - . Lh(al) . lai n

J=1

x"",1 = Lf(al) Ial - XM'dl


k

(12: 48)

j=1

festhalten knnen.
MA aus der Hufigkeitsverteilung klassierter Daten:
Liegt das Datenmaterial in klassierter Form vor. werden an Stelle von al in Formel
(12: 48) die Klassenmitten ar und die jeweiligen absoluten bzw. relativen Klassenhufigkeiten herangezogen. Mit einer derartigen Vorgehensweise erhalten wir jedoch wieder nur eine nherungsweise Lsung.

Beispiel I 2-24

Berechnung der mittleren absoluten Abweichung

Berechnen wir fOr unsere verschiedenen Whrungsverteilungen aus Beispiel I 2-23 die
mittlere absolute Abweichung bezuglich des Median. Dazu bentigen wir zunchst die
Mediane der Verteilungen. Fur den A-Dollar ergibt sich x.... = 1.20 A$ und fr den
B-Dollar XMod = 2.05 B$. Wir erhalten damit den bereits in den Tabellen von Beispiel
I 2-23 enthaltenen Nebenrechnungen folgende Ergebnisse:
1 "

A-Dollar:

MA =-Llx,-xM.. =-0.60 =0.06 A$


n '_1
10

B-Dollar:

1 k
1
MA =-Lhj"lal-x... =-3.20=0.32 B$
n 1_1
10

48

I Deskriptive Statistik

Elgenscbaften der mittleren absoluten Abweicbung:

Die mittlere absolute Abweichung nimmt ihr Minimum an, wenn sie mittels

x... berechnet wird.

Im Vergleich zur Varianz, die wir unter I 2.2.2.3 vorstellen, weist sie nur

wenige befriedigende mathematische Eigenschaften auf. Deswegen wird sie in


der Praxis selten verwendet.

Die mittlere absolute Abweichung reagiert im Vergleich zur Varianz weniger


stark auf Ausreier.

Werden die Merkmalswerte X, linear transfonniert (YI = a + b XI' mit a, b E IR


und b 0), so kann die neue mittlere absolute Abweichung MAy aus der
mittleren absoluten Abweichung MA,~ der Ausgangsdaten hergeTeitet werden, ohne dass eine Neuberechnung notwendig wird. Dies geschieht ber

MA y_ =lblMA: 1 : _ '

(12: 49)

Wir erkennen daran, dass eine Transformation der Form YI = a + XI (b = 1)


die Streuung der Daten nicht verndert. Die Transformation bewirkt lediglich
eine Lageverscbiebung der Daten. Erst die Multiplikation der Ausgangsdaten
mit einer Konstanten b 1 fhrt ZU einer nderung der Streuung.

Beispiel I 2-25

Eigenschaften der mittleren absoluten Abweichung

Betrachten wir die Auswirkungen verschiedener Transformationen einer einfachen Ausgangsverteilung auf die neue mittlere absolute Abweichung.

4
2

Addieren wir zu den Beobachtungen des Merkmals X die Konstante a = 1, so bewirkt dies
eine Rechlsverschiebung der Verteilung, sodass sich ihre Lageparameter bzw. hier der
Median ndert. Die Streuung wird davon nicht beeinflusst. Bei a = -1 kommt es zu einer
Linksverschiebung bei unvernderter Streuung. Die Grafiken auf der Folgeseite veranschaulichen dies.
Multiplizieren wir mit einem Faktor zwischen 0 und 1 bzw. hier 0,5, so ndert sich sowohl
Lage als auch Streuung der Verteilung. Wir erkennen eine Linksverschiebung bei gleichzeitiger Verringerung der Streuung. Fr einen Faktor grer als 1 bzw. hier 1,5 beobachten
eine Rechlsverschiebung bei Erhhung der Streuung.

2. Eindimensionale Hufigkeitsverteilungen

49

YM., = 7

MA

YM., =5

,- =1

MA,- =1

4
2

bj

Y; =0,5 Xi

Yi=1,5'Xi

h{bll

h{b~

Y.od =3

Y.od =9

MA,_ =0,5

bj

MA,_ =1,5

468

2.2.2.3

bj

468

bj

Varianz und Standardabweichung

Die Varianz s' bzw. die sich aus ihr ergebende Standardabweichung s ist das in der
Praxis am hufigsten verwendete Streuungsma. s' ist definiert als arithmetisches
Mittel der quadrierten Abweichungen der einzelnen Merkmalswerte vom arithmetischen Mittel X. Gerade daher wird die Varianz auch hufig als mittlere quadratische Abweichung bezeichnet. s ist die positive Wurzel aus der Varianz.
Die Varianz und die Standardabweichung werden stets in Bezug auf das arithmetische Mittel berechnet, da fr x die Summe der quadrierten Abweichungen nach
der Optimalittseigenschaft des arithmetischen Mittels minimal ist. Das Zentrum
einer Verteilung wird also umso besser durch das arithmetische Mittel beschrieben,
je kleiner die Varianz bzw. die Standardabweichung ist.
Varianz aus der Urliste:
Die Varianz lsst sich in der Urliste ber
1 ~(
_)' rrut
.
s , ;;;;;;_.
L...J Xi -x
n

1_ 1

(12: 50)

berechnen. Die darin zur Anwendung kommende Quadrierung der Abweichungen


dient auf der einen Seite dazu, groen im Vergleich zu kleinen Abweichungen
mehr Gewicht zu verleihen. Dies unterscheidet die Varianz von der mittleren ab-

I Deskriptive Statistik

50

soluten Abweichung. Andererseits wird durch die Quadrierung verhindert, dass


sich positive und negative Abweichungen gegenseitig aufheben.

Zur Rechenvereinfachung lsst sich die Varianzfonnel umfonnen. Es handelt sich


bei dieser Umfonnung um einen Speztaifall des sog. Verschtebungssatzes:
eI2: 51a)

Version A:

~C Xi
-1 L..J

Version B:

~C

-)' ;;;;;;1 L..J X1-C )' -X


n

i=l

CX-C )'

02: 51b)

i_I

Fr Interessierte fhren wir die Herleitung des Verschiebungssatzes im Folgenden


kurz auf. Sie kann jedoch auch bersprungen werden, da sie fr das Verstndnis
des Folgetextes nicht relevant ist. Version A erhalten wir wie folgt:
:tex, -x)' = :tex, -c-ex-c)i
i=l

i=l

:tex,

-ci - 2 :tex, -

1=1

c) ex - c) + :tex - c)'

1=1

:tex,

-ci - 2 ex -

1=1

c) :tex, - c) +n ex -

1=1

,1=1

ci

n'i-nc

= :tex,

-ci -2nex-ci +nCx-c)'

= :tex,

-ci -nex-ci

1=1

Dividieren wir beide Seiten von Version A durch n J erhalten wir Version B.

Setzen wir nun in Version B des Verschiebungssatzes c = 0, so erhalten wir die


folgende alternative Berechnungsfonnel fr die Varianz aus der Urliste:
2

1 ~

-2

02: 52)

=-'L..JXj-X

i=l

Da diese Fonnel unter Statistikneulingen oft zu Verwirrung fhrt, wollen wir klar
darauf hinweisen, dass bei der Berechnung zunchst die Summe der quadrierten X,
durch n dividiert wird und erst im Anschluss daran das quadrierte arithmetische
Mittel abgezogen wird. Analog gUt dies auch fr die Fonneln in 02: 55).
Varianz aus der Hujigkeitsverteilung:

Liegt eine HufigkeitsverteUung mit k Merkmalswerten a" a" ... , ak mit den zugehrigen absoluten Hufigkeiten hea? bzw. relativen Hufigkeiten fea? vor, so erfolgt
die Berechnung der Varianz nach den folgenden Fonneln:
s'

=l. hCa.).Ca. -x)'


n

j..1

s' = LfCaJ)'CaJ -xi


j=1

mit

02: 53)

mit

x = LfCaJ).aJ
j=1

02: 54)

2. Eindimensionale Hufigkeitsverteilungen

51

Unsere Rechenvereinfachung (12: 52) liefert daraus

1 ~
, -,
s, ;;;;;;-.
L. h(aj ) aJ-x
n j-=t

bzw.

s' = Lf(al)a!
j_ 1

-x' .

(12: 55)

Zur Erleichterung einer von Hand durchgefhrten Varianzberechnung empfiehlt es


sich, die Arbeitstabelle aus Abbildung I 13 heranzuziehen. Wir erhalten daraus die
Varianz, indem wir vom Mittelwert (absolute Hufigkeiten) bzw. der Summe (relative Hufigkeiten) der letzten Spalte x' subtrahieren. x knnen wir dabei aus der
jeweiligen vorletzten Spalte ermitteln.
h(a,)' a,

h(a)

a,

h(a).a!

f(a)

f(a,)' a,

f(a l) a!

1
bzw.
k
n

1:

1,00

Abbildung I 13: Arbeitstabelle zur Varianzberechnung

Varianz aus der HufigkeltsverteIlung klassierter Daten:


Im Falle klassierter Daten werden zur nherungsweisen Berechnung in obigen

Formeln wieder lediglich die Werte a, durch die Klassenmitten a~ und die Hufigkeiten h(a,) und f(a,) durch die Klassenhufigkeiten h, und f, ersetzt.
Beispiel I 2-26

Berechnung von Varianz und Standardabweichung

Berechnen wir fr unser Whrungsbeispiel I 2-23 die Varianzen und Standardabweichungen. Wir erhalten unter Verwendung der bereits in Beispiel I 223 enthaltenen Arbeitstabellen und der arithmetischen Mittel
A-Oollar:

l'
1
x=-'Lx, =-12,00=1,20 A$
n 1_1
10

B-Oollar:

1
1 k
x =-Lhlal =-20,00=2,00 B$
n 1-1
10

folgende Ergebnisse:
A-Oollar:

~ ,
S,_I
- - . L.tXI
n

1_1

-x-,_14,44
- - - - 120'-00040A$'
,
-,
10

s = ,J0,0040 = 0,0632 A$
B-Oollar:

1 ~h (a,'
S' --'Lot

1- 1

_ 41,08
-0, 1080 B$'
-x-, - - - 200'
,
10

s = ,J0,1 080 = 0,3286 B$

52

I Deskriptive Statistik

Eigenschaften der Varianz (und der Standardabweichung):


Die Varianz s' (und damit auch die Standardabweichung s = ,fs2 ) ist stets grer oder gleich Null. Nimmt s' den Wert Null an, so liegt berhaupt keine
Streuung vor, d.h. alle Merkmalswerte sind identisch.

Die Dimension der Varianz ist das Quadrat der Dimension der einzelnen Beobachtungswerte. Die Dimension der Standardabweichung stimmt mit der der
betrachteten Merkmalswerte berein. Besitzt also z.B. ein Merkmal die Einheit
Euro, so ist die Dimension der Varianz ' und die der Standardabweichung .

Aufgtund der gleichen Dimension ist die Standardabweichung im Gegensatz


zur Varianz ein mit der mittleren absoluten Abweichung vergleichbares Ma.
Dabei gilt stets die Ungleichung

s ., MA ., MA._ .

(12: 56)

Verteilungen knnen bei gleichen arithmetischen Mitteln trotzdem unter-

schiedliche Varianzen und damit auch Standardabweichungen aufweisen.


Beispiel I 2-27

Arithmetisches Mittel und Varianz

Fr zwei Unternehmen wurde von einem Marktforschungsinstitut ber 4 Jahre eine Kundenzufriedenheitsanalyse durchgefOhrt. Der Anteil zufriedener Kunden ist in folgender
Tabelle angegeben.
Jahr
Unternehmen A
Unternehmen B

2002
0,70
0,30

2003
0,95
0,70

2004
0,50
1,00

2005
0,55
0,60

2006
0,80
0,90

Fr beide Unternehmen ergibt sich eine durchschnittliche Kundenzufriedenheit von = 0,7


bzw. 70 %. Bei Unternehmen B (s = 0,060) ist allerdings eine strkere Fluktuation der Kundenzufriedenheit festzustellen als bei Unternehmen A (s = 0,027).

Das sog. Tschebyscheff-Theorem (vgl. Abschnitt II 2.9) besagt, dass fr beliebige Verteilungen mindestens l-l/k' (%) der Beobachtungen in einem Intervall [x - k . S x + k . s) liegen.

Praxisregel: Fr eingipfelige Verteilungen gilt,2 dass im Intervall

[x - S x + sl zumeist zwischen 60 % und 80 %, fr fast symmetrische


Verteilungen ca. 70 % und fr sehr schiefe Verteilungen fast 90 % der
Beobachtungswerte liegen.

[x - 2 S x + 2 sl fr symmetrische Verteilungen ca. 95 % und fr sehr


schiefe Verteilungen bis fast 100 % der Beobachtungswerte liegen.
[x - 3 S x + 3 sl knapp 100 % der Beobachtungen liegen.

Wir hatten bereits angesprochen, dass der Grund dafr, dass die Varianz bezglich x bestimmt wird, darin liegt, dass die Summe der quadratischen Abweichungen der einzelnen Merkmalsausprgungen X, von einem beliebigen

2 Vgl. Bamberg und Baur (2004). Kapitel 3.

2. Eindimensionale Hufigkeitsverteilungen

53

Wert A dann ein Mirtimum hat, wenn A = x ist. Dies hatten wir bereits als Optirnalittseigenschaft des arithmetischen Mittels in (12: 26) festgehalten. Ist die
Summe der quadratischen Abweichungen minimal, ist es natrlich auch ihr

Mittelwert und damit die Varianz.

lineare Transformationen:
~ in der linearen Fonn Yi = a + b . Xi' mit
a, b E IR und b '" 0, so wissen wir bereits, dass nach (12: 27) fr das arithmetische Mittel y = a + b . x gilt. Fr die neue Varianz s~ und die neue Standardabweichung Sy gilt bei einer derartigen Transformation

Transfonnieren wir die Einzelwerte

,
1 ~(
-)' =-'L...Ja+
1 ~(b 'xj-a- b 'x
-)'
Sy=-'L...JYi-Y
n

1_ 1

1_ 1

2n

b
-222
=-'L(X, -x) =b s..
n j=-l
sodass wir insgesamt
(12: 57)

festhalten knnen. Dies zeigt, dass eine Transformation der Form y, = a + x"
d.h. mit b = 1, wie wir auch bereits bei der mittleren absoluten Abweichung
gesehen haben, keinerlei Einfluss auf Streuung und damit die Varianz und die
Standardabweichung des Datenmaterials hat. Es gilt nmlich dann s~ = s;
bzw.

Sy =5][.

Beispiel I 2-28

Uneare Transformationen und Varianz

Innerhalb einer Woche fielen vor Euroumstellung in der Filiale einer Bank folgende Kosten
(in DM) fOr den Versand von Geschftsbriefen an:
Mo

Di

Mi

Do

Fr

5,50

9,00

3,00

12,00

1,50

Es ergaben sich damit durchschnittliche Versandkosten von

x=~.(5,50+9,00+3,00+12,00+1,50) = 6,20 DM
bei einer Varianz und einer Standardabweichung von

s~ = ~. (5,50' +9,00' +3,00' + 12,00' + 1,50') -6,20' = 14,86 DM'


s, =v'14,86 =3,85 DM
Im Zuge der Euroumstellung werden nun die DM- in Euro-Werte umgerechnet. Die dazugehrige Transformationsformellautet
mit

a=O und b=

1..:....

Ohne auf die neuen Euro-Werte zugreifen zu mussen, knnen wir neben dem neuen Mittelwert y = 1..:... = 3,17 die neue Varianz und Standardabweichung bestimmen:

s: = ('.":"')'.14,86 = 3,88 ' und s, = 1,.95'...1.3,85 = 1,97 .

54

I Deskriptive Statistik

Zentrierung, Standardisierung:

Uegt eine Urliste x" x" ... , x,. mit dem arithmetischen Mittel
dardabweichung s, vor, so heit eine Uneartransformation
Yi = Xi - X

Yi = a + b Xi

und der Stan-

a = -x und b = 1

mit

(12: 58a)

Zentrlerung. Das Resultat einer solchen Zentrierung ist

y = 0 und

= s, .

Sy

(12: 58b)

Wir erhalten also ein neues arithmetisches Mittel von Null und die gleiche
Standardabweichung (Streuung) wie die Ausgangsdaten.
Von besonderer praktischer Bedeutung ist die sog. Standardisierung. Darunter verstehen wir eine Lineartransformation der Form

x. -x

mit

Z.=-'-

a=-- und b=-

(12: 59a)

Standardisierte Daten besitzen die besonderen Eigenschaften


2=0 und

Sz

(12: 59b)

=1,

was wir anhand von

b x 1_
z=a+ x=--+-x=O
Sx

Sx

s; =b' s; =(s:]' s; =1

--+

s, =1

anschaulich zeigen knnen. Die Tatsache, dass durch die Standardisierung der
Merkmalswerte ein arithmetisches Mittel von Null entsteht, bietet den Vorteil,
dass nun sofort erkennbar ist, ob die jeweiligen Merkmalswerte grer oder
kleiner als das arithmetische Mittel sind. Alle neuen positiven Merkmalswerte
liegen ber und alle neuen negativen Merkmalswerte unter dem Durchschnitt.
Wir sind auerdem in der Lage zu erkennen, um wie viele Standardabweichungen der jeweilige Wert vom arithmetischen Mittel abweicht. Dies wird
im nachfolgenden Beispiel klar.
Beispiel I 2-29

Standardisierung

Fr ein bestimmtes Jahr sind die Zahlen der bernachtungen pro Monat in einem Hotel
bekannt:
Jan

Feb

Mr

Apr

Mai

Jun

Jul

Aug

Sep

Okl

Nov

Dez

80

10

30

80

120

160

200

200

200

120

10

10

Wir fUhren nun eine Standardisierung dieser Werte mittels der Formel

x -x
s

ZI=_'-

durch, welche folgende Resultate liefert:

x, -l0l,67
73,24

2. Eindimensionale Hufigkeitsverteilungen

55

Jan

Feb

Mr

Apr

Mai

Jun

-0,30

-1,25

-0,98

-0,30

0,25

0,80

Jul

Aug

Sep

Okt

Nov

Dez

1,34

1,34

1,34

0,25

-1,25

-1,25

Wie wir erkennen, sind alle Merkmalswerte, die ehemals grer als das arithmetische Mittel waren, nun positiv, alle anderen hingegen negativ. Auerdem sehen wir z.B., dass die
Anzahl der bernachtungen im Juli um 1,34 Standardabweichungen ber dem arithmetischen Mittel liegt, was wir ber die Rechnung 101,67 + 73,24 . 1,34 = 200 zeigen knnen.

Fr die Varianz einer Gesamtheit n, die sich aus zwei Teilgesamtheiten

n, mit den Merkmalswerten x" und 'S, zusammensetzt, gilt allgemein

s!,. =-l-.(i;exli -xY + i;ex2l-xY),


fi 1

+ n2

i_I

und

(12: 60)

i_I

fi 1

x,

x,

wobei sich darin


nach (12: 28) ergibt. Bezeichnen wir mit
bzw.
und
s; bzw. s~ die arithmetischen Mittel und Varianzen der beiden Teilgesamtheiten, so ergibt sich die Gesamtvarianz ebenfalls mit
(12: 61)

Beispiel I 2-30

Gesamtvarianz aus Teilgesamtheiten

Die LeisbJngsbeurteilung (Bewertung 1 bis 7) in zwei Unterabteilungen A und B mit 12 und


14 Mitarbeitern der Controlling-Abteilung eines Unternehmens ergab folgendes Ergebnis:
AbteilungA:

122233334445

Abteilung B:

2 3 3 4 4 4 4 5 5 5 5 6 6 7

Wir erhalten daraus


XA =3,00

x. =4,50

S!=1,17
s~=1,68.

Um nun die Varianz der Gesamtabteilung Controlling zu bestimmen, knnten wir die Beurteilungsergebnisse beider Abteilungen zusammenlegen und aus der so entstehenden Gesamtheit die Varianz berechnen. Schneller erhalten wir das Ergebnis, wenn wir zunchst
nach (12: 28)
123,00+144,50
12+14

3,81

bestimmen und dieses Ergebnis in (12: 61) nutzen, um


,
Sg.
zu ermitteln.

121,17+141,68 12(3,00-3,81)' +14.(4,50-3,81)'


12+14
+
12+14

2,00

56

I Deskriptive Statistik

Fr m Teilgesamtheiten, deren jeweilige arithmetische Mittel x"""x m und

Varianzen s~, ... , s~ sowie das Gesamtmittel Xges nach (12: 29) bekannt sind,
berechnen wir die Varianz fr die Gesamtheit n = n 1 + ... + n m nach
2

Sge&

~
Varlam

1{'

= -. L."nk
n k=l

,1
{L."n
'
+ -.

Sk

'Varl:wzhmerhalb

k=l

( _ _ )'

k X k - Xge&

(12: 62)

'~--=''':'"-""",-~:w.-",:-~--~

der TeiJgesamIhelten

den Teilgesamtheiten

wobei der erste Summand hufig als interne Varianz (Varianz innerhalb der
Teilgesamtheiten) oder gewogenes Mittel der Teilgesamtheitsvarianzen (Gewichte n/n) und der zweite als externe Varianz (Varianz zwischen den Teilgesamtheiten) bezeichnet wird. Die angegebene Berechnung wird deshalb
auch als Formel der Streuungszerlegung bezeichnet. An dieser Darstellung
lsst sich gut erkennen, ob sich die Varianz der Daten vor allem durch die
Variation innerhalb der Gruppen oder durch Unterschiede zwischen den
Gruppen ergibt.

Praxishinweis: Auf Finanzmrkten wird hufig die Standardabweichung der


Renditen (nicht der Kurse) als Ma fr die Beschreibung des Risikos verschiedener Finanzanlagen verwendet. Wir sprechen in diesem Zusammenhang von

der Volatilitt (vg).. Abschnitt I 2.2.2.4).


2-2-2A

Exkurs: Volatilitt

Die Einschtzung des Risikos verschiedener Anlagefonnen (Aktien, Anleihen, etc.)

ist in der finanzwirtschaftlichen Praxis von erheblicher Bedeutung, da das mit einer
Anlage verbundene Risiko ein wesentliches Kriterium dafr ist, ob eine Investition
erfolgt oder unterbleibt. Unter Risiko ist dabei allgemein die Mglichkeit eines unerwnschten Ausgangs der Investitionsaktivitt zu verstehen. Da ein unerwnschter
Ausgang von den Prferenzen und Zielsetzungen des Investors abhngig ist, kann
er unterschiedliche Formen, wie etwa den Verlust von Kapital,3 die Verfehlung einer Mindestrendite oder lediglich die Renditeschwankung im Zeitablauf annehmen.
Wie im vorhergehenden Abschnitt erwhnt wurde, wird zur Beurteilung des Risikos
von Finanzanlagen in der Praxis meist die Standardabweichung der Renditen r,
herangezogen 4 Es wird dabei jedoch nicht exakt auf (12: 50) zurckgegriffen, sondern die Volatilit 0 einer Finanzanlage ber
_

0=

{--(

_)'

--'L..,. l j - r

n-1

(12: 63)

j=l

geschtzt. 5 Wie die nachfolgenden Beispiele zeigen, hat dieses Ma vor allem beim
Vergleich der Vorteilhaftigkeit von Wertpapieren und der Beurteilung der Fragilitt
der Lage auf Aktien- und Anleihenmrkten groe Bedeutung.

3 VeIfolgen Investoren das Ziel des Kapitalerhalts, so mssten sie unter Inflationsbercksichtigung keine Mindestrendite von 0 %, sondern eine in Hhe der Inflationsrate anstreben.
4

Zur Renditedefinition vgl. Abschnitt I 2.2.1.5 bzw. die Formeln 02, 35) und 02, 40).

5 Die genaue Bedeutung der Division durch n - 1 anstatt durch n werden wir im Rahmen
der induktiven Statistik in Kapitel III behandeln.

57

2. Eindimensionale Hufigkeitsverteilungen

Beispiel I 2-31

Volatilitt

Die Jahresrenditen einer Aktie A lagen in den Jahren 2002 bis 2006 bei -15, 40, 30, -40
und 35 %. Anhand dieser Daten und einer anderen Aktie B (mittlere Rendite von 6 % und
Standardabweichung der Rendite von 30 % fr den gleichen Zeitraum) wollen wir nun die
Vorteilhaftigkeit des Papiers A beurteilen:

7 =~.(-{l,15+0,40+0,30-0,40+0,35) = 0,10 =10 %


" =

~ 5~ l' [(-{l,15-0,1 0)2 + ... +(0,35-0,1 0)2] = "0,1263 = 35,54 %

Da das Papier B bei niedrigerer Durchschnittsrendite eine niedrigere Standardabweichung


aufweist, hngt die Vorteilhaftigkeit des Wertpapiers A von den Prferenzen des Investors
ab. Ist der Investor bereit, fijr hhere Ertragschancen zustzliche Risiken einzugehen, so
wird er sich fijr Papier A entscheiden.
Wrden beide Papiere unter sonst unvernderten Bedingungen die gleiche Durchschnittsrendite aufweisen, so wre Papier B als vorteilhafter einzustufen, da bei geringerem Risiko
die gleiche Durchschnittsrendite erzielbar ist wie bei Papier A.

Da die "nonnale" Standardabweichung aus (12: 63) auch positive Abweichungen


vorn Durchschnitt bercksichtigt, die ja fr den Investor nicht unbedingt ein Risiko
darstellen mssen, verwendet man zum Teil sog. Downside-Risikomae, welche
nur negative Abweichungen aufnehrnen 6 Zu diesen zhlt etwa die Semi-Volatilitt,
welche wir aus historischen Daten mittels

""

"ml

lL"(-)'
= -,
r,-r
I
n

1=1

schtzen knnen, wobei ii fr die Anzahl negativer Abweichungen von


Beispiel 11 2-32

r steht.

Semi-Volatilitt

ber einen Zeitraum von n = 8 Werktagen ergaben sich fr eine Aktie folgende Renditen
(mit 7 = 0,0025):

r, - r

-0,02
-0,0225

0,02
0,0175

-0,03
-0,0325

0,01
0,0075

0,00
-0,0025

-0,01
-0,0125

0,0075

0,0375

Mit ii = 4 negativen Abweichungen ergibt sich daraus die Semi-Volatilit zu


"Hm'

~. [(-{l,0225)2 +(-0,0325)2 + (-{l,0025)2 +(-{l,OI25)2] = 0,0147.

Diese Semi-Volatilit fllt hier natrlich niedriger aus als die Volatilitt, die auch positive
Abweichungen berOcksichtigt (" = 0, 0225), da erstere nur 4 quadrierte Abweichungen
aufnimmt.

6 Einen umfassenden berblick ber Risikomae und deren Implementierung geben z.B.
Auer, B.R., Seitz, F. (2008). Praktische Anwendungen fmden sich z.B. bei Rottmann, H.,
Franz, T. (2007, 2008).

I Deskriptive Statistik

58

Die volatilitten aus den Beispielen 11 2-31 und 11 2-32 sind nicht direkt miteinander vergleichbar, da (abgesehen von der Tatsache, dass verschiedene Risikomae
verwendet werden) in Beispiel 11 2-31 Jahresdaten und in Beispiel D 2-32 Tagesdaten verwendet wurden. In der Praxis wird daher eine sog. AnnuaJ1s1erung mit

folgenden Formeln vorgenommen:

bei Monatsdaten:

b _ = b _ '/252
O.."..,.uen = a___ .Ji2

bei Quartalsdaten :

'annuaIiIien = (JQualtllldaIeD.

bei Tagesdaten :

J4

hs2

Bit

In Beispiel TI 2-32 ergibt sich somit 0"0DDU1laIer\ = 0, 0225


= 0,3572. Wie wir unschwer erkennen, ist die Zahl unter der Wurzel stets die Anzahl der ZU bercksichtigenden Subperioden. Bei Tagesdaten ist dabei zu beachten, dass Handelstage und
nicht tatschliche Kalendertage zu verwenden sind.
Volatilitaten auf Aktien- und AnleihenmArkten

Bel.plell 2-33

In der Praxis geben uns VolatilitAten vor allem Auskunft Ober die Fragilitt der Lage auf
den Rnanzmarkten. Betrachten wir dazu folgende Tabelle, die die annualisierten Renditestandardabweichungen der Aktienindizes COAX (Deutschland) und S&P 500 (USA) sowie
des REX (Index fOr deutsche Staatsanleihen) fOr die Jahre 2003 bis 2010 zeigt. Die annualisierten Standardabweichungen wurden aus den Tagesrenditen der jjWeiligen Jahre ermittelt, d.h. ihnen liegt die oben behandelte Fonnel a-........I111111 = a-T~"' 252 zugrunde.

2003
2004
2005
2006
2007
2008
2009
2010

CDAl<

S&P 500

REX

27,0746
14,5774

17,0676
11,0935

3,7965
2,7339

11,1793
14,9402

10,2835
10,0253

2,9039
2,5242
2,9950
7,0120
3,7660
3,2983

15,6750

15,9856

38,3501

40,8733

27,5225
18,2851

27,2850
18,0517

Wie deutlich zu erkennen ist. kommt es im Zuge der im Jahr 2008 verstrkt zu Tage
tretenden Finanzmarklkrise auf allen Mrkten (Aklien- und Anleihenmarkl) zu stark gestiegenen VolatililAten. Insbesondere auf dem amerikanischen Aktienmarkl ist eine starke
Steigerung der Renditeschwankungen zu verzeichnen. Selbst die Anleihenmrkle, die gewhnlich durch niedrigere VolatilitAten gekennzeichnet sind, warden durch die Krise in Mitleidenschaft gezogen. Nach 2008 zeigt sich eine Beruhigung der MArkte.
Zur genaueren Analyse (bzw. besseren Verdeutlichung) der sich zeitlich verndemden
Volalilitt auf den Mrkten empfiehlt sich auch eine Betrachtung auf Monatsbasis. Wir berechnen dazu aus den Tagesrenditen fOr jeden Monat des Betrachtungszeitraums die geschtzte Volatilitit und annualisieren diese wiederum mit a-..n"_~ = aTIIg_n .1252 . Die
daraus resultierende Volalilittsentwicklung ist in den nachfolgenden Grafiken abgebildet.
Die monatliche Betrachtung stellt den krisen bedingten Anstieg noch deutlicher dar als die
Betrachtung auf Jahresbasis. Erneut zeigt sich, dass der Volatilittsanstieg auf den Aktienmrkten strker ausfiel als auf den Anleihenmriden. Auch auf Monatsbasis ist eine sich
anschlieende Marklberuhigung zu erkennen.

2. Eindimensionale Hufigkeitsverteilungen

59

w,-----------------------,

w,-----------------------,

.,
'"

.,
.,'"

Ol

...'"
00

01

02

03

04

05

06

f11

(11

0IiI

10 11

w',-----------------------,

.,

.,
.,

00

2.2.2.5

01

02

04

O!i

Oll

fIT

06

Oll

10 11

Variationskoeffizient

Soll die Streuung zweier Verteilungen mit stark verschiedenen Mittelwerten verglichen werden, sind die absoluten Streuungsmae Varianz und Standardabweichung oftmals ungeeignet, da sie nicht das Niveau der Daten bercksichtigen.
Nehmen wir etwa an, wir stellen fr zwei Verteilungen A und B die Mittelwerte
10.000 und 1 und jeweils eine Varianz von 10 fest. Fr Verteilung A wrden wir die
Varianz als gering bewerten, bei Verteilung B hingegen als eher gro. Ohne die
gleichzeitige Betrachtung der Mittelwerte htten wir eine solche Schlussfolgerung
nicht treffen knnen. Zudem ist es in der Regel so, dass die absoluten Streuungsmae bei zahlenmig greren Merkmalswerten grer ausfallen als bei kleineren. So fallt z.B. die Standardabweichung bei Pkw-Preisen hher aus als jene bei
Kaugummi-Preisen, was auch hier einen direkten Vergleich erschwert. Um den-

noch aussagekrftige Vergleiche durchfhren zu knnen, empfiehlt sich die Verwendung sog. relativer Streuungsmae, die das Niveau der Daten bercksichtigen.
Sie werden konstruiert, indem ein Streuungsma zu dem entsprechenden Lagema
ins Verhltnis gesetzt wird. Relative Streuungsmae sind dimensionslose Gren,

d.h. sie besitzen keine Einheit, und sind daher besonders bei Vergleichen von Verteilungen mit unterschiedlichen Maeinheiten wertvoll. Das gebruchlichste relative
Streuungsma ist der Variationskoefflzient VC, der auf der Standardabweichung
und dem arithmetischen Mittel basiert:

VC=lxl

02: 64)

60

I Deskriptive Statistik

Der Variationskoeffizient wird in der Praxis gelegentlich als Ma fr die Streuung


der Wechsel- oder Wertpapierkurse verwendet. Generell hat sich jedoch die Standardabweichung der Renditen als Volatllittsma durchgesetzt.
Beispiel I 2-34

Variationskoeffizient und Aktienvolatilitt

Der Kurs der X-Aktie weist in einem Zeitraum von 200 Handelstagen bei einem Mittelwert
von x=49,30 eine Standardabweichung von s,=35,14 auf. FOr den identischen
Zeitraum ergab sich fOr die V-Aktie ein Mittelwert von y = 385,17 und eine Standardabweichung von s, = 179,55 .
Ein Vergleich der Variationskoeffizienten
VC = s, = 35,14 =0 71
, lxi 49,30
'
VC = s, = 179,55 =0 47
, lyl 385,17
'
zeigt, dass trotz geringerer Standardabweichung die X-Aktie strker streute.

Beispiel I 2-35

Variationskoeffizienten im Basisbeispiel

Fr unser Wechselkursbeispiel I 2-23 erhalten wir folgende Variationskoeffizienten:


A-Dollar:

VC = .!. = 0,0632 = 0 0527


lxi
1,20
'

B-Dollar:

VC=.!.= 0,3286 =0 1643


lxi
2,00
'

Um nun einen umfassenden Variationsvergleich durchfOhren zu knnen, wollen wir die Ergebnisse der bisher berechneten Streuungsmae (unter Zusatzangabe der dabei verwendeten Lagemae) in folgender Tabelle zusammenfassen:

X Mod

x
SP
MA
s'
s
VC

A-Dollar
1,20 A$
1,20 A$

B-Dollar
2,05 B$
2,00 B$

0,20 A$

0,80 B$
0,32 B$

0,06 A$
0,0040A$'
0,0632A$

0,1080 B$'
0,3286 B$

0,0527

0,1643

SP, MA, s' und s sind als absolute Mae der Streuung beim B-Dollar am grten. Auch
der Variationskoeffizient als relatives Streuungsma erlaubt die Schlussfolgerung, dass
der B-Dollar strker streut als der A-Dollar. In diesem speziellen Fall macht es also keinen
Unterschied, ob wir absolute oder relative Mae fr den Streuungsvergleich heranziehen.
Dies lsst sich damit begrOnden, dass hier anders als im Beispiel I 2-34 der Unterschied
zwischen den Mittelwerten nicht sonderlich gro ist. Wir knnten also genau so gut auch
auf die Verwendung relativer Mae verzichten.

61

2. Eindimensionale Hlufigkeitsverteilungen

Weitere relative Streuungsmae lassen sich aus den Quartilen einer Verteilung bestinunen. So wird gelegentlich der sog. Quartilskoefftzient Coder QuartilsdispersionskoeffizienO

QK
berechnet. Unter Verwendung anderer Quantile knnen des Weiteren noch andere
Quanfilsverbltnisse, wie etwa X O9 I~,l oder ~.9 I XO.'l' zur Beschreibung der
Streuung gebildet werden.
BOI-Whisker-Plot

Neben den bisher behandelten Methoden werden in der Praxis zum. Vergleich von n
Verteilungen gelegentlich sog. BoI-Whfsker-Plots eingesetzt. Sie fassen die in ~
einem Datenbestand enthaltene Infonnation mit Hilfe von 5 Zahlen, ~, Ql' x-, Q"
x", zusammen und stellen damit Lage, Streuung, Schiefe und Ausreierwerte der
Verteilung grafisch dar. Wie Abbildung I 14 zeigt, setzt sich ein einfacher BoxWhisker-Plot aus folgenden Bestandteilen zusammen:

Skala der Merkmalswerte ~


Rechteck (Box) vom unteren Quartil Ql bis zum. oberen Quart1l Q,
Senkrechte Striche zur Markierung von Median ~ und der beiden Extremwerte ~ und x..
Waagerechte Striche von der Box zu den beiden senkrechten Extremwertstrichen
Das Zentrum von mit Box-Whisker plots visualisierten Verteilungen wird durch den
Median X- lokalisiert. Die beiden Extremwerte ~ und x.. infonnieren ber den
Datenausdehnungsbereich. Die Box zeigt den zentralen 50 %-Anteil der Daten. Die
linke und rechte Seite der Box stellt jeweils 25 % der Daten dar. Die waagerechten
Striche links und rechts von der Box symbolisieren jeweils 25 % der Randdaten.

SP
Xlll~d

x,

I I

x.

QA
0

Q,

Q,

x,

Abbildung I 14: Einfacher Box-Whisker-Plot


Hinsichtlich der Schiefe der Verteilung lsst sich mit einem Box-Whisker-plot sagen,
dass ein rechts (links) von der Mitte der Box liegender Median eine linksschiefe
Crechtsschiefe) Verteilung aufzeigt. Befindet sich der Median in der Mitte der Box,
liegt eine symmetrische Verteilung vor. Bei einer solchen Vorgehensweise bercksichtigen wir allerdings nur die mittleren 50 % der Beobachtungen zur Beurteilung
der Schiefe.

I Deskriptive Statistik

62

Bei der Interpretation von Box-Whisker-Plots ist zu bercksichtigen, dass die Lnge
der waagerechten Striche von der Box zu den beiden Extrema durch wenige Ausreierwerte stark beeinflusst werden kann. Deswegen werden extreme Werte meist

gesondert behandelt. Dazu werden zunchst sog. Ausreierzune definiert, die zur
Identifikation von Ausreiern dienen sollen. Diesen liegt der Gedanke zugrunde,
dass Werte, die weit auerhalb der Box liegen, als potenzielle Ausreier betrachtet
werden knnen. Wir berechnen den sog. inneren Zaun als
[Q, -1,5'QA; Q, +1,5'QAl
und den sog. ueren Zaun als
[Q, -3'QA; Q, +3QAl.
Mit diesen Zunen knnen wir nun z.B. sagen, dass ein Wert, der ber den inneren

Zaun hinausgeht als potenzieller Ausreier betrachtet werden kann. Ein solcher
Ausreier ist als weniger krass einzustufen als einer, der den ueren Zaun berschreitet. In der Praxis werden fr Werte innerhalb des inneren Zauns BoxWhisker-Plots nach der eingangs beschriebenen Methodik gezeichnet. Treten Werte
auerhalb des inneren Zauns auf, werden diese als Zahlenwerte im plot angegeben, um eine Zu starke Streckung der Grafik ber die Spannweite SP zu vermeiden.
Die senkrechten Striche dienen in einem solchen Plot fr den kleinsten Wert x",
der grer oder gleich Q, -1,5 QA ist, und den grten Wert x.' der kleiner oder
gleich Q, + 1, 5 . QA ist. Abbildung I 15 skizziert dies.
[Q, -1,5'QA; Q, +1,5'QAl
X Med

Liste der xWerte links

des inneren
Zauns

-\'

I I

llste der xWerte rechts

x.

des inneren
Zauns

QA

Q,

Q,

Abbildung I 15: Spezieller Box-Whisker-Plot

2.2.3

Momente und Schietemae

Nach Lage und Streuung ist die Schiefe ein drittes wichtiges Einzelcharakteristikum
von Hufigkeitsverteilungen. Wie wir bereits gesehen haben, fhren die Lageparameter x,..., x.", und x nur bei symmetrischen Verteilungen zu einheitlichen Ergebnissen. Bei asymmetrischen oder schiefen Verteilungen fallen die Ergebnisse auseinander. Die Auswahl und Interpretation von Lagernaen wird hier zum Problem.
Um das Ausma der Schiefe einer Verteilung abschtzen zu knnen, ist es sinnvoll,
die Schiefe anband einer Kennzahl zu messen. Hier bietet sich der Schiefekoeffizient an, der aus dem Konzept der Momente entsteht.

63

2. Eindimensionale Hlufigkeitsverteilungen

2.2.3.1

Empirische Momente

Beim Konzept der Momente handelt es sich um ein einheitliches System von Kennzahlen fr metrische Merkmale, mit dem wir in der Lage sind verschiedene Eigenschaften von HufigkeitsverteUungen (insbesondere auch Lage, Streuung und
Schiefe) zu beschreiben.
Ist eine Urliste ~, ~, ... ,x" gegeben und ist 6 eine natrliche Zahl, so erhalten wir
das sog. 6-te Moment um Null als

m,(O) =- LX:
n

,~

und das zentrale Moment der Ordnung 8 als

m.Ci) = ! t(x j -x)~ .


n~

Einige dieser Momente sind uns bereits begegnet. Das erste Moment um Null entspricht nmlich dem arithmetischen Mittel

ml(O)=!~::X:=x
n

1_1

und das zentrale Moment zweiter Ordnung der Varianz

m~(x) =! t(~
n

_X)l

= Sl.

I_I

Aufgrund der Zentraleigenschaft des arithmetischen Mittels ist das zentrale Moment
erster ordnung immer Null:
_

_,

1~

~(x)=-,L..(x!-x)

2.2.3.2

1_1

1~
_
=-,L..xl-x=O

l-l

Scldefemae

fJi

Fr symmetrische Verteilungen nehmen die zentralen Momente m,ex) ungemd


Ordnung a - 3,5,7, ... den Wert Null an. Aus m 5 (x) =I:. 0 fr ein 6 E (3,5,7, .. J kn- ~
nen wir daher auf eine schiefe Verteilung schlieen. Jedes dieser zentralen Momente ist daher theoretisch zur Messung der Schiefe geeignet. In der Praxis hat sich jedoch ein dimensionsloses Schiefema durchgesetzt. welches auf den zentralen
Momenten m1ex)=sl und m,(x) basiert und als ScbfcfckodBzicnt bezeichnet
winI.
Den Schiefekoeffizient &i berechnen wir in der Urliste als
m 5 ex)

m, (x)

gM=-S-'-= (SlY5 =

1 ~(
_)'
-,L..~-x
~n,,-~,.~,_ _ _=

(l.:t(XI-X)l)''
n

,~

64

I Deskriptive Statistik

Fr die Hufigkeitstabelle gilt

~. thCaj ) . Ca j n

gM =

x)'

j-l

tfCa j ) . Ca j

x)'

_!::j-~1_ _ _ _ _~

(~. thca;). Ca; _ xY)"5 = ( t fca;). Ca; _ xY)"5


n

(12: 69)

Liegt eine Hufigkeitstabel/e mit klassierten Daten vor, so werden zur nherungsweisen Berechnung in (12: 69) lediglich die a, durch die aj und die Hufigkeiten
durch Kiassenhufigkeiten ersetzt.
Eigenschaften des Schiefekoeffizienten:

Die Division durch

S3

generiert ein dimensionsloses Schiefema, welches den

Vergleich zwischen verschiedenen Verteilungen ennglicht.

Die Wahl von 3 an Stelle von 2 als Exponent bei der Abweichungsberechnung im Zhler bewirkt, dass groe Abweichungen strker ins Gewicht fallen
und die Vorzeichen der Abweichungen erhalten bleiben.

Das Vorzeichen des Schiefekoeffizienten gibt Auskunft ber die Schiefe der
Verteilung. Es gilt konkret
gM > 0
gM < 0
gM = 0

~
~

rechtsschief
linksschief
symmetrisch

(12: 70)

Je grer der Betrag IgM Ider Kennzahl ist, desto schiefer ist die Verteilung.
Beispiel I 2-36

Schiefekoeffizient

In einem Konzern mit 50.000 Mitarbeitern wurde von der Personalabteilung aufgrund bevorstehender Entlassungen eine Erhebung zur Anzahl der Kinder je Mitarbeiter (0 bis 3)
durchgefUhrt. Da kinderlose Mitarbeiter aufgrund der sozialen Entlassungspolitik zuerst
ausgestellt werden, sind die Ergebnisse von besonderer Bedeutung.

Es liegt nun dazu folgende HAufigkeitstabelie (mit = 0,77) vor. In diesem einfachen, bersichtlichen Fall kann bereits aus der Hufigkeitstabelle eine Aussage ber die Schiefe
der Verteilung gemacht werden. Aufgrund der kleiner werdenden Werte von f(al), ist nmlich eine rechtsschiefe Verteilung zu vermuten. Bei komplexeren Verteilungen sind konkrete Aussagen jedoch nur noch Ober den Schiefekoeffizenten mglich.

2
3
4

aj

h(a~

f(aj)

aJ-x

f(a;). (aj -

0
1
2
3

24.510
15.430
7.050
3.010
50.000

0,49
0,31
0,14
0,06
1,00

-0,77
0,23
1,23
2,23

0,29
0,02
0,21
0,30
0,82

x)'

f(a;). (a; -0,22


0,00
0,26
0,67
0,71

x)'

2. Eindimensionale Hufigkeitsverteilungen

65

Es ergibt sich daraus ein positiver Schiefekoeffizient von

g,. = 0,7,t, = 0,96,


0,82'
der anzeigt, dass die vorliegende Verteilung rechtsschief ist.

Neben g. existiert in der Literatur eine Vielzahl weiterer Schiefemae. Da er im


Vergleich zu g. unempfindlich gegenber Ausreiern ist, ist davon vor allem der
Schiejequarti/skoejfizlent von Bowley interessant. Er ist definiert als
(Q, gQ =

X M,.) -

(x"", - Q,)

QA

(12: 71)

Auch fr ihn gilt (12: 70) analog. Die Division des Zhlers durch den Quartilsabstand bewirkt eine Nonnierung der Kennzahl auf das Intervall -1 ,:; &, ,:; 1. Bei
ausgeprgter Rechtsscruefe gilt Q, = x."" woraus &, = 1 folgt. Analog gilt bei ausgeprgter Linksschiefe x.", = Q" woraus &, = -1 folgt.

2.2.4

Konzentrationsmessung

In den Wirtschaftswissenschaften bezeichnen wir eine Ballung der Verfgungsgewalt ber Produktionsfaktoren (natrliche Ressourcen, Beschftigte, usw.) oder
eine Ballung wirtschaftlicher Ertrge (Umstze, Gewinne, Einkommen, usw.) in den
Hnden weniger Wirtschaftssubjekte als Konzentration. Konzentration knnen wir
mittels spezieller Mazahlen quantifizieren. Diese lassen sich grob in zwei Klassen
einteilen: Mazahlen der absoluten Konzentration untersuchen, ob der Groteil
des gesamten Merkmalsbetrages (z.B. Umsatz) auf eine kleine Anzahl von Merkmalstrgern (z.B. Unternehmen) entfllt. Jene der relativen Konzentration messen, ob der Groteil des gesamten Merkmalsbetrages auf einen kleinen Anteil von
Merkmalstrgern entfllt.

Ein in der Praxis bedeutendes Einsatzgebiet der Konzentrationsmessung ist die Abschtzung von Ausma und Entwicklung der Ballung wirtschaftlicher Macht auf
einzelne oder wenige Unternehmen (Unternehmenskonzentratton). Die Beherrschung eines Marktes durch wenige groe Unternehmen beeintrchtigt nmlich
den Wettbewerb unter den Unternehmen. Gerade daher hat das Statistische Bundesamt ein Berichtssystem zur kontinuierlichen Beobachtung von Konzentrationsprozessen geschaffen. Zudem existieren mit dem Bundeskartellamt und der Mono-

polkommission Instanzen, die die Unternehmenskonzentration begutachten und


berwachen. Ein weiteres Einsatzgebiet der Konzentrationsmessung ist die Untersuchung der Einkommens- oder Vermgensverteilung von Wirtschaftssubjekten in
einer Volkswirtschaft (Einkommens- und Vermgenskonzentration). Diese ist von
Bedeutung, da sie die Entscheidungsgrundlage fr eine staatliche Verteilungspolitik
liefert. Auch einige betriebswirtschaftliche Fragestellungen lassen sich mit der Konzentrationsmessung beantworten. So knnen Konzentrationsmae z.B. zur Analyse
der Kostenstruktur von Beschaffungsgtern im Rahmen der sog. ABC-Analyse eingesetzt werden. In der Regel konzentriert sich nmlich ein hoher Anteil der Beschaffungskosten auf wenige Gter (sog. A-Gter), die es zu identifizieren gilt, damit ihre Beschaffungspolitik optimiert werden kann.

66

I Deskriptive Statistik

2.2.4.1

Mazahlen der abaoluten Konzentration

Voraussetzung fr viele Verfahren der Konzentrationsmessung ist zunchst, dass


Xz S; S; gilt. Die
sog. Merkmalssurnme MS ergibt sich daraus als

~ die n Merkmalswerte der Groe nach geordnet sind, also ~ S;

MS=

x..

ix,.
,~

Wir untersuchen ausschlielich metrisch skalierte Merkmale X, die nur nJchtnep._


dvc Zahl." als Werte annehmen knnen Cz.B. Unternehmensumstze, Haushaltseinkommen, Kosten von Beschaffungsgtern, usw.) und fr die nicht alle x..
gleichzeitig Null sind. Nur dann knnen wir nmlich die Anteile der einzelnen
Merkmalswerte an der Merkmalssumme
X,

([2, 73)

PI= MS

bestimmen, fr welche aufgrund der Sortierung der einzelnen Merkrnalswerte PI S;


Pz S; s: Pn gilt. Aus diesen Anteilswerten lassen sich die Konzentrationsrate, der
Herfmdahl-Index und der Exponentialindex berechnen:

1. Konzentrationsra:te
Unter der Konzentrationrate (-koeffizient) CR (engL concentration ratio) verstehen
wir den Anteil an der Merkmalssumme MS, der auf die m grten Merkmalstrger
entfllt. Er ist definiert als
CR =

i
i:,.,

x,

1... -",+1

XI

(12, 74)

p,

~_111.+1

und ergibt sich also durch einfache Addition der Anteilswerte der m grten
Merkmalswerte. Das "+ 11 in der Fonnel ergibt sich dadurch, dass wenn wir Z.B. die
3 grten Werte aus einer sortierten Uste von 7 Werten betrachten wollen, wir uns
konkret fr die Werte Ne. 5, 6 und 7 interessieren. Um die Nr. des Startwerts (hier
also 5) zu erhalten, knnen wir also nicht einfach 3 von 7 subtrahieren.
E~genscha.ften

der KonzentraUonsrate:

Die Anwendung von CR ist in der Praxis sehr beliebt, da sich dieses Ma
durch seine einfache Berechenbarkeit auszeichnet.

Durch Beschrnkung auf ein einziges, oft willkrlich festgelegtes m bleibt die
gesamte sonstige, in der Verteilung enthaltene Information unausgeschpft.
Bei der Beurteilung von Konzentrationsunterschieden in verschiedenen Verteilungen knnen wir leicht zu Fehlschlssen gelangen, wenn der Vergleich
ausschlielich fr einen einzigen Wert m durchgefhrt wird. Durch geschickte
Wahl von m kann das Ergebnis eines Vergleichs sogar beeinflusst werden.

Bei Gleichverteilung der Merkmalssumme MS auf die n Merkmalstrger gilt


1

PI = Pl'''=P.. =n

-+

CRm =

:t

1...,-m+1

~=m.
n

(12, 75)

2. Eindimensionale Hufigkeitsverteilungen

67

Beispiel I 2-37

Basisbeispiel zur Konzentrationsmessung

Grundlage fr die Beispiele, die wir in den nachfolgenden Abschnitten verwenden, sind
folgende Tabellen. Sie zeigen 8 Verteilungen {A-H} von Unternehmensumstzen. Betrachten wir z.B. Verteilung D, so knnen wir sagen, dass Firma 4 genau,,", = 280 Mio. Euro
Umsatz bzw. p. = 0,14 = 14 % des Gesamtumsatzes {bzw. der Merkmalssumme MS} aller
5 Unternehmen dieser Verteilung aufweist.
Verteilungen {Umsatz in Mio.}
B
e

A
Firma
1
2
3
4
5
MS

X,

~I

0
0
0
0
2.000
2.000

0,00
0,00
0,00
0,00
1,00
1,00

E
Firma

1
2
3
4
5

X,

PI

440
480
520
560
2.000

0,11
0,12
0,13
0,14
0,50

4.000

1,00

6
7
8
9
10
MS

Xi

400
400
400
400
400
2.000

~I

0,20
0,20
0,20
0,20
0,20
1,00

Xi

120
160
400
600
720
2.000

~I

0,06
0,08
0,20
0,30
0,36
1,00

Verteilungen {Umsatz in Mio.}


F
G
x,
Xi
PI
PI
60
60
80
80
200
200
300
300
360
360
2.000

0,03
0,03
0,04
0,04
0,10
0,10
0,15
0,15
0,18
0,18
1,00

200
200
200
200
200
200
200
200
200
200
2.000

0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
1,00

D
Xi

~I

220
240
260
280
1.000
2.000

0,11
0,12
0,13
0,14
0,50
1,00

H
Xi

1
1
1
1
1
399
399
399
399
399
2.000

PI
0,0005
0,0005
0,0005
0,0005
0,0005
0,1995
0,1995
0,1995
0,1995
0,1995
1,00

Vergleichen wir nun zunchst die Konzentration in den Verteilungen A, Bund e mittels der
Konzentrationsrate fr m = 3, liegt der Anteil der drei grten Unternehmen am Gesamtumsatz in den Verteilungen bei
eR: = Ps +P. +p, =1,00+0,00+0,00 =1,00

e~=~+~+~=~~+~~+~~=~OO

e~=~+~+~=~~+~~+~~=~OO,

was uns zeigt, dass die Verteilung A die hchste absolute Konzentration aufweist. Dies ist
auch nicht verwunderlich, da in dieser der gesamte Umsatz von nur einem Unternehmen
erwirtschaftet wird.

Zur einfachen Veranschaulichung der Manipulierbarkeit des Konzentrationsverhltnisses


bestimmen wir den Anteil der m = I, m = 2 und m = 3 grOten Unternehmen am Gesamtumsatz in den Verteilungen e und D. Wir erhalten damit folgende Werte:

68

I Deskriptive Statistik

CR~ = Ps = 0,36

CR~ =0,50

CRi = Ps +P. = 0,36+0,30 =0,66

CR~ = 0,50+0,14 = 0,64

CRi = Ps +P. +p, =0,36+0,30+0,20 = 0,86

CR~ = 0,50+0,14+0,13 = 0,77

Whlen wir also ein m grer als 1, so ist die Konzentration in Verteilung C hher. Entscheiden wir uns hingegen fiir m = 1, ist die Konzentration bei D hher. Der Leser statistischer Verffentlichungen sollte sich einer derartigen Problematik bewusst sein.

2_ Herfindahl-Index
Der Hetftndahl-Index H ist die Summe der quadrierten Anteile p. der Merkmalstrger an der Merkmalssumme MS. Da alle Anteile p, in die Berechnung eingehen,
mssen diese hier nicht der Gre nach geordnet sein.

i-I

(12: 76)

Eigenschaften des Heifindahl-Index:

Der Herfindahl-Index lsst sich sehr einfach aus nicht sortierten Merkmalsausprgungen berechnen und schpft die gesamten in der Verteilung enthaltenen
Infonnationen aus. Anders als bei der Konzentrationsrate eR kommt es bei
ihm also zu keiner Infonnationsvemachlssigung.

Haben alle Merkmalswerte den gleichen Anteil an der Merkmalssumme, so


liegt minimale Konzentration vor. Der Herfmdahl-Index ist in diesem Fall
gleich l/n. Es gilt nmlich
1

H=n-=-.
n' n

p, = p, = ... = Pn =n

(12: 77)

Im Falle maximaler Konzentration entfllt die gesamte Merkmalssumme auf


einen Merkmalstrger , wobei alle anderen Merkmalstrger einen Anteil von
Null an der Merkmalssumme haben. Der Herfmdahl-Index ist dann 1, da

PI = P2 = ... = Pn-l = 0, Pn = 1

H=1

(12: 78)

gilt. Aufgrund dieser Eigenschaft bewegt sich H im Intervall

~~H~I.

(12: 79)

Zwischen dem Herfindahl-Index und dem Variationskoeffizienten VC bzw.


der Varianz s' lsst sich folgender Zusammenhang feststellen:
1 ( VC,
H = ~.

1
+ 1) = ~.

(s'x'

+1

(12: 80)

In dieser Darstellung fonnulieren wir den Variationskoeffizienten nicht wie in


(12: 64) mit Absolutstrichen, da wir ja unsere Betrachtungen nur auf nichtnegative X, beschrnken.

69

2. Eindimensionale Hufigkeitsverteilungen

Beispiel I 2-38

HerfindahHndex

Fr die Verteilungen A, Bund C aus Beispiel I 2-37 erhaUen wir die folgenden HerfindahlIndizes:

HA = 0,00' +0,00' +0,00' +0,00' +1,00' = 1,00

H" = 0,20' +0,20' +0,20' +0,20' +0,20' = 0,20


He = 0,06' +o,oa' +0,20' +0,30' +0,36' = 0,27
Fr Verteilung A nimml H den Wert 1 an, was maximale Konzentration belegt. FOr Verteilung B erhalten wir 0,20 = 1/5 = l/n, sodass hier minimale Konzentration besttigt wird.
Betrachten wir die Verteilungen D und E, so ist festzustellen, dass eine proportionale Vernderung (z.B. Verdoppelung) der Merkmalswerte keinerlei Auswirkung auf den Herfindahl-Index hat. Es gilt HD = HE = 0,31.
Vergleichen wir die Verteilungen Bund H, zeigt sich, dass das Hinzufgen einer Anzahl
von sehr kleinen Merlkmalstrgern kaum Einfluss auf den Wert des Herfindahl-Index hat.
Es gilt nmlich He = 0,200 und HH = 0,199.
Der Herfindahl-Index der Verteilung B mit He = 0,20 ist doppelt so hoch wie der der Verteilung G mit HG = 0,10. Es macht also einen Unterschied, ob sich die Merkmalssumme
von 2.000 gleichmig Ober 5 oder 10 Merkmalstrger verteilt. hnliches gilt auch fOr die
Verteilungen C (He = 0,2696) und F (HF = 0,1348).

3_ExponentlaUndex
Potenzieren wir alle AnteUswerte p, mit sich selbst und multiplizieren diese Potenzen miteinander, erhalten wir den ExponentIalIndex E als
(12: 81)

Eigenschaften des Exponenttallndex:

pi

Bei Auftreten von Anteilswerten Pi ; ; ; 0 ist

E kann wie der Herfindahl-Index Werte zwischen 1In und 1 annehmen.

;;;;;;

1.

Beispiel I 2-39

Exponentialindex

Fr die Verteilungen A, Bund C aus Beispiel I 2-37 erhalten wir folgende Werte IOr den
Exponentialindex:

EA = 0' 0' 0' 0' 1' = 1


E. = 0,20'20 0,20'20 0,20'20 0,20,,20 0,20,,20 = 0, 20
Ee = 0,06"" + O,Oa"oe + 0, 20,,20 + 0, 30,,30 + 0, 36,,36 = 0, 24
Wie beim Herfindahl-Index wird auch hier bei Verteilung A maximale Konzentration (E = 1)
und bei B minimale Konzentration (E = 0,20 = 1/5 = l/n) besttigt.

70

I Deskriptive Statistik

2.2.4.2

MaRzNen der relativen Konzentration

Das wohl wichtigste grafische Hilfsmittel zur Bestimmung von Konzentrationstendenzen ist die sog. Lorenz-Kurve. Zu ihrer Konstruktion werden n Punkte (UI , VI)
einer in Urlistenform vorliegenden Verteilung bestimmt, zusammen mit einer Diagonalen und einem Punkt (0; 0) in ein quadratisches Schaubild Cvgl. Abbildung I
16) eingezeichnet und miteinander verbunden. Der entstehende Streckenzug heit
Lorenz..Kurve der Konzentration.

VO

r-----------------------------------_o. ~D

v,
v,
~~---~------------------~~

U,

Uo

U,

u,

Abbildung I 16: Konstruktion der Larenz-Kurve


Die n Punkte (UI! VI) werden folgendermaen ermittelt:

Grundvoraussetzung zur Berechnung der genannten Punkte sind wieder eine


der Gre nach sortierte urliste xl:S x 2 S ... S x n und nichtnegative Xi. die eine positive Merkmalssumme MS garantieren.

Die y-Koordinaten VI Ci - 1, "', n) geben die relativen Anteile der Merkmalssumme MS an, den die i kleinsten Merkmalstrger auf sich vereinigen und
werden daher durch Summierung der Anteile PI der i kleinsten Merkmalstrger
an der Merkmalssumme bestinunt:

LXI
I
VI=~=LPI
MS

(12, 82)

J-1

Die x-Koordinaten u, Ci - 1, ... , n) entsprechen den relativen Anteilen der i


kleinsten Merkmalstrger an der Gesamtzahl n der Merkmalstrger:

2. Eindimensionale Hufigkeitsverteilungen

71

Hufig werden die Anteilsstze u, und v, in Prozent ausgedrckt. Die Lorenz-Kurve


verluft dann durch den Ursprung (0; 0) sowie die n Punkte (u, . 100 %; v, . 100 %).
Formal gesehen ist die Lorenz-Kurve eine auf dem Intervall [0; 11 definierte monoton wachsende, konvexe Funktion L(u,) von u" deren Werte die 45'-Diagonale
(Winkelhalbierende) nicht bersteigen. Ein Wert L(u,) . 100 = v, . 100 gibt an, welcher prozentuale Anteil an der Merkmalssumme auf u, . 100 Prozent der kleinsten
Merkmalstrger entfallt. Entsprechend gibt (1 - L(u,)) . 100 = (1 - v) . 100 an, welcher prozentuale Anteil der Merkmalssumme auf (1 - u,) . 100 Prozent der grten
Merkmalstrger entfallt.
Beispiel I 2-40

Lorenz-Kurve

Fr die Umsatzverteilungen A und B aus Beispiel I 2-37 ergeben sich die im Folgenden
dargestellten Koordinaten (u"v,) und die daraus resultierenden Lorenz-Kurven.
Verteilung A

1
2
3
4
5

X;

PI

u,

v,

0
0
0
0
2.000
2.000

0
0
0
0
2.000

1/5=0,20
2/5 = 0,40
3/5 = 0,60
4/5 = 0,80
5/5=1,00

0/2.000 =
0/2.000 =
0/2.000 =
0/2.000 =
2,000/2,000 =

0,00
0,00
0,00
0,00
1,00
1,00

MS = 2.000
n=5

Verteilung B

2
3
4
5

u,

Pi

X;

400
400
400
400
400
2.000

400
800
1.200
1.600
2.000

V,

400 / 2.000 =
800/2.000 =
1.200/2.000 =
1,600/2,000 =
2.000/2.000 =

1/5 = 0,20
2/5= 0,40
3/5= 0,60
4/5= 0,80
5/5=1,00
1,0

1,0

Verteilung A

Verteilung B

0,8

0,8

0,6

0,6

0,'

0,'

0,2

0,2

0,0
0,0

0,20
0,40
0,60
0,80
1,00
3,00

MS -2.000
n=5

0,2

0,'

0,6

0,8

1,0

0,0
0,0

0,2

0,'

0,6

0,8

1,0

72

I Deskriptive Statistik
Die Verteilungen A und B zeigen zwei Extremflle von Konzentration. In Verteilung A liegt
maximale Konzentration vor. Ein Merkmalstrger vereint die gesamte Merkmalssumme auf
sich. Die Lorenz-Kurve verluft bis zum Punkt ((n--I )/n, 0) auf der x-Achse und steigt dann
geradlinig zum Punkt (1; 1) an. Die Funktion ist uerst stark durchgebogen und die Rche zwischen der 45-Diagonale und der Lorenz-Kurve umfasst nahezu die gesamte
Quadrathlfte unterhalb der Diagonalen.
Verteilung B zeigt minimale Konzentration. Jeder Merkmalstrger weist den gleichen Anteil
an der Merkmalssumme auf. Es entfallen auf (iln) . 100 % der kleinsten Merkmalstrger
immer (Vn) . 100 % der Merkmalssumme. Die Lorenz-Kurve fllt mit der 45-Diagonale zusammen und die Flche zwischen Lorenz-Kurve und 45-Diagonale ist logischerweise Null.
Wir knnen daraus schlieen, dass je strker die Konzentration ist,

desto grer ist das FlchenstOck zwischen Diagonale und Lorenz-Kurve,

desto strker ist die Lorenz-Kurve "gebaucht" bzw. desto strker "hngt sie durch".

Betrachten wir auch Verteilung C, stellen wir fest, dass weder minimale noch maximale
Konzentration vorliegt. Die Lorenz-Kurve zeigt hier einen typischen in der Praxis beobachteten Verlauf. Wir wollen nun diese Verteilung nutzen, um die typische Interpretation der
Werte der Lorenz-Kurve zu veranschaulichen. Wir knnen nmlich hier z.B. sagen, dass
auf die U2 . 100 % = 40 % der umsatzschwchsten Unternehmen genau V2 . 100 % = 14 %
des Gesamtumsatzes entfllt. Die (1 - U2) 100 % = 60 % der umsatzstrksten Unternehmen realisieren (1 - V2) 100 % = 86 % des Marktumsatzes.
Verteilung C

1
2
3
4
5

x;

p;

U;

v;

120
160
400
600
720
2.000

120
280
680
1.280
2.000

1/5=0,20
2/5=0,40
3/5 = 0,60
4/5 = 0,80
5/5= 1,00

120/2.000 =
280/2.000 =
680/2.000 =
1.280/2.000 =
2.000/2.000 =

,,0,------------7/
0,8

86 %

0.6
0,4

14 %

0,0

~::::::::-=----_...L

0,0

0,2

40%

0,4

________.l
0,8

0.6

60%

1,0

0,06

0,14
0,34
0,64
1,00
2,18

MS = 2.000
n=5

2. Eindimensionale Hufigkeitsverteilungen

73

Kommt es beim Vergleich der Konzentration zweier Verteilungen anhand ihrer


Lorenz-Kurven zu sich schneidenden Lorenz-Kurven, so kann nicht immer anhand
reiner optischer Analyse ausgesagt werden, welche die strkere Konzentration aufweist. Hilfreich wre also eine aussagekrftige Kennzahl zur Quantifizierung
relativer Konzentration. Wie wir bereits in Beispiel I 2-37 festgestellt haben, ist mit
steigender Konzentration auch eine Zunahme der Flche zwischen 45'-Diagonale
und Lorenz-Kurve verbunden. Diese Flche, die auch als Konzentrationst1che F
bezeichnet wird, kme also theoretisch als Konzentrationsma in Frage. Wie sich
zeigen lsst, knnen wir die Konzentrationsflche ber
1

F=---

(12: 84)

mit

bestimmen? Dividieren wir die Konzentrationsflche F durch die Flche zwischen


der 45'-Diagonalen und der x-Achse (Dreiecksflche mit Flcheninhalt 0,5), so erhalten wir den sog. Gini-Koefflzienten als Ma der relativen Konzentration Zu
G

=...!..= 2F =1- 2V
0,5

(12: 85)

Wir wissen bereits, dass die Konzentrationsflche im Falle minimaler Konzentration


den Wert Null annimmt, da dann 45-Diagonale und Lorenz-Kurve genau aufeinanderfallen. Auch G nimmt im Falle minimaler Konzentration den Wert Null an, da
sich G schlielich direkt aus F ergibt. Bei maximaler Konzentration nimmt F aufgrund der Tatsache, dass die Summe der v, dann gleich 1 ist (vgl. Beispiel I 2-37),
den Wert (n-l)/2n und damit G den Wert (n-1)/n an. Wir knnen damit festhalten,
dass sich G im Intervall
0:S;G:s;n-1
n

(12: 86)

bewegt. Es zeigt sich also, dass selbst im Fall maximaler Konzentration anders als
z.B. beim Herfindahl-Index oder Exponentialindex das Ma G nicht den Wert 1
annimmt, was jedoch eine wnschenswerte Eigenschaft fr ein Konzentrationsma
ist. Da auerdem das Maximum des Gini-Koeffizienten von n abhngt, kann dies
bei Vergleichen von Datenstzen unterschiedlicher Gre problematisch sein. Zur
Korrektur dieser Schwchen des Gini-Koeffizienten wird der Koeffizient daher hufig mit dem Kehrwert von (n-l)/n multipliziert. Wir bezeichnen das dadurch entstehende relative Konzentrationsma auch als normierten Ginl-Koefflzlenten:
G

nonn

=~'G
n-1

(12: 87)

Goo~ weist damit im Falle maximaler Konzentration den Wert Eins auf. Es gilt also
insgesamt

(12: 88)

7 Eine detaillierte Herleitung dieser Pannel ber die Berechnung diverser Dreiecksflchen

unter der Lorenz-Kurve findet sich z.B. in Bleymller, J., Gehlen, G., Glicher, H. (2004),
Kapitel 26.

74

I Deskriptive Statistik

Es lsst sich G und damit ber (12: 87) zudem G"~ auch direkt durch die Daten der
Urliste ausdrcken. So gilt unter Verwendung der Merktnalswerte X,
n

G=

2~>.x, -(n+1)~>,

ntx

1_ 1

(12: 89)

1_ 1
i

und bei Verwendung der Anteilswerte p,

i~)Pi -(n+1)
G

(12: 90)

Zusammengefasst knnen wir fr F, G und Gnorm festhalten, dass alle drei Mae im
Falle minimaler Konzentration den Wert Null annehmen und hohe Konzentration
ntit hohen Werten der Mae einhergeht. Bei maximaler Konzentration ist die Konzentrationsflche fast 0,5 bzw. (n-1)/2n, der einfache Gini-Koeffizient (n-1)/n und
der nonnierte Gini-Koeffizient 1.
Beispiel I 2-41

Gini-Koeffizient aus Urliste

Fr die Verteilungen A, Bund C, deren Lorenz-Kurven wir in Beispiel I 2-40 skizziert


haben, ergeben sich die in folgender Tabelle dargestellten relativen Konzentrationsmae.
Wir knnen darin sehr schn erkennen, dass die Formel (12: 94) zur Bestimmung des normierten Gini-Koeffizienten aus dem einfachen Gini-Koeffizienten exakt funktioniert, da im
Falle der Verteilung A genau ein Wert von 1 (maximale Konzentration) resultiert.
Verteilung A

(V -

F
G

Gnorm

1,00 - 0,50 - 0,50)


.1._ 0,50 =0 40
2
5
'

Verteilung B
!V - 3,00 - 0,50 - 2,50)

.1._ 2,5=000
2

'

.1._ 1,68=016
2

0,00=000
0,50
'
5
0,00- =0,00
5-1

0,40 =0 80
0,50
'
5
0,80-=1,00
5-1

Verteilung C
!V - 2,18 - 0,50 - 1,68)

'

0,16=032
0,50
'
5
0,32-=0,40
5-1

Die bisher behandelten Formeln haben sich auf die Konstruktion der Lorenz-Kurve
und die Bestimmung des Gini-Koeffizienten aus der Urliste bezogen. Liegt nun
aber keine Urliste, sondern eine Hujigke/tstabel/e vor, so gilt fr die Ermittlung
der nun k Punkte CUp v) der Lorenz-Kurve zunchst
,

Vi

L P; =
;=,

:th(al ) a l
.'-1_.0..'- - -

MS

mit

MS = LhCa;) a;

(12: 91)

j=l

Die v, werden also mit den auf die einzelnen Ausprgungen entfallenden Merkmalssummen h(a~ . al gebildet. Die u, erhalten wir durch Sumntierung der relativen
Hufigkeiten f(a~ der relevanten Merktnalsausprgungen:

75

2. Eindimensionale Hufigkeitsverteilungen

(12: 92)
Unter Verwendung dieser Werte erhalten wir die Konzentrationsflche F zu
1

1=1

F = - - - ~)(a) . (Vi

+ Vi_I)

(12: 93)

und dantit den Gini-Koeffizienten


k

G=l- ~)(a).(vi
i_I

+ Vi_I)

(12: 94)

Formel (12: 94) ist natrlich auch auf die Urliste anwendbar, wenn wir die relativen
Hufigkeiten durch 11n ersetzen und die v, nach (12: 82) bestinunen.
Zur Berechnung von G aus einer Hufigkeitstabelle empfiehlt sich die Verwendung
der Arbeitstabelle aus Abbildung I 17. Den normierten Gini-Koeffizienten erhalten
wir durch Einsetzen von (12: 94) in (12: 87).

a,

h(a)

fCa)

h(a,) ai

MS

Lh(a,).a,

,-,

u,

v,

VI

+ V 1_ 1

f(a i ) (Vi + Vi_I)

1:

Abbildung I 17: Arbeitstabelle zur Berechnung des Gini-Koeffizienten


Beispiel I 2-42

Gini-Koeffizient aus Hufigkeitstabelle

Eine statistische Untersuchung ergab, dass sich in einem Land 61 Firmen einen 300 Mio.
Euro Markt fr Schweinehlften wie folgt teilen:
Umsatz in Mio. Euro
ai
1
2
3

Anzahl der Firmen


h{a~

40
10

5
5

200
300

61

Berechnen wir nun daraus den normierten Gini-Koeffizienten und versuchen, darauf basierend, Aussagen ber die Konzentration auf diesem Markt zu machen:

76

I Deskriptive Statistik

,
a;
1
2
3
4
5

1
2
3
5
200

h{a;)

I{a;)

40
10
5
5
1
61

0,66
0,16
0,08
0,08
0,02
1,00

h{a,)' a,

Lh{al)al

u;

v;

40
60
75
100
300

0,66
0,82
0,90
0,98
1,00

0,13
0,20
0,25
0,33
1,00

1_'

40
20
15
25
200
300

Vi

+ Vi-1

!(a;) (v; + V;-1)

0,13
0,33
0,45
0,58
1,33

0,09
0,05
0,04
0,05
0,03
0,26

Es ergibt sich daraus


k

G = 1- LI{a,) . (v, +v,_,) = 1-0,26 = 0,74

,-,

norm

n
61
=-G=--074=075
n-1
61-1'
I

Die Konzentration auf diesem Markt kann also als sehr stark angesehen werden, was nicht
verwunderlich ist, da ein Unternehmen 2/3 des Umsatzes auf sich vereint.

Bei Vorliegen klassierter Daten sind fr die Konstruktion der Lorenz-Kurve


folgende Besonderheiten zu beachten:
Fall 1: Sind fr jede der k Klassen die Klassenhufigkeiten hl und die auf die Klas-

sen entfallenden Merkmalssummen

bekannt, so gehen wir wie soeben beschrie-

ben vor, d.h. wir verwenden die Klassenmerkmalssummen in (12: 91). Sind die
arithmetischen Mittel der Klassen gegeben, so ist entsprechend m l = h l . x fr die
J
jeweilige Merkmalssumme der Klasse j Zu verwenden. Die Berechnung der u, erfolgt unter Verwendung der h, bzw. f, analog Zu (12: 92).
Fall 2: Liegen nur Klassenhufigkeiten und -grenzen vor, behelfen wir uns damit,

fr das arithmetische Mittel der Klassen die jeweiligen Klassenmitten


heranzuziehen.

(a~

+ a~) / 2

Die Berechnung des Gini-Koeffizienten kann im Falle klassierter Daten analog zu

(12: 94) unter Verwendung relativer Klassenhufigkeiten


aus Abbildung I 17 durchgefhrt werden.
Beispiel I 2-43

f, und der Arbeitstabelle

Gini-Koeffizient aus klassierter Huligkeitstabelle

Betrachten wir lolgende liktive Einkommensverteilung. Die lr 7,6 Mio. Brger erhobenen
Einkommen sind in 4 Einkommensklassen eingeteilt. Fr jede der Klassen liegen die Anzahl hl (in Mio.) und der Anteil II der Brger vor, die in diese Klasse lallen. Auerdem kennen wir die Einkommenssumme mj (in Mrd. Euro), die den Brgern einer Klasse zulliet,
sowie den Anteil pj dieser Summe am Gesamteinkommen aller 7,6 Mio. Brger.
Einkommensklasse

ber a~ bis af
1
2
3
4
E

5.000
9.000
13.000

5.000
9.000
13.000
35.000

Einkommensbezieher
hl
2,0
2,0
1,8
1,8
7,6

II
0,26
0,26
0,24
0,24
1,00

Einkommen pro Klasse


ml
5
11
11

25
52

PI
0,10
0,21
0,21
0,48
1,00

77

2. Eindimensionale Hufigkeitsverteilungen

Hier erleichtert sich die Berechnung der Werte u, und v, erheblich, da die zur Kumulation
bentigten Daten fj und pj bereits vorliegen. Durch eine Kontrollrechnung wie P1 = m, / MS
= 5 / 52 = 0,10 erkennen wir jedoch, dass sich dahinter genau die geschilderte Vorgehensweise (Fall 1) verbirgt.
Zur Berechnung des Gini-Koeffizienten stellen wir die folgende Arbeitstabelle auf:

1
2
3
4

f,

p,

u,

v,

V 1+VI_1

f,,(v,+vl-1)

0,26
0,26
0,24
0,24
1,00

0,10
0,21
0,21
0,48
1,00

0,26
0,52
0,76
1,00

0,10
0,31
0,52
1,00

0,10
0,41
0,83
1,52

0,03
0,11
0,20
0,36
0,70

Daraus ergibt sich ein Gini-Koeffizient von G = 1 - 0,70


0,30. Es liegt also eine
relativ schwach ausgeprgte Konzentration vor. Eine Normierung des Gini-Koeffizienten ist
hier nicht erforderlich, da der Normierungsfaktor aufgrund des hohen Wertes fijr n
(7.600.000) ziemlich genau bei 1 liegt.

Wir haben bisher gesehen, dass wir relative Konzentrationsmae fr komparative


Konzentrationsuntersuchungen verschiedener Verteilungen einsetzen knnen.

Kritisch ist in diesem Zusammenhang jedoch anzumerken, dass der Lorenz-Kurve


und dem Gini-Koeffizienten gewisse Grenzen gesetzt sind. Die Anstze fhren zu
eindeutigen Ergebnissen, wenn fr zwei Verteilungen A und B die Lorenzkurve der
Verteilung A stets unterhalb der von B liegt. Es gilt dann offensichtlich GA > GD' Bei
sich schneidenden Kurven knnen nun jedoch Kompensationseffekte auftreten, so
dass GA = GD gilt. Die Ergebnisse sind in einem solchen Fall schwer interpretierbar,
wie das folgende Beispiel verdeutlicht. Eine Konzentrationsmessung sollte daher
nicht allein durch den Gini-Koeffizienten erfolgen, sondern durch die Lorenz-Kurve
untersttzt werden.
Beispiel I 2-44

Grenzen des Gini-Koeffizienten

Zwei Mrkte A und B werden durch 10 Unternehmen beliefert. Auf Markt A besitzen 9 Unternehmen einen 50/9 % Marktanteil. Der Marktanteil des 10. Unternehmens betrgt 50 %.
Auf Markt B weisen 5 Unternehmen jeweils einen 2 % und 5 Unternehmen jeweils einen
18 % Marktanteil auf. Die nachfolgende Grafik zeigt, die zugehrigen Lorenzkurven.

"0,------------....,,
,.
,:/.
0,8
,, ./
0,6

,,

,:

/
/

,'.", ..... A

0,4
/

0,2

.....

",''1
,,

"

'
B
0,0 .....:.--::.--------------'
/

". "': __ -- .. ----

0,0

0,2

0,4

0,6

0,8

1,0

78

I Deskriptive Statistik
Rein optisch erkennen wir sofort, dass die Konzentrationsflchen FA und Fe identisch sind.
Wir knnen zudem leicht berechnen, dass GA = Ge = 0,4 gilt. Obwohl also auf Markt A die
deutlich strkere Konzentration vorliegt, wOrden wir durch einen Vergleich der GiniKoeffizienten zu dem Schluss gleicher Konzentration kommen. Die Gini-Koeffizienten allein
reichen also zum Vergleich nicht aus.

Beschlieen wollen wir diesen Abschnitt mit einer kurzen Diskussion der unterschiedlichen Reaktion absoluter und relativer Konzentrationsmae auf nderungen
der zugrunde liegenden Verteilungen:
Fr die Verteilungen E und D aus Beispiel I 2-37 ergibt sich derselbe Wert fr den
normierten Gini-Koeffizienten. Dieser ist somit wie auch der Herfmdahl-Index invariant gegenber einer proportionalen Vernderung des auf die einzelnen Merkmalstrger entfallenden Merkmalsbetrages.
Beim Vergleich der Hetfindahl-Indizes der Verteilung Bund G ergab sich HB = 0,20
und HG = 0,10, d.h. ein doppelt so hoher Indexwert (vgl. Beispiel I 2-38). Es macht
also einen Unterschied, ob sich die Merkmalssumme von 2.000 gleichmig ber 5
oder 10 Merkmalstrger verteilt. Vergleichen wir die normierten Gini-Koeffizienten
beider Verteilungen, so erhalten wir in beiden Fllen den Wert Null.
Ein Vergleich von Verteilung Bund H hatte beim Hetfindahl-Index nahezu denselben Wert ergeben. Der normierte Gini-Koeffizient reagiert jedoch auerordentlich empfindlich auf die Hinzufgung von fnf Firmen mit ganz geringem Anteil
am gesamten Merkmalsbetrag. Whrend sich fr die Verteilung B ein Wert von
G_ = ergab, erhalten wir fr Verteilung H den Wert G_ = 0,55. Diese Eigenschaft des normierten Gini-Koeffizienten ist jedoch nicht als Schnheitsfehler anzu-

sehen. Sie zeigt auf, dass in der praktischen Anwendung der Untersuchungszweck
ber die Wahl absoluter oder relativer Konzentrationsmae entscheiden sollte:

Wird die Stellung von Unternehmen auf einem Markt analysiert, so wird der Markteintritt umsatzschwacher Unternehmen den normierten Gini-Koeffizienten stark er-

hhen, wohingegen der Hetfindahl-Index nahezu unverndert bleibt. Ist also die
Analyse von Wettbewerbsprozessen Untersuchungsgegenstand, so ist die Verwendung absoluter Konzentrat/onsmae zu empfehlen. Die Marktmacht der etablierten
Unternehmen wird durch die Markteinritte umsatzschwacher Unternehmen trotz in-

tensiveren Wettbewerbs zunchst nicht empfindlich beeintrchtigt werden. Deshalb


ist ein Konzentrationsma whlen, das sich kaum verndert. Ein relatives Konzentrationsma wie der Gini-Koeffizient wrde hingegen in einer solchen Situation
stark ansteigen und eine zunehmende Konzentration und damit schwcheren Wettbewerb anzeigen.
Bei der Darstellung von E/nkommensvene/lungen ist die letztgenannte Eigenschaft
relativer Konzentrationsmae eventuell problematisch. Die dabei verwendeten Daten werden blicherweise der Einkommensteuerstatistik entnommen. Wird der
Mindestbetrag angehoben, ab dem die Steuerpflicht besteht, fallen am unteren
Ende der Verteilung ein Teil der bisher Einkommensteuerpflichtigen heraus, d.h.
sie werden bei der Untersuchung nicht bercksichtigt. Damit verschiebt sich die
Lorenz-Kurve nach links, obwohl sich an der Verteilung der Einkommen nichts gendert hat. Vor allem bei internationalen Vergleichen ist daher grte Vorsicht geboten. Hhere oder niedrigere Konzentration der Einkommen hngt vielfach vornehmlich davon ab, welche Untergrenze in den einzelnen Lndern besteht. Da auf-

2. Eindimensionale Hufigkeitsverteilungen

79

grund der Grenunterschiede zwischen den Lndern und aus inhaltlichen Erw-

gungen hier relative Konzentrat/onsmae zu empfehlen sind, ist nun der Gebrauch
der Lorenz-Kurve und des nonnierten Gini-Koeffizienten nicht von vornherein ab-

zulehnen. Vielmehr ist bei der Interpretation der Ergebnisse auf solche Probleme
zu achten.

Zweidimensionale
Hufigkeitsverteilungen

Im vorhergehenden Abschnitt haben wir gesehen, dass durch die Erfassung nur eines
Merkmals von einer Grundgesamtheit von Merkmalstrgem eindimensionale Hufigkeits-

verteilungen entstehen, die sich durch eine Reihe von Kennzahlen charakterisieren lassen. Werden mehrere Merkmale erfasst, entstehen mehrdimensionale Hufigkeitsverteilungen. Auch diese knnen durch gewisse Mazahlen komprimiert dargestellt werden.
Diese Mazahlen und Grundlagen derartiger Verteilungen sind Thema dieses Abschnitts.

3.1 Grundlagen
In vielen statistischen Untersuchungen werden bei statistischen Einheiten gleich-

zeitig mehrere Merkmale erfasst. So kann etwa bei einer personenbezogenen Erhebung sowohl Einkommen, Geschlecht, Alter, Bildung, Berufserfahrung, u.. aufgezeichnet werden. hnliche Beispiele finden sich auch bei der Analyse von Unternehmen (Umsatz, Gewinn, Investitionen, Beschftigtenzahl, ... ), der Ertragsfhigkeit landwirtschaftlicher Nutzungsflchen (Ertrag je Hektar, Dngemitteleinsatz, .. .)
oder dem Bremsverhalten von Fahrzeugen (Geschwindigkeit, Bremsweg, ... ). Fr
jeden der n Merkmalstrger wird also ein m-Tupel von Merkmalswerten betrachtet.
Die Drliste muss daher n m Einzeldaten enthalten.
Bei solchem Datenmaterial ist hufig von Interesse, ob es Zusammenhnge zwischen den auftretenden Merkmalen gibt und wie stark diese sind. Wir stellen uns
also die Frage, ob es eine wechselseitige Abhngigkeit zwischen den Merkmalen
gibt. Auf die Beantwortung solcher Fragestellungen werden wir im Abschnitt I 3.2
CKorrelationsanalyse) nher eingehen. Im Folgenden mssen aber zunchst grundlegende Begriffe wie Kontingenztabelle, Randhufigkeit, bedingte Hufigkeit und
Streuungsdiagramm geklrt. werden. Wir beschrnken uns dabei auf zweidimensionales Datenmaterial (m - 2).

3.1.1

Kontlnganztaballa

Werden bei n statistischen Einheiten die Merkmale X und Y mit den Ausprgungen
~,Xz, ... ,x" und Y1'Y1' ... 'Yn erhoben, so erhalten wir fr die i-te statistische Einheit ~
einen Merkmalswert ~ der Variablen X und einen Merkmalswert Yj der Variablen Y.
Zur i-ten statistischen Einheit gehrt somit ein Wertepaar (:x;, y). Die Ur&te besteht daher aus allen n zweidimensionalen Wertepaaren (:x;, y) fr i - 1,2, ... ,n.
Aus Grnden der bersichtlichkeit kann die DrUste allgemein in zwei Formen dargestellt werden. Erstens kann ein sog. St:reud:iagramm erstellt werden, in welchem
alle n Wertepaare Cx" y) als Punkte in ein Koordinatensystem eingetragen werden
(vgL Abbildung I 18). Diese Vorgehensweise empfiehlt sich allerdings nur, wenn
sich alle oder fast alle Wertepaare voneinander unterscheiden.
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_3, Springer Fachmedien Wiesbaden 2015

82

I Deskriptive Statistik

y! ------ --- -- --- ----- ----~ ----- -----.

P(X"y,)

x
Abbildung I 18: Streudiagramm
Zweitens kann eine sog. Kontl:ngenztabelle aufgestellt werden, wobei es sich um
eine tabellarische Darstellung der Hufigkeitsverteilung handelt. Sie sollte herangezogen werden, wenn viele Wertepaare identisch sind. Da sie auerdem Grundlage
fr weitere Analysen des erhobenen Datenmaterials ist, wollen wir uns im Folgenden nher mit ihr beschftigen. Da es sich bei einer Kontingenztabelle um eine
Hufigkeitstabelle handelt, bezeichnen wir in dieser die verschiedenen Ausprgungen des Merkmals X mit a. Ci - 1,2, ... ,k) und jene des Merkmals Y mit bJ
Ci - 1,2, ... ,r). Zur Erstellung der Kontingenztabelle ist auszuzhlen, bei wie vielen
Beobachtungswerten der Drliste die Ausprgungskombination (a,. b) auftritt. Der
resultierende Zahlenwert wird als gemdnsam.c absolute Hliuflgkdt h(a" b) oder
h.(a" b) der Kombination (a,. b) bezeichnet, die wir im Folgenden zumeist mit ~
abkOtzen. Fr diese gilt wie bei eindimensionalen Huflgkeitsverteilungen. dass sie
zwischen Null und n liegen und ihre Summe n ergeben muss:
OSh~

Sn

Die gemdnsame relative HIu6gkdt fCa., b) oder f.,(a., b) bzw. abgekrzt f~ ist
der Anteil der Beobachtungswerte in der UrUste, bei denen die Kombination (a,. b)
auftritt. Die Regeln eindimensionaler Verteilungen, also im Detail U2: 3), (12: 4) und
02: 5), knnen daher analog bertragen werden:
h
f~ =----'l
n

03,2)

Die tabellarische Darstellung dieser k . r Huftgkeiten (absolut oder relativ) mittels


Abbildung I 19 nennt man Kontl:ngenztabelle oder Kreuztabelle. Die Menge aller
Tripel (apbJ,ty bzw. (a.,1~i!:::rei - 1, ... ,k und j - 1, ... ,r bildet die sog. zweidimensionale absolute bzw.
Hilufigke.J'Siuh JblOl von X und Y. Gelegentlich
wird auf dreidimensionale Stabdiagramme zur grafischen Darstellung zweidimensionaler Hufigkeitsverteilungen zurckgegriffen (vgl. Beispiel I 3-1). Im Falle klassierter zweidimensionaler Hufigkeitsverteilungen kommen dabei auch dreidimensionale Histogramme zum Einsatz, deren Praxisrelevanz jedoch eher gering ist.

3. Zweidimensionale Hufigkeilsverteilungen

~n
von Y

83

b,

b,

b,

a,

hu

h"

h"

a,

h"

h"

h"

a"

h",

h.,

Ausprgungen
von X

Abbildung I 19: Kontingenztabelle


Im Falle ordinal- oder metrisch skalierter Daten ist auerdem die Definition der ab-

soluten kumulIerten gemeinsamen Hufigkeit


H(x,y)=H(X:S;x,Y:S;y)=

L L h(ai,b

03: 3)

j)

llj:!!OIbj:!i:y

(kurz H,) sinnvoll, fr welche


O:S;H(x,y):S;n

und

03: 4)

H(X:S;ak,Y:S;b,)=n

gilt. Sie gibt die Anzahl der Merkmalstrger an, die bei Merkmal X hchstens die
Ausprgung x und gleichzeitig bei Merkmal Y hchstens die Ausprgung y aufweisen (zur ungewhnlichen Summenschreibweise vgl. Abschnitt I 2.1.2).
Analog ergibt sich die relative kumulIerte gemeinsame Hufigkeit F(x, y) (kurz
F~. Sie gibt den Anteilssatz der Merkmalstrger an, deren Merkmale X und Y beliebig vorgegebene Zahlenpaare (x, y) nicht bersteigen:
F(x,y)= F(X:S;x,Y:S;y)=

03: 5)

Lf(ai,b j )

:lf:!>IbJ:S:y

Wir sprechen bei F(x, y) auch von der gemeinsamen empirischen Verteilungsfunktion der Merkmale X und Y. Sie nimmt stets Werte im Intervall [0; 1] an.
Beispiel I 3-1

Konlingenzlabelle

Von 80 Studienanfngern wurden die Abiturnoten in den Fchern Mathematik (X) und Englisch (Y) erfasst. Aus der Erhebung ergab sich die folgende bereits geordnete Urliste:
(1;1), (1;1), (1;1), (1;1), (1;2), (1;2), (1;3), (1;3), (1;3)
(2;1), (2;1), (2;1), (2;2), (2;2), (2;2), (2;2), (2;2), (2;3), (2;3), (2;3), (2;3), (2;3), (2;3), (2;3),
(2;3), (2;4), (2;4), (2;5), (2;5)
(3;1), (3;1), (3;2), (3;2), (3;2), (3;2), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3),
(3;3), (3;3), (3;3), (3;3), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;5),
(3;5), (3;5)
(4;1), (4;1), (4;2), (4;2), (4;2), (4;3), (4;3), (4;3), (4;4), (4;4), (4;4), (4;4), (4;4), (4;5)
(5;3), (5;3), (5;4), (5;5), (5;5)

84

I Deskriptive Statistik
Eine Aufbereitung dieser Urliste liefert die folgende Kontingenztabelle:

Mathematiknote

2
3
4

1
4
3
2
2

2
2
5
4

Englischnote Y
4
3
3
8
2
13
10

3
2

5
2
3

5
2

Die Anzahl der Studenten, die sich z.B. sowohl mit einer Eins in Mathematik als auch in
Englisch auszeichneten, lag somit bei 4.
Da hier Wertepaare hufiger auftreten, ist ein Streudiagramm nicht zur Visualisierung der
Hufigkeitsverteilung geeignet. Ein dreidimensionales Stabdiagramm (komfortabel erzeugbar mit dem Befehl "stem3" in der Software Matlab 2009a) ergbe im vorliegenden Fall folgende Gestalt:

4
5

Interessieren wir uns dafOr, wie viele Studenten im Fach Mathematik nicht schlechter als
Drei und in Englisch nicht schlechter als Zwei waren, knnen wir diese Hufigkeit aus einer
Tabelle ablesen, die die absoluten gemeinsamen Hufigkeiten kumuliert:

Mathematiknote
X

2
3
4
5

4
7
9
11
11

Englischnote Y
3
9
25
20
44
25
52
25
54
2
6
14

4
9
27
56
69
72

5
9
29
61
75
80

Als Summe der Hufigkeiten im grau schattierten Bereich der Kontingenztabelle erhalten
wir die kumulierte gemeinsame Hufigkeit 20, d.h. genau 20 Studenten sind in Mathematik
nicht schlechter als Drei und gleichzeitig in Englisch nicht schlechter als Zwei. Obige
Tabelle zeigt auerdem auf, dass H{s., b,) = n = 80 gilt. Dividieren wir die Werte der Tabelle durch 80, erhalten wir die relativen Hufigkeiten der gemeinsamen empirischen Verteilungsfunktion.

85

3. Zweidimensionale Hufigkeitsverteilungen

3.1.2

Randhuligkeilen und -verteilungen

Die Bestimmung sog. lIa.ndhAu:6gkeitcn in einer Kontingenztabelle erfolgt duoch lFll


Bildung der Zeilen- und Spaltensummen der gemeinsamen Hufigkeiten. Durch ~
dieses Summieren der gemeinsamen Huflgkeiten wird jeweils ein Merkmal neliminiert", sodass innerhalb der zweidimensionalen Hufigkeitsverteilung die eindimensionalen Huftgkeitsverteilungen von X bzw. Y mit abgebildet werden.
Im Folgenden bezeichnen wir die Anzahl derjenigen Merkmalstrger, die bzgl. des
Merkmals X die Ausprgung a. aufweisen (gleichgltig welches die jeweilige Ausprgung des Merkmals Y isO, mit h(a) und entsprechend die Anzahl derjeniger
Merkmalstrger, die bzgl. des Merkmals Y die Ausprgung bJ aufweisen, mit h(b~.
Fr diese absoluten Randhuftgkeiten (relative Randhuftgkeiten analog) gilt damit
fonnal

h(a,) =

i>"

fr i = 1,2, ... ,k

,"'

und

h(b,) = ~>. fr j = 1,2, ... ,r.


,~

Die Zeilensummen (hufig auch bezeichnet mit hJa) oder h i .) liefern also die
Huflgkeiten der eindimensionalen Verteilung des Merkmals X und die Spaltensummen (huflg auch bezeichnet mit h,(b~ oder h. J ) die Huflgkeiten der eindimensionalen Verteilung des Merkmals Y. Diese bilden zusammen mit den jeweiligen Merkmalsausprngungen die sog. RandietlelbJOgcn von X und Y und sind in
Abbildung I 20 dargestellt. Da sie eindimensionale Verteilungen sind, knnen auf
sie die bereits behandelten Auswertungsmglichkeiten angewendet werden.
y

a,
a,
X

..
a,

Spaltensununen
(Randverteilung Y)

h"
h.

...
...
...

h,

h"

...

h"
h(b,)

h.

... h" ... h.


... h(b? ... h(b)

b,

b,

h"
h"

h(b,)

Zeilensummen
(Randverteilung X)

h"
h,

...
...
...

h"
h.

h(a l )

h,

.. .

h"

h(a,)

b,

h(a,)

h(a,)
n

Abbildung I 20: Kontingenztabel1e mit Randhufigkeiten


Die relativen Randhufigkeiten ffa) und

~)=~)
n

f(b~

bestimmen wir wie bisher ber

~)=~)
n

~m

I Deskriptive Statistik

B6

Eine wichtige Eigenschaft der absoluten Randhufigkeiten ist aus Abbildung I 20


abzulesen. So ist die Summe der Zeilensununen stets gleich der Swnm.e der Spaltensummen. Dies gilt auch fr die relativen Randhufigkeiten.

Beispiel I 3-2

Konllngenzlaballe und Randvertellungen

Fur die Kontingenztabelle der Schulnoten aus Beispiel I 3-1 ergibt sich:
Englischnote Y

Mathematikn018
X

h(bU

1
2
3
4
5

1
4
3
2
2

2
2
5
4
3

11

3
3
8
13
3
2
29

14

2
10
5
1
18

2
3
1
2
8

h(al)

9
20
32
14

5
80

Daraus lassen sich nun die eindimensionalen HAufigkeitsverteilungen der Englisch- und

MBlhematiknoten ableiten, fUr die wieder die bekannten Kennzahlen berechenbar sind:
Englischnote
HAufigkon h(bJ

3_1_3

,.
2

11

MathemaUknote

HAufigkeit h(BI)

20

29

18

3
32

4
14

5
5

Bedingte Huligkeiten und Verteilungen

Bei der Untersuchung des Zusanunenhangs zweier Merkmale X und Y spielen die
sog. bedJngten Hi'...ftgkeJten eine besondere Rolle. Sie geben an, mit welcher
relativen Huftgkeit eine Ausprgung eines Merkmals auftritt, wenn (unter der Bedingung, dass) das andere Merkmal auf einem bestimmten Wert festgehalten wird.
Die relative Hufigkeit der Ausprgung aj des Merkmals X unter der Bedingung.
dass das zweite Merkmal Y die konstante Ausprgung b j besitzt, bezeichnen wir im
Folgenden mit f,.(a, I b j ) fr i - 1.2 ..... k. Anders ausgedrUckt. betrachten wir also
die relative HufIgkeit. mit der die Ausprgung a,. bei denjenigen Merkmalstrgem
auftritt, die bzgl. des Merkmals Y die Ausprgung bJ aufweisen. Analog verwenden
wir f,.(b j I a,) fr j - 1.2 ... ,r. Diese bedingten Hufigkeiten knnen leicht aus einer
vorliegenden Kontingenztabelle errechnet werden. Sie entstehen durch Division
der gemeinsamen Hufigkeiten durch die entsprechenden Zeilen- oder Spalten-

3. Zweidimensionale Hufigkeitsverteilungen

87

summenhufigkeiten (Randhufigkeiten der Bedingungen). Es spielt dabei keine


Rolle, ob absolute oder relative Hufigkeiten zur Berechnung der bedingten Hufigkeiten herangezogen werden.

hij
-

h.

Va, I b j ) =

h(~I) = h(~j) = f(~I)

(13: 10)

h
h 'l

'l

f
f(b l a ) - - - - - - -'ly I I - h(a) - h(a) - f(a)
~

(13: 11)

Wie im unbedingten Fall, sind die bedingten relativen Hufigkeiten auf Eins normiert, d.h. es gilt
k

(13: 12)

LVa, I b j ) = Lfy(b j I a,) = 1.


1=1

j=l

Beispiel I 3-3

Bedingte Hufigkeiten

Eine Befragung von 1.000 berufsttigen Personen (Freiberufler, Angestellte, Beamte, ... )
ergab unter anderem, dass 250 Freiberufler nie beim Einzelhndler A einkaufen. Insgesamt meiden 500 der Befragten den besagten Einzelhndler. Die Anzahl der befragten
Freiberufler lag bei 400.
Wir erhalten aus diesen Angaben folgende (unvollstndige) Kontingenztabelle:
Einkaufsverhalten
Berufsgruppe
Freiberufler (= a,)

...

Randhufigkeiten

Nie bei Einzelhndler A


(= b,)
hl1 = 250

...

h{b,) = 500

...

Randhufigkeiten

...

h{a,) = 400

...

n = 1.000

...

...

In diesem Beispiel lsst sich berechnen, dass die relative Hufigkeit der Freiberufler unter
den Personen, die niemals beim Einzelhndler A einkaufen, bei 50 % liegt:

f,(Freiberuflerl Niemals Kauf bei Einzelhndler A) = f,(a,1 b,) =

h~~:) = ~~~ = 0,50

Die relative Hufigkeit der Personen, die nie beim Einzelhndler A einkaufen, liegt unter
den Freiberuflern bei 62,50 %:
f,(Niemals Kauf bei Einzelhndler AI Freiberufler) = f,{b,Ia,) =

h~~) = :~~ = 0,625

Aus (13: 10) und (13: 11) lassen sich sog. bedingte Verteilungen ableiten. Die bedingte Verteilung des Merkmals X bei gegebener Ausprgung b l des Merkmals Y
ergibt sich dabei aus den Ausprgungen al,a2""'~ und den zugehrigen bedingten
Hufigkeiten f.(a, I b j ), f.(a, I b j ), ... , f.(a k I b j). Es existieren also insgesamt r

88

I Deskriptive Statistik

Ci = 1 ... r) bedingte Verteilungen von X. Die bedingte Verteilung des Merkmals Y


bei gegebener Ausprgung a, des Merkmals X ergibt sich analog aus b"b" ... ,b, mit
fyCb, I a), t;, Cb, Ia), ... , t;, Cb, Ia,), sodass insgesamt k Ci = 1 ... k) bedingte Verteilungen von Y aufstellbar sind.
Beispiel I 3-4

Bedingte Verteilungen

Zum bekannten Schulnotenbeispiel I 3-2 wollen wir nun die bedingte Verteilung der
Mathematiknoten fijr die gegebene Englischnote 2 aufstellen. Dazu bentigen wir folgende
(grau schattierte) Daten:
Englischnote Y

4
3
2
2

2
2
5
4
3

11

14

1
Mathematiknote
X
h(b~

2
3
4
5

3
3
8
13
3
2
29

2
3
1
2
8

10
5
1
18

h(a,)

20
32
14
5

80

Die gesuchte bedingte Verteilung erhalten wir daraus durch Division der gemeinsamen
Hufigkeiten durch die zugehrige Spaltensumme. Dies erklrt auch, warum die bedingten
Hufigkeiten in der Summe Eins ergeben miissen.

a,
2
3
4
5
1:

f (a; I Y = 2) =

hi2

2/14
5/14
4/14
3/14
0/14

2
5
4
3
14

h2
'
h(Y=2)

= 0,14
= 0,36
= 0,29
= 0,21
= 0,00
1,00

Wie die Randverteilungen sind auch die bedingten Verteilungen eindimensionale


Hufigkeitsverteilungen, sodass wir hier ebenfalls die in Kapitel I 1 vorgestellten
Mazahlen zur verdichteten Beschreibung verwenden knnen. Wir bezeichnen sie
in diesem Kontext als bedingte Mazahlen. Ihre Berechnung erfolgt unter
Nutzung der bedingten relativen Hufigkeiten.
Liegen zwei Merkmale X und Y mit den Realisationsmglichkeiten a, Ci = 1,2, ... ,k)
bzw. b, Ci = 1,2, ... ,r) sowie die zugehrigen bedingten Hufigkeiten fCa, Ib~ fr
i = 1,2, ... ,k bzw. f(hjla) fr j = 1,2, ... ,r vor, dann ist z.B. der bedingte Mittelwert
von X gegeben Y = b j gleich
k

xlb j =La, f.Ca, Ib j )


1=1

03: 13)

3. Zweidimensionale HAufigkeitsveneilungen

89

und der bedingte Mittelwert von Y gegeben X - a, gleich

,-,

YIa, = tb, f,Cb, la,l .


Die bedingte Varianz von X gegeben Y - bJ ist

s! Ib j =La~ !,..Ca j Ibj)-Cxlb/

,-,

und die bedingte Varianz von Y gegeben X - a

s~ Iaj = ~>:
,., f,.Cbj Iaj)-Cy I~Y .
In entsprechender Weise knnen bedingte Mediane, bedingte Modi und andere

bedingte Mazahlen definiert werden.

Beispiel I 3-5

Bedingte Mazahlen

Bestimmen wir tOr die in Beispiel I 3-4 aufgestellte bedingte Veneilung der Schulnoten
bzw. die HAungkeltsvenellung der Mathematlknoten unter den Studenten mit der EnglIschnote 2 den bedingten Mittelwen und die bedingte Varianz. Wir erhalten
x I (Y = 2) = 10, 14+20,36+ ... +50,00 = 2,57,
d.h. der Mathematiknotendurchschnitt unter den Studenten mit der Englischnote 2 liegt bei
2,57 bei einer Varianz von

s: I(Y = 2) =1

3.1.4

O,14+~ .0,36+ ... +52 O,OO-2,5~ =0,95.

Statistische Unabhngigkeit

Von statistischer Unabhngigkeit sprechen wir, wenn sich zwei Merkmale X und Y If1
einer Hufigkeitsverteilung nicht beeinflussen, d.h. das Eintreten der verschiedenen ~
Merkmalsausprgungen beim einen Merkmal unabhngig davon ist, welchen Wert
das andere Merkmal annimmt. Ob Abhngigkeit oder Unabhngigkeit vorliegt,
kann anhand der bedingten Verteilungen geprft werden. Statlstfsch.c UmtbhnaJgkcJt liegt vor, wenn die bedingten Verteilungen von X alle identisch sind und mit
der jeweiligen Randverteilung bereinstimmen. Analoges muss fr Y gelten.
!,..Caj Ib1 )=f",Ca,lb2 )==!,..Ca j Ibr) =
bodIngIe VCltdl_

f,.Cb j la1 )=fyCb j la1)==fyCb j lai') =


bodIngte VCltdl_

fCa l )

fr

i=l, ... ,k

03: 17)

fr

j=l, ... ,r

03: 18)

Iand~

fCb j )

IandYClte!lun!!

Bedingungen bezglich Y haben also keinen Einfluss auf die Verteilung von X und
Bedingungen bezglich X auch keinen Einfluss auf die Verteilung von Y. X und Y
sind statistisch unabhngig.

90

I Deskriptive Statistik

Beispiel I 3-6

Statistische Unabhngigkeit

Gegeben sei folgende zweidimensionale Verteilung der Merkmale X (Ausprgungen a,)


und Y (Ausprgungen bJ), die in Form absoluter und relativer Hufigkeiten vorliegt:

a,

a.
a,
h(bJ)

b,

b2

b,

h(a,)

2
6
4
12

5
15
10
30

3
9
6
18

10
30
20
60

a,

a.
a,
f(bJ)

b,

b2

b,

f(a,)

0,03
0,10
0,07
0,20

0,08
0,25
0,17
0,50

0,05
0,15
0,10
0,30

0,17
0,50
0,33
1,00

Um zu prfen, ob die Merkmale X und Y unabhngig voneinander sind, bentigen wir die
bedingten Verteilungen von X und Y. Die bedingten Verteilungen von X gegen Y sind in
folgender Tabelle enthalten:

a,

a.
a,

b,

b2

b,

0,17
0,50
0,33

0,17
0,50
0,33

0,17
0,50
0,33

Rechenbeispiel :
h
6
f (a I b )=-'-' = - =0 50
' , ,
h(b,) 12
'

Wir erkennen, dass die bedingten Verteilungen (Spalten) alle identisch sind und mit der in
der Ausgangstabelle schattierten Randverteilung von X bereinstimmen.
Die bedingten Verteilungen von Y gegen X haben folgende Gestalt:
b,
a,

a.
a,

0,20
0,20
0,20

b2

b,

0,50
0,50
0,50

0,30
0,30
0,30

Rechenbeispiel :
h
6
f (b la )=_21_ =-=0 20
' , ,
h(a,) 30
'

Auch hier ist zu sehen, dass die bedingten Verteilungen (Zeilen) alle Obereinstimmen und
der schattierten Randverteilung von Y aus der Ausgangstabelle entsprechen.
Die beiden Merkmale knnen damit als statistisch unabhngig bezeichnet werden. Warden
die Werte der bedingten Verteilungen von der beschriebenen Vorschrift abweichen, wren
die Merkmale X und Y, wenn auch ggf. nur geringfgig, statistisch abhngig.

Aus 03: 10) und dem Fakt, dass bei statistischer Unabhngigkeit f,(a, I b j ) = f(a,)
gilt, kann
03: 19)
gefolgert werden. Dies bedeutet, dass bei statistischer Unabhngigkeit die gemeinsamen relativen Hufigkeiten gleich dem Produkt der jeweiligen relativen Randhufigkeiten sind. Die gemeinsamen absoluten Hufigkeiten erhalten wir, indem wir
(13: 19) wie folgt umformen:
nfxy(apb j )=

n f(a.) n f(b.)
1

03: 20)

3. Zweidimensionale Hufigkeitsverteilungen

91

Die gesamte Infonnation ber die gemeinsame Verteilung ist also im Falle von Unabhngigkeit bereits in den beiden eindimensionalen Verteilungen von X und Y
enthalten. Ist dies nicht der Fall, liegt statistiscbe Abbngigkeit vor. Zwischen den
Merkmalen bestehen sog. Interdependenzen.
Beispiel 13"7

Statistische Abhngigkeit

Eine Untersuchung unter 1.000 Personen zu den Merkmalen Raucher (X) mit den Ausprgungen "Rauche(' (R) und "Nichtraucher" (NR) und Lungenkrebs M mit den Ausprgun
gen "Lungenkrebs" (L) und "kein Lungenkrebs" (NL) ergab folgende Kontingenztabelle:

Raucher

nein [NR]
ja [R]

h(b;) (f(b;ll

Lungenkrebs Y
nein [NL]
ja [L]
650 (0,65)
50 (0,05)
250 (0,25)
50 (0,05)
900 (0,90)
100 (0,10)

h(a,j (f(a,ll
700 (0,70)
300 (0,30)
1.000 (I,O)

Anhand des zuletzt behandelten Zusammenhangs (13: 19) soll nun untersucht werden, ob
die Merkmale Raucher und Lungenkrebs statistisch unabhngig sind. Dazu wird eine sog.
hypothetische Kontingenztabelle aufgestellt. Die gemeinsamen relativen Hufigkeiten werden darin durch Multiplikation der relativen Randhufigkeiten bestimmt. Stimmen diese mit
denen der urprnglich vorhandenen Tabelle Oberein, liegt statistische Unabhngigkeit vor.
Kommt es zu Abweichungen, so kann diese Aussage nicht mehr gemacht werden.
Hypothetische
Kontingenztabelle
Raucher

nein [NR]
ja [R]
f,(b;}

Lungenkrebs Y
nein [NL]

ja [L]

f,(a,}

0,63
0,27

0,07
0,03

0,70
0,30

0,90

0,10

1,0

Die gemeinsamen relativen Hufigkeiten f'j weichen hier alle von denen der Ursprungstabelle ab. Die Merkmale X und Y sind also voneinander statistisch abhngig.
Wrde anhand der Formel (13: 18) auf Unabhngigkeit geprOft, so kme man zum gleichen
Schluss. Es gilt nmlich (in vereinfachter Schreibweise):

f(N~NR}=0,65=093

f (N~ R) = 0,25 = 0 83
,
0,30'

f,(LINR}

f,(LIR}

0,70'

= 0,05 =0 07
0,70
'

= 0,05 =0 17
0,30
'

Die Bedingungen haben also einen Einfluss auf die Verteilung von Y.

Von besonderer Bedeutung im Kontext des Begtiffs der Unabhngigkeit ist, dass
die von uns in diesem Abschnitt behandelten Unabhngigkeitsaussagen im Grunde
nur fr eine vorliegende Grundgesamtbeit gelten. In einer Stichprobe wird es nmlich fast immer zufallsbedingt Abweichungen von der Unabhngigkeit geben, selbst
wenn die beschtiebenen Unabhngigkeitsbedingungen in der Grundgesamtheit erfllt sind. Das Problem der Unabhngigkeit zweier Vatiablen wird deshalb in der
induktiven Statistik differenziert behandelt (vgJ. Kapitel III).

92

I Deskriptive Statistik

3.2 Korrelationsanalyse
Im Rahmen der Korrelationsanalyse werden diverse Mazahlen zur Quantiftzierung
des Ausmaes des statistischen Zusammenhanges zwischen verschiedenen Merkmalen berechnet. Im Folgenden beschrnken wir uns dabei wieder auf nur zwei
Merkmale X und Y und werden fr diese die Kovarianz, den Bravais-PearsonKorrelationskoeffizienten, den Speannan-Rangkorrelationskoeffizienten sowie den
Kontingenzkoeffizienten nher behandeln. Die Anwendbarkeit der Mazahlen
hngt entscheidend vom Skalenniveau der Variablen X und Y ab. Abbildung I 21
zeigt, fr welche Skalierungen welche Konelationsparameter heranzuziehen sind.
Zudem gibt sie einen ersten berblick darber, welche Infonnationen durch die
jeweilige Messzahl gewonnen werden knnen.
y

kardinal

ordinal
nonllnal

kanIinal

onlinal

nominal

Bravai.s.-PearsonKorrelation&koeff12ient1

SpeannanRangkorre1ationskoeffizient'

...
...

...

Kontingenzkoeffizient'

1: Misst Strke und Richtung eines linearen Zusanunenhangs


z: Misst Strke und Richtung eines monotonen Zusammenhangs

': Misst nur die Strke eines Zusammenhangs


Abbildung I 21: Korrelationsmae und Skalierung

3.2.1

Kovarianz und Bravals-Pearson-Korrelatlonskoefflzlent

Fr zwei metrisch skalierle Merkmale X und Y liege eine Urliste vor, in der weder
alle ~-Werte noch alle YrWerte identisch sind. Zudem seien x und y die jeweiligen arithmetischen MitteL Da ZU jedem ~ nur gerade ein Yj gehrt, knnen wir auf
den Index j verzichten, d.h. i-i. Damit ist die sog. KovarIanz definiert als

Im Falle einer vorliegenden Huftgkeitstabelle erhalten wir sie als


(13, 22)

3. Zweidimensionale Hufigkeitsverteilungen

93

Eine erste Betrachtung der Formel der Kovarianz zeigt, dass die Kovarianz eines
Merkmals X mit sich selbst gleich seiner Varianz ist, d.h. Cov"" = s~ gilt.
Zur Interpretation des Werts der Kovarianz betrachten wir Abbildung I 22. Es enthlt drei typische Streudiagramme zweidimensionaler Hufigkeitsverteilungen. Jedes der Streudiagramme wurde durch ein Fadenkreuz ergnzt, dessen Mittelpunkr
der Schwerpunkr (x, y) des jeweiligen Datensatzes ist. Es entstehen so in jedem
Diagramm 4 Quadranten I, 11, III und IV.
Y

11

III

IV

II

III

IV

II

III

IV

Abbildung I 22: Interpretation der Kovarianz


In den ersten beiden Streudiagrammen ist jeweils eine gemeinsame Tendenz der

Beobachtungen von X und der von Y zu erkennen. Im ersten Diagramm liegen die
Beobachtungspaare (x" y) berwiegend in den Quadranten I und III. Groe XWerte gehen hauptschlich mit groen Y-Werten und kleine X-Werte mit kleinen
Y-Werten einher. Es liegt ein sog. positiver Zusammenhang vor. Im zweiten Diagramm liegt die Mehrzahl der Beobachtungen in den Quadranten 11 und IV. Groe
X-Werte korrespondieren mit kleinen Y-Werten und umgekehrt. Es liegt ein sog.
negativer Zusammenhang vor. Das dritte Diagramm lsst keinen Zusammenhang
erkennen, da korrespondierend zu kleinen Werten der einen Variablen hnlich
viele kleine wie groe Werte der anderen Variablen zu beobachten sind. Die Begriffe "klein" und "gro" sind hier relativ zum jeweiligen Mittelwert zu sehen.
Den Schlssel zum Verstndnis der Kovarianz bilden die Abweichungsprodukte
(x, - x)(y, - V). Liegt ein Beobachtungspaar (x" y) in

x, y, > y

Quadrant I

gilt

X, >

Quadrant III

gilt

Quadrant 11

gilt

x,< x, y, < Y
x,< X, y,> Y

~ (Xi - X)(Yi ~

(Xi - X)(Yi -

(Xi - X)(Yi -

y)
y)
y)
y)

> 0,
> 0,
< 0,

< 0.
x,> X, YI< Y ~ (Xi - X)(Yi Da die Kovarianz das arithmetische Mittel der Abweichungsprodukte darstellt, gilt:
Liegen die Datenpunkte hauptschlich in den Quadranten I und III, so besteht
ein positiver Zusammenhang. Covxy ist positiv.
Liegen die Datenpunkte hauptschlich in den Quadranten 11 und IV, so besteht ein negativer Zusammenhang. Covxy ist negativ.

Quadrant IV

gilt

Sind die Punkre gleichmig auf die Quadranten verteilt, besteht kein Zusammenhang. Positive und negative Abweichungsprodukte heben sich bei der
Mittelung weitgehend auf und Covxy liegt nahe bei Null.

1Deskriptive Statistik

94

Ebenso wie fr die Varianz gilt auch fr die Kovarianz ein Verschtebungssatz. Dieser liefert den Ausdruck
1
CovXY =-

L xy
n
i_1

-xy

(13: 23)

Im Falle einer Hufigkeitsverteilung hat (13: 23) die Fonn

(13: 24)
Die Kovarianz ist in der Lage den empiriscben Zusammenhang zweier Variablen X
und Y anzuzeigen. Covxy > 0 zeigt einen positiven, Covxy < 0 einen negativen Zu-

sammenhang. Die Kovarianz ist also in der Lage die Richtung, nicht jedoch die
Strke des Zusammenhangs aufzuzeigen. Ein sehr groer positiver Wert bedeutet
beispielsweise nicht zwangslufig, dass ein sehr starker positiver Zusammenhang
vorliegt. Die Kovarianz ist nmlich eine dimensionsbehaftete Gre, die allein
durch die nderung der Maeinheit grer oder kleiner werden kann. Um diesem
Problem zu begegnen, wird eine normierte Kovarianz als Kenngre verwendet:
Dividieren wir die Kovarianz Cov= durch das Produkt der Standardabweichungen
von X und Y, also "x und Sy, erhalten wir den Bravais-Pearson-Korrelationskoeffizienten r=, d.h.

(13: 25)

bzw. vereinfacbt

rxy

=-r='~~~===============

t(x, -x)' t(y, -V)'


1=1

1=1

In (13: 25) knnen entsprechend auch die Fonneln verwendet werden, die sich des
Verscbiebungssatzes bedienen und/oder auf der Hufigkeitstabelle basieren. Durcb
die Division durch das Standardabweichungsprodukt (Nonnierung) ist r= automatiscb mastabs/os und verluft im Intervall
-1Srxy S+1 bzw. Ir=1 SI.

(13: 26)

r= - 1 gilt genau dann, wenn zwischen X und Y eine exakte Uneare Beziehung
besteht. Existiert nmlich die lineare Beziehung y, - a + bx" dann gilt
y=a+bx

und

S'y --

b's'x '

1 Den rechnerischen Beweis der Gltigkeit dieses Zusammenhangs berlassen wir in Aufgabe MH6 dem Leser.

95

3. Zweidimensionale Haufigkeitsverteilungen

Ferner ist
CovXY

:t
! :t

=!
=

j ...l

i_I

(x, - x)(a + bx, - [a + bxl)


(x, - x)(b[x, - xl)

b~(
-)'
X
=-L.Xi;;;;;;
n

b'
Sx

i_ I

Daraus folgt schlielich


f xy -

COV xy
Sx'Sy

;;;;;;

bsi

~=1.

sx1blsx

Ibl

Aufgrund der genannten Eigenschaften des Korrelationskoeffizienten knnen wir


nun folgern, dass der Korrelationskoeffizient rxy (und damit natrlich auch die Kovarianz Covxy) ein Ma fr den ltnearrm Zusammenhang zweier Variablen X und Y
ist. Gilt Irxv I - 1, besteht eine exakte ltneare Beziehung. Der lineare Zusammenhang ist umSQ schwcher, je kleiner der Absolutbetrag If n I des Koeffizienten ist.
Gilt rxy - 0, besteht keine lineare Beziehung. Im Fall rxy - heien die Merkmale X
und Y unkorreliert, im Fall Irxy I - 1 peifekt korreliert. Bei rxy > bzw. rxy < bezeichnen wir sie als positiv korreltert bzw. negativ korreliert. Bei Irxy I ;:, 0,8 ist von
starker, bei I rxy I S 0,5 von schwacher Korrelation auszugehen. Abbildung I 24, die
auf Seite 98 zu finden ist, illustriert diese Aussagen.

Beispiel I 3-8

Bravais-Pearson-Korrelationskoeffizient

Bei n Filialen einer Firma wurden die Variablen X - Verkaufsflache und Y - Umsatz erhoben. Es soll geprft werden, ob zwischen diesen beiden Merkmalen ein linearer Zusammenhang besteht. Wir verwenden dazu folgende Arbeitstabelle:

2
3
4
5
6
7
8
9
10

Xi

y,

100
150
110
140
160
200
110
130
180
190
1.470

800
1.000
800
900
1.200
1.600
600
1.000
1.500
1.300
10.700

...

y~
640.000
1.000.000
640.000
810.000
1.440.000
2.560.000
360.000
1.000.000
2.250.000
1.690.000
12.390.000

10.000
22.500
12.100
19.600
25.600
40.000
12.100
16.900
32.400
36.100
227.300

xl'Y.
80.000
150.000
88.000
126.000
192.000
320.000
66.000
130.000
270.000
247.000
1.669.000

Es ergeben sich daraus zunchst die folgenden arithmetischen Mittel:

1"
1
x=-.
LX;
=-1.470 =147
n
10
i_1

1"

Y=-'LY; =-10.700=1.070
n

i_1

10

96

I Deskriptive Statistik
Anhand der mittels Verschiebungssatz umgestellten Formel ergibt sich rxy zu

1.669.000 147.1.070

10
rxv = r===c==~~F.===C==~~
= 0,936.
227.300 -147'. 112.390.000 1.070'
IJ 10
10

Der Wert des Korrelationskoeffizienten ist positiv und liegt nahe 1. Es liegt also eine starke
positive Korrelation vor. Dies kann nun bedeuten, dass die Filialen durch eine Vergrerung der Verkaufsflche tendenziell eine Umsatzsteigerung erreichen oder auch, dass Filialen mit hohem Umsatz eher in der Lage sind grere Verkaufsflchen zu finanzieren. Die
Korrelationsanalyse kann also keine Aussagen uber Ursache und Wirkung (Kausalitt)
machen (vgl. Abschnitt I 3.2.6).

Beispiel I 3-9

Anscombe's Korrelationsdaten

Die folgende Tabelle enthlt vier von Anscombe, F.J. (1973) konstruierte zweidimensionale
Datenstze, die alle eine starke positive Korrelation von rxy = 0,82 aufweisen. Die Datenstze 1 bis 3 haben alle dieselben X-Werte.
Datensatz
Merkmal

1 bis 3

10
8
13
9
11
14
6
4
12
7
5

8,04
6,95
7,58
8,81
8,33
9,96
7,24
4,26
10,84
4,82
5,68

9,14
8,14
8,74
8,77
9,26
8,10
6,13
3,10
9,13
7,26
4,74

7,46
6,77
12,74
7,11
7,81
8,84
6,08
5,39
8,15
6,42
5,73

8
8
8
8
8
8
8
8
8
8
19

6,58
5,76
7,71
8,84
8,47
7,04
5,25
5,56
7,91
6,89
12,50

Die dazugehrigen Streudiagramme auf der Folgeseite zeigen jedoch vollstndig unterschiedliche Datenstrukturen. Betrachten wir zunchst die Datenstze 3 und 4, dann wird
aufgrund der Streudiagramme ersichtlich, dass Covxy und rxy keine robusten Mazahlen
sind. Sie sind empfindlich gegenber Ausreiern. Einzelne extreme Beobachtungswerte
knnen dazu fUhren, dass die Mazahlen einen starken linearen Zusammenhang unterbewerten (Datensatz 3) oder flschlicherweise eine stark lineare Beziehung ausweisen
(Datensatz 4). Fr die Datenstze 1 und 2 nimmt der Korrelationskoeffizient identische
Werte an, obwohl, im Gegensatz zu Datensatz 1, zwischen den Variablen in Datensatz 2
eine perfekte Beziehung besteht. Hier muss berucksichtigt werden, dass COvxy und rxy
nicht Mae fr statistische Zusammenhnge schlechthin sind. Sie beurteilen lediglich die
lineare Beziehung zwischen zwei Variablen. In Datensatz 2 liegt aber eine nichtlineare Beziehung vor.

97

3. Zweidimensionale Hufigkeitsverteilungen

Y
Datensatz 1

Datensatz 2

Y
Datensatz 3

Datensatz 4

I
I

~--------------~X

~--------------~X

Gerade dieses Beispiel zeigt, dass eine Korrelationsrechnung immer durch eine grafische
Beschreibung der Daten mittels eines Streudiagrammes begleitet werden sollte.

Beispiel I 3-10

Nichtlinearer Zusammenhang

Betrachten wir folgenden zweidimensionalen Datensatz:

x,
y,

-3
9

-2
4

-1

o
o

2
4

3
9

Wir erkennen sofort, dass /Ur die Kovarianz und den Korrelationskoeffizienten gilt:
1 7
_
Cov xv =- LX'y,-xy=O-O=O

i- 1

-->

rxv =0

Die Variablen weisen keine lineare Beziehung auf. Es gibt jedoch eine exakte Beziehung
zwischen ihnen, da y, = x~ gilt. Der Zusammenhang ist quadratisch, also nichtlinear, und
kann somit nicht vom Bravais-Pearson-Korrelationskoeffizienten aufgedeckt werden.
Im Falle statistisch unabhngiger Merkmale X und Y nimmt rxv den Wert 0 an. Sind
X und Y unkorreliert, dann sind sie nicht unbedingt auch statistisch unabhngig.
Es besteht dann lediglich kein linearer Zusammenhang. Eine z.B. quadratische Abhngigkeit knnte durchaus bestehen.

98

I Deskriptive Statistik

Irxy =

-11

Irxy

=+11

x
y

Irxy

stark negativ I

Irxy stark positiv I

x
y

y
Irxy schwach positiv I

Irxy=o l

Abbildung I 23: Bravais-Pearson-Korrelationskoeffizient und Streudiagramm

3.2.2

Kreuzkorrelation

Bisher haben wir Korrelationen zwischen zwei Merkmalen X und Y berechnet, indem wir ihre Realisationen X, und y, fr n verschiedene Lnder, Unternehmen oder
Personen verwendeten. Ein Wertepaar (x" y,) charakterisierte also immer ein Land,
ein Unternehmen oder eine Person zu einem bestimmten Zeitpunkt. Genausogut ist
es aber mglich, sich auf nur ein Land zu konzentrieren und hier die Ausprgungen der Merkmale zu unterschiedlichen Zeitpunkten (Tagen, Monaten, Jahren) zu

3. Zweidimensionale HAufigkeitsveneilungen

99

erfassen. Man dokumentiert dann unter Verwendung einer etwas modifizierten Notation die Realisationspaare (x., Y) zu den Zeitpunkten t - 1, ... , T und berechnet
Korrelationen auf dieser Datenbasis. Eine Korrelation zwischen Auftragseingang
und Bruttoinlandsprodukt knnen wir also beispielsweise berechnen, indem wir in
einem Quartal beide Merkmale fr verschiedene Lnder erfassen oder uns z.B. auf
Deutschland konzentrieren und hier die Ausprgungen beider Merkmale in jedem
der letzten 20 Quartale messen. Man spricht im ersten Fall von einer Berechnung
der Korrelation unter Nutzung von Querschnitt8daten (engI. cross-sectional correlation). Im letzten Fall verwendet man Zeitreihen oder Zeitrelhendaten~, ... , Xr
und YI, ... ,YT , da diese Abfolgen von Merkmalsausprgungen Entwicklungen der
Merkmale im Zeitverlauf beschreiben (engl. time-series correIation).
Bei Nutzung von Zeitreihen ist in der Praxis der Begriff der Kreuzkorrelatton von
besonderer Bedeutung. Hier werden den Beobachtungen X. eines Merkmals zu den
Zeitpunkten t Beobachtungen des anderen Merkmals ZU nachfolgenden Zeitpunkten (z.B. Yt+I) oder zu vorhergehenden Zeitpunkten (z.B. Y.) gegenbergestellt. Es
wird also z.B. der Auftragseingang eines Quartals nicht dem Bruttoinlandsprodukt
des gleichen sondern z.B. des Folgequartals gegenbergestellt. Dies ist sinnvoll, da
ein hherer Aufuagseingang in einem Quartal nicht nur zu einer Erhhung des
Bruttoinlandsproduktes im gleichen Quartal sondern auch in spteren quartalen
fhren kann. Der Auftragseingang ist ein sog. vorlaufender Konkunkturlndikator.
Ein hherer Wert in einem Quartal impliziert ein hheres Bruttoinlandsprodukt in
spteren Quartalen. Anders verhlt es sich bei sog. nacblaufenden Konjunkmrlndikatoren. Im Zuge eines Konjunktureinbruches (sinkendes Bruttoinlandsprodukt)
wird Z.B. aufgrund von Kndigungsschutz nicht die Arbeitslosenquote des gleichen
Quartals steigen. Hier ist es daher sinnvoll Arbeitslosenquoten spterer Quartale in
Korrelationsana1ysen zu verwenden.

Be18ple113-11

Kreuzkorrelatlon Q .

AnknOpfend an unsere theoretische Argumentation zur Kreuzkorrelation wollen wir in diesem Beispiel die Korrelation zwischen der Wachstumsrate des deutschen Brunolnlandsprodukts und zwei Konjunkturindikatoren (der Vernderung des Auftragseingangs und der
Vernderung der Arbeilslosenquole) berechnen. Wir verwenden dazu (saison- und kalenderbereinigtes) Zahlenmaterial aus der leitreihendatenbank der Deutschen Bundesbank
von 2006 bis 2012. Konkret nutzen wir den auf Quanalsbasis vorliegenden realen Kettenindex das Brunoinlandsprodukts (BIP) und Monatsdaten zum realen Auftragseingang (AE)
der Industrie und zur Arbeilslosenquote (ALQ) bezogen auf alle zivilen Erwerbspersonen.
Aufgrund der unterschiedlichen Datenfrequenz legen wir bei AE und ALQ zur Vereinfachung das arithmetische Mittel der jeweiligen drei Monate als Quartalswerl fast und berechnen daraus die Vernderungen von AE und ALQ. Die Wene zu den jeweiligen Quartalen t, d.h. BIP-Wachstumsrate (BIPWF\), AE-VerAnderung (AEVtl und ALQ-VerAnderung
(ALQVtl, sind in der Tabelle auf der Folgeseite zu sehen.
Berechnen wir die Korrelation zwischen BIPWR und AEV auf Basis dieser Ausgangsdaten
(sog. kontemporre Korrelation), erhalten wir einen Wen von 0,76. Mit gestiegenem Auftragseingang geht also tendenziell ein gesUegenes BIP einher. Wie bereits erwAhnt, handelt es sich beim AE um einen vorlaufenden KonjunkbJrindikator, sodass davon auszugehen ist, dass eine hhere Korrelation zu beobachten ist, wenn wir dem BIP eines Quartals
den Auflragseingang des Vorquartals gegenOberstelien. Dies geschieht in der vienen Spalte unserer Datentabelle durch Verwendung von AEVt_1. (Man beachte dabei, dass bei einer solchen Vorgehensweise die Datenbasis um eine Beobachtung verkOrzt wird.) Berechnen wir nun erneut den Korrelationskoeffizienten, so erhalten wir, wie erwanet, einen hhe-

I Deskriptive Statistik

100

ren Wert von 0,78, der auch deuUich hher ist als die Kreuzkorrelalion bei Verwendung
von AEVtt-l (nachfolgend nicht tabelliert; 0,33). Ein gestiegener AE in der Vorperiode 1-1 ist

also tendenziell mit einem gestiegenen BIP in der aktuellen Periode I verbunden.

Berechnen wir auf Basis der Ausgangsdalen die Korrelation zwischen BIPWR und ALQV,
so ergibt sich ein Wert von -0,55. Aufgrund des negativen Vorzeichens geht also mit ge-

stiegenem (gesunkenem) BIP tendenziell eine fallende (steigende) ALQ einher. Aufgrund

des nachlaufenden Charakters der ALQ ergibt sich ein Korrelationskoeffizient von -0,71,
wenn dem BIP eines Quartals die ALQ des Folgequarials gegenubergsslelll wird. Dies ge-

schieht durch Nutzung von ALQVt+l in der letzten TBbellenspalle. (Man beachte, dass Buch

hier eine Beobachtungsperiode verloren geht.) Wieder ist die Kreuzkorrelation absolut betrachtet hher als die kontemporre Korrelation und die Kreuzkorrelation bei Verwendung
von ALQV'-1 (nachfolgend nichtlabeliiert; -0,15). Der Unterschied zur Standardkorrelation
fllt hier deutlich hOher aus als fOr den AE.
Quartal

012006
Q2 2006
Q3 2006
Q4 2006
Q12007
Q2 2007
ca 2007
Q4 2007

012008
Q2 2008
Q3 2008

0,97
1,30
0,59
0,57

0,83
0,35
1,00
-0,38
-0,45

Q4 2008
Q12009
Q2 2009
Q3 2009
Q4 2009
Q12010
Q2 2010
Q3 2010
Q4 2010
Ql 2011
Q2 2011
2011
Q4 2011

-1,98
-4,13
0,25
0,74

AEVt

0,87
1,90
3,60
0,07
4,10

3,43
-0,97

6,23
-3,30

-3,n

AEVt1

AlQVt

ALQVt+1

0,87

-0,03
-0,40

-0,40
-0,47

-0,47
-0,47

-0,60

1,90

3,60

-0,60

--0,37

-0,37

3,43
-0,97
6,23
-3,30

-0,30
-0,30
-0,47
-0,20
-0,20
0,00
0,30
0,33
-0,03
-0,13

-0,30
-0,30
-0,47
-0,20
-0,20
0,00

-5,30

-3,n

-5,30
-17,33
-13,03

3,73
7,80
1,20
4,83
6,67
2,10

-3,43

0,10

-2,30

012012
Q2 2012
Q3 2012

0,66
-0,08
0,20

Q4 2012
Korrelation

--0,46

3,13
3,70
1,57

--0,47

0,07
4,10

-17,33
-13,03

1,03
0,48
2,00
0,81
0,84
1,53
0,09
0,43

ca

3.2.3

BIPWRt
1,09
1,49

3,73
7,80

0,30

0,33
-0,03
-0,13

-0,10

1,20

-0,10

-0,27

4,83
6,67

-0,27
-0,17

-0,17
-0,17

2,10
3,13
3,70
1,57

-0,17
-0,10
-0,10
-0,10

-0,13
-0,37
-1,73

-3,43
-2,30
-0,13
-0,37

--0,10
-0,23
-0,10
-0,10
-0,07

-0,07
-0,03
0,03

-0,03
0,03
0,10

0,87
0,76

-1,73
0,78

-0,55

-0,23

0,10
--0,71

SpaarmanRangkorrelallonskoefflzlent

Der sog. Spearman-Rangkorrelationskoefflzient ist eine robuste Variante des Bravais-Pearson-Korrelationskoeffizienten, die zudem auch bei ordinalen Merkmalen

3. Zweidimensionale Hufigkeitsverteilungen

101

einsetzbar ist. Er basiert nicht direkt auf den Merkmalsausprgungen X, und y, der
Merkmale X und Y, sondern auf ihnen zugeordneten Rangnummem R~ und Ri.
Im Zuge der Berechnung des Rangkorrelationskoeffizienten wird der grten Ausprgung von X der Rang 1, der zweitgrten Ausprgung von X der Rang 2, usw.
zugeordnet. Tritt ein Wert des Merkmals X mehrmals auf, d.h. liegen sog. Bindungen vor, dann wird diesen das artihmetische Mittel der entsprechenden Rangzahlen
zugeordnet. Entsprechend werden auch den Ausprgungen des Merkmals Y Rangzablen zugeordnet.

Beispiel I 3-12

Zuordnung von Rangzahlen

Gegeben sei folgendes Datenmaterial:

'YI"

2
3

8
2
3
2

R',
RY,

3
9

10

5
4,5

2
4,5

5
7
2

4
2

Die Beobachtungen von X weisen keine Bindungen auf. Wir knnen daher dem Wert 10
den Rang 1, dem Wert 9 den Rang 2, usw. zuordnen. Die Beobachtungen von Y weisen
Bindungen auf. Der grte Wert 2 tritt dreimal auf. Mit diesen drei Werten wren die Rnge
1, 2 und 3 verbunden, die nun gemittelt werden und so den Werten 2 einheitlich der Rang
(1 + 2 + 3}/3 = 2 zugeordnet wird. Der Wert 1 weist erneut eine Bindung auf, sodass beiden Werten 1 der Rang (4 + 5}/2 = 4,5 zugeordnet wird.

Wenden wir den Bravais-Pearson-Korrelationskoeffizienten auf die ennittelten


Rangziffem an, so erhalten wir den Spearman-RangkorreIationskoeflZient

1. L....
~(R', -R')(R,Y -RY )
n

i ..l

03: 27)

wobei R' und RY die Mittelwerte der jeweiligen Rangziffern darstellen. Gibt es
keine Bindungen, knnen wir r~ alternativ auch ber
n

6 L(R~

-Rn'

r SP = 1- --"'-"'-,-:;--,-XY

n.(n'-1)

6'LD;
1..1

n(n' -1)

03: 28)

berechnen. Die D, werden dabei als Rangdifferenzen bezeichnet. Sind irn Datensatz
relativ zum Stichprobenumfang n wenige Bindungen vorhanden, liefert (13: 28)
noch einen guten Nherungswert fr 03: 27).
Unabhngig von der Art der Berechnung kann r~ wie auch r"" Werte irn Intervall
-1 :s; r~ :s; +1

03: 29)

annehmen, da der Spearrnan-Rangkorrelationskoeffizient eine nonnierte, dirnensianslose Gre ist. r~ = 1 gilt genau dann, wenn eine beliebige monoton wachsende bzw. eine beliebige monoton fallende Funktion f(x) existiert, sodass y, = fex)

I Deskriptive Statistik

102

erfllt ist. Wir sagen dann auch, dass zwischen X und Y ein monotoner Zusammenbang besteht. Fr den Fall strikter Gleicblufigkeit der Rangzablen (R~ = Ri
fr i = 1,2, ... ,n) nimmt der Rangkorrelationskoeffizient den Extremwert +1 an. Dies
wre z.B. der Fall, wenn in einer Untersuchung des Zusammenhangs zwischen
Gre und Gewicht von Personen die grte Person zugleich die schwerste, die
zweitgrte Person zugleich die zweitschwerste, ... und die kleinste Person zugleich die leichteste ist. Der andere Extremwert -1 wird bei strikter Gegenlufigkeit
der Rangnummern (bei nicht vorliegenden Bindungen R~ = n + 1- Ri fr
i = 1,2, ... ,n) erreicht. Dies wre z.B. der Fall, wenn die grte Person zugleich die
leichtetste, ... und die kleinste Person zugleich die schwerste ist. Abbildung I 24
veranschaulicht diesen und andere Flle.

I r~ =-11

I r~ =+11

0
0

0
0

00

0
0

0
0
0

0
0

00

=stark negativ I

Ir~
0

Ir~ ;;;;;; schwach positiv I

00

0
0

0
0

0
0
0

x
y

y
Ir"
n-

01

Ir"
n-

01

0
0

0
0

0
0

0
0

0
0

0
0

Abbildung I 24: Spearman-Rangkorrelationskoeffizient und Streudiagramm

103

3. Zweidimensionale Hufigkeitsverteilungen

Beispiel I 3-13

Spearman-Rangkorrelationskoeffizient

10 Betriebswirtschaftsstudenten erreichten in ihren Drittversuchen in den Klausuren Statistik und Wirtschaftsmathematik folgende Gesamtpunktzahlen:
Student
Statistik
Wirtschaftsmathematik

2
41
38

33
37

4
55
49

3
45
32

33
44

6
27
21

7
20
11

8
15
11

9
13
11

10
18
28

Untersuchen wir nun hier/ur, ob sich ein Zusammenhang zwischen den Leistungen in den
beiden Fchern feststellen lsst. Zur Berechnung des Rangkorrelationskoeffizienten verwenden wir die folgende Arbeitstabelle. Diese ist nahezu selbsterklrend. Lediglich zwei
Wertegruppen verdienen nhere Aufmerksamkeit. Da x, und Xs identisch sind, teilen wir
die Rnge 4 und 5 gleichmig auf diese beiden Beobachtungswerte auf, sodass wir fr
beide den Rang (4 + 5)/2 = 4,5 erhalten. Ein hnliches Problem liegt bei Y7, Y. und y, vor.
Diesen teilen wir daher den Rang (8 + 9 + 10)/3 = 9 zu.

1
2
3
4
5
6
7
8
9
10

x;
33
41
45
55
33
27
20
15
13
18

y;

R',

R',

37
38
32
49
44
21
11
11
11
28

4,5

4
3
5
1
2
7
9
9
9
6
55

3
2
1

4,5
6
7
9
10
8
55

(Rn'

R~Rr

D;

D',

20,25
9
4

16
9
25

18
9
10

20,25
36
49
81
100
64
384,5

4
49
81
81
81
36
383

9
42
63
81
90
48
371

0,5
0
-3
0
2,5
-1
-2
0

0,25
0
9
0
6,25
1
4
0

(Rn'

4
25,5

Aus dieser Tabelle ergibt sich nun der Rangkorrelationskoeffizient nach (13: 27) unter Bercksichtigung des VersChiebungssatzes fr die Kovarianz und die Varianz zu

55 55

10. 371 -10'10


1

(55)2

10. 384,5- 10 .

1
(55)2 10 383- 10

6,85

.J8,2 .}8,05

0,8431.

Es liegt also ein stark positiver Zusammenhang zwischen den Leistungen in Statistik und
Wirtschaftsmathematik vor. Dies bedeutet, dass Studenten, die im Drittversuch gut in Statistik sind auch tendenziell besser in Wirtschaftsmathematik abschneiden oder umgekehrt.
Eine Anwendung von (13: 28) trotz vorhandener Bindungen ergbe

n.(n'-I)

625,5
10(100-1)

0,8455.

Trotz der kleinen Stichprobe und der vorhandenen Bindungen erhalten wir also einen sehr
guten Nherungswert.

=========:. . ____~'~D~.=.k~r=iP~tive=_S='=at=ist=i=k

104 ________
Beispiel I 3-14

Anscombe's Korrelationsdaten

Berechnen wir fOr die vier Datenstze aus Beispiel I 3-9 den Spearman-Rangkorrelationskoeffizienten, so erhalten wir folgende Ergebnisse:

Dalensatz

0,8182

0,6909

0,9909

4
0,5

Interessant ist hierbei der nahe 1 liegende Koeffizient fQr Datensatz 3. Dieser verdeutlicht,

dass der Rangkorrelationskoeffizienl hier kaum vom vorliegenden Ausreier beeinftusst


wird. Auch der im Vergleich zum Datensatz 1 geringere Rangkorrelationskoeffizienl bei Datensatz 2 ist aufgrund der drei Beobachb.mgen mit den grten x-Werten einleuchtend.
Hinsichtlich Dalensatz 4 Ist zu erwhnen, dass bel derartig vielen Bindungen I.d.R. auf eine
Berechnung des Speannan-Rangkorrelalionskoeffizienlen verzichtet wird.

3.2,4

Konllngenzkoefllzlenl

Als letztes Korrelationsma wollen wir im Folgenden den sog. Kontingenzkoeffi-

alle Skalenniveaus anwendbar ist. Die Berechnung


dieser Mazahl erfolgt in 4 Schritten:

~ zienten vorstellen, welcher auf

Schritt 1:
In Abschnitt I 3.1.4 haben wir gesehen, dass im Falle der statistischen Unabbdnglgkeit zweier Merkmale X und Y der Zusammenhang 03: 20) gilt, d.h. die gesamte
Information bezglich der gemeinsamen Hufigkeitsverteilung in den eindimensionalen Randverteilungen enthalten ist. Dies knnen wir zur Bildung einer hypothct:if.cben Kontl:ngcnztabeJle verwenden. Die in dieser Tabelle entstehenden hypothetischen bzw. bei statistischer Unabhngigkeit erwarteten gemeinsamen absoluten Hufigkeiten hzy(~,bj)' die wir im Folgenden mit hij abkrzen, sind
_
h(a i ) h(b j )

h, -

- n, I(a,)' ICh,) .

03, 30)

Je strk~r nun die tatschlichen Hufigkeiten ~ von den hypothetischen Huftgkeiten h!f abweichen, desto grSer ist die wechselseitige Abhngigkeit der Merkmale X und Y.

Schritt 2:
Ein Ma, welches auf den Differenzen hij - hij basiert, ist der sog. Chi-QuadratJ<od6zIcnt

,_~~(h.-ii.)'

X -

L." L."
i_1 j_1

h~

03, 31)

Er sununiert im Zhler die quadrierten Abweichung der tatschlich ermittelten Huflgkeiten ~ von den erwarteten Hufigkeiten hij. Durch das Quadrieren wird verhindert, dass sich positive und negative Differenzen gegenseitig aufheben. Es gilt
genau dann 'i - 0, wenn alle Differenzen gleich Null sind. Im Falle statistischer

3. Zweidimensionale Hufigkeitsverteilungen

105

Unabhngigkeit nimmt 03: 31) also den Wert 0 an. Je grer der Wert des ChiQuadrat-Koeffizienten ist, umso strker ist die statistische Abhngigkeit der Variablen X und Y. Ein kleiner Schnheitsfehler verhindert jedoch, dass die Gre selbst
als Zusammenhangsma verwendet wird. Verdoppeln wir nmlich z.B. n und alle
h" so verdoppelt sich auch X'. X' kann also unbegrenzt groe Werte annehmen.

Schritt 3:
Der KontIngenzkoeffizient K,." welcher aus X' berechnet wird, beseitigt den
Schnheitsfehler von X'. K,., weist im Falle statistischer Unabhngigkeit ebenfalls
den Wert 0 auf und nhert sich bei zunehmender Strke des Zusammenhangs dem
Wert 1 an, erreicht diesen aber nicht. Konkret gilt
2

---

XY -

n+x2

mit

03: 32)

Schritt 4:
Um eine bessere Vergleichbarkeit zu gewhrleisten, empfielt es sich, den Kontingenzkoefftzienten zu nonnieren, sodass er hchstens den Wert 1 annehmen kann.
Zu diesem Zweck dividieren wir K,., durch seinen maximal mglichen Wert

K~ = JMr:;1

mit

M = min(k,r),

03: 33)

wobei M das Minimum aus Zeilen- und Spaltenzahl der vorliegenden Hufigkeitstabelle darstellt. Fr den nonnlerten Kontingenzkoeffizlenten folgt somit
Knorm _ K xy
XY

KDJaX

mit

O~K~ ~1.

03: 34)

XY

Wie der Wertebereich des normierten Kontingenzkoeffizienten zeigt, knnen wir


lediglich Aussagen ber die Strke des Zusammenhangs der Variablen X und Y
machen. Je nher der Koefftzient bei 1 liegt, desto strker ist der Zusammenhang.
Aussagen ber die Richtung sind nicht mglich, da keine negativen Werte im Wertebereich vorkommen. Dies ist auch unmittelbar einleuchtend, da das Ma unter
anderem fr nominale Merkmale konzipiert ist, die keine Ordnungsstruktur besitzen, und daher nicht zwischen positivem und negativem Zusammenhang der
Merkmale unterschieden werden kann.
Beispiel I 3-15

Kontingenzkoeffizient

Eine Untersuchung unter 500 Haushalten Ober den Zusammenhang von Wohnflche und
Haushaltsnettoeinkommen ergab die folgende Kontingenztabelle (absolute Hufigkeiten):

WohnflAche
X

bis 70 m
Ober 70 m'

EinkommenY
bis 1.500
Ober 1.500
140
90
100
170
240

260

230
270
500

106

I Deskriptive Statistik
Schrill 1: Hypothetische Kontingenztabelle

2
bis 70 m
2
ber 70 m

Wohnflche

EinkommenY
bis 1.500
Ober 1.500
110,4
119,6
129,6
140,4
240
260

230
270
500

Schrill 2: Chi-Quadrat-Gre
(140-110,4)2 (100-129,6)2 (90-119,6)2 (170-140,4)2
110,4
+
129,6
+
119,6
+
140,4
= 7,94+6,76+ 7,33+6,24 = 28,18
Schrill 3: Kontingenzkoeffizient
=0,23
28,18
500+28,18
Schrill 4: Normierter Kontingenzkoeffizient

K~ =r~1

M = min(k,r) = min(2;2) = 2

=l;1 =0,71

K,mm = K xv = 0,23 = 33
xv
K~
0,71
.
Daraus lsst sich folgern, dass zwischen Einkommen und Wohnflche ein schwach ausgeprgter Zusammenhang besteht.

Liegen zwei dichotome Merkmale X und Y vor, fhrt die tabellarische Darstellung
Ihrer gemeinsamen Hufigkeitsverteilung immer zu einer Vierfeldertafel. Maximale
Abbngigkeit liegt in einer solchen Tafel immer dann vor, wenn beide Diagonaleintrge oder alternativ beide Nicht-Diagonaleintrge Null sind.

3.2.5

Lineartransformationen und Linearkombinationen

Betrachten wir zwei metrisch skalierte Merkmale X und Y deren Realisationen X,


und y, in der Form
v, =a+bx" w, =c+dy,

mit

a,b,c,dE IR, b,.O, d,.O

C13: 35)

linear transformiert werden. Zwischen der Kovarianz Covxy der Ausgangsdaten


und der Kovarianz Covvw der transformierten Daten besteht der Zusammenhang
Covvw = b d ,Covxy ,

(13: 36)

den wir wie folgt beweisen knnen:


Covvw

=! ICv, -v)(w, -Vi) =! ICa+ bx, -a- bx)(c+ dy, -c -dy)


n

jE1

j ... l

3. Zweidimensionale Hufigkeitsverteilungen

107

= b d Covxy

Fr den Bravais-Pearson-Korrelationskoeffizienten gilt bei Lineartransfonnationen


der Fonn (13: 35)
"vw =

bd
'"XY
Iblldl

bzw.

I"vw 1=I"xy I .

(13: 37)

Wir sagen, der Bravais-Pearson-Korrelationskoefflzient ist invariant gegenber

Lineartransformationen. Wir knnen dies wie folgt beweisen:


bd
Ib 1.1 d I

;-:--;-c--;-; . "

XY

(13: 37) besagt, dass Lineartransformationen nicht die absolute Strke eines korrelativen Zusammenhangs verndern knnen (Invarianzeigenschaft). Allerdings kann
sich ggf. die Richtung des Zusammenhangs umkehren. Es gilt
"
vw

= {+rxy
-rxy

falls bd > 0
falls bd < O.

Die Aussage von (13: 37) ist direkt auf den Spearman-Rangkorrelationskoefftzienten
bertragbar. Dieser ist darber hinaus invariant gegenber allen streng monotonen
Transformationen.
Werden die Beobachtungen x, und y, zweier metrisch skalierter Merkmale X und Y
in der Fonn
(13: 38)
Wi =a+b'x j +C'Yi
mit
a,b,cE IR, b*O, c'*o
linear kombiniert, gilt fr das arithmetische Mittel und die Varianz der Werte w,

w=a+bx+cy,
s~ = b

(13: 39)

s; + C2S~ + 2bcCovxy .

Beweisen knnen wir den Zusammenhang (13: 39) ber

In

In

1[

(13: 40)

n]

w=- LWi =- L(a+ bX i +cy,)=- n.a+bLxi +CLYi =a+ bx+cy


j .. t

i_ I

i_ I

j ..l

und (13: 40) ber


s;. =l:t(w i -w)' =l:t(a+bxi +CYi -[a+bx+cy])'
n

i_ I

i_ I

b2 n
_ 2
c2 n
_ 2
2bc n
_
_
= - L(Xi -x) +- L(Yi -y) +-L(Xi -X)(Yi -y)
n

i_ I

j .. t

i_ I

108

I Deskriptive Statistik

3.2.6

Kritische Anmerkungen zur Korrelationsanalyse

Oftmals werden durch die Korrelationsanalyse Zusammenhnge zwischen Merkmalen festgestellt, obwohl solche in der Wirklichkeit gar nicht existieren. Aus diesem
Grund wollen wir uns im Folgenden kritisch mit der Korrelationsanalyse auseinandersetzen. Dazu mssen wir zunchst zwischen zwei Arten von Zusammenhngen
unterscheiden. Von statistischen Zusammenhngen spricht man, wenn sich empi-

risch (mittels der bisher behandelten Verfahren) eine gemeinsame Variation ver-

schiedener Variablen beobachten lsst. Von einem kausalen Zusammenhang


spricht man hingegen, wenn auerdem eine Ursache-Wirkungs-Beziehung besteht,
d.h. sich Z.B. die Variable Y aufgrund einer Variation der Variable X verndert.
Kausale Zusammenhnge

Statistische Zusammenhnge

Empirische Beobachtung einer

Ursache

gemeinsamen Variation
mehrerer Variablen

(X)

-+

Wirkung
(Y)

Abbildung I 25: Kausale versus statistische Zusammenhnge


Ein festgestellter statistischer Zusammenhang darf nun nicht automatisch als kausaler Zusammenhang interpretiert werden. Dies beruht auf folgenden Tatsachen:
1. Richtung des AbbngigRitsverhltnisses
Bei kausalen Zusammenhngen kann die Abhngigkeit in die eine (x, ~ y) oder
andere Richtung (y, ~ x) oder auch in beide Richtungen (x, H y) laufen. Die Korrelationsanalyse kann aber lediglich aussagen, ob ein positiver oder negativer Zusammenhang vorliegt und wie stark dieser ausgeprgt ist. Sie kann nicht feststellen,
was Ursache und was Wirkung ist.
2. Dritte intervenierende Variable

Besteht kein kausaler Zusammenhang zwischen zwei Variablen (Merkmalen) X und


Y, so kann es vorkommen, dass trotzdem ein statistischer Zusammenhang festge-

stellt wird, da der Einfluss einer dritten Variablen bei der bivariaten Korrelationsanalyse nicht bercksichtigt wird. Nehmen wir beispielsweise an, dass die Variablen X und Y jeweils von einer Variable Z positiv beeinflusst werden, zwischen X

und Y jedoch kein kausaler Zusammenhang besteht.


Variable X

I I Variable Y

+[;;&]+

Im Rahmen einer statistischen Untersuchung werden nur die Variablen X und Y betrachtet. Steigt nun z.B. Z, steigen auch X und Y. Damit wrde die Korrelationsanalyse einen Zusammenhang zwischen X und Y aufzeigen, obwohl keiner besteht.

3. Zweidimensionale Hufigkeitsverteilungen

109

Solche Fehler, die sog. Scheinkorrela:tiOD, knnen wir venneiden, wenn wir

wirklich alle mglichen Einflussvariablen bercksichtigen (y - f(x,z, ... )). Dies ist
typisch bei Verfahren wie der multiplen Regression (vgl. Kapitel N), der Varianzanalyse und der Berechnung partieller Korrelationskoeffizienten.

3. Trendvariablen
Ein in der Praxis hufig gemachter Fehler tritt bei der Korrelationsuntersuchung
von Trendvariablen (tendenziell steigender oder fallender Verlauf der Variablen)
auf. Untersucht man nmlich z.B. die Variablen "nominales Bruttoinlandsprodukt"
und "kumulierte Regenmenge" auf Korrelation, so wird mit Sicherheit ein statistischer Zusammenhang festgestellt. Der gesunde Menschenverstand besagt aber, dass
es keinen Zusammenhang geben kann.

Zur Vermeidung von Scheinkorrelationen werden bei trendbehafteten Variablen die


Korrelationsmesszahlen in der Praxis hufig nicht aus den originren Merkmalsausprgungen, sondern entweder aus den Vernderungen der Variablen von Periode
zu Periode

Axt = x t

x t_1

Ay, = y, - YH

(13: 41)

w ,y = Yt -Yt

(13: 42)

oder aus Wachstumsraten


1

Yt-l

berechnet. Auf diese Weise kann der Trend in den Daten lI eliminiert" werden.

4.

Messzahlen und Indizes

Mess- und Indexzahlen erlauben uns die Beschreibung der zeitlichen Entwicklung oder
der rumlichen Unterschiede metrisch skalierter Merkmale. Whrend wir mit Messzahlen
jeweils nur die Vernderung eines Merkmals beschreiben knnen, erfassen wir mit
Indexzahlen die Entwicklung einer Gruppe von gleichartigen Merkmalen. Nach einem
einfOhrenden Abschnitt zu Messzahlen legen wir den Schwerpunkt dieses Kapitels auf
Indexzahlen und dabei insbesondere auf Preisindizes. Als besondere Vertreter werden
wir dabei den Verbraucherpreisindex (VPI) und den harmonisierten Verbraucherpreisindex (HVPI) sowie den Deutschen Aktienindex (DAX) kennen lernen.

4.1 Messzahlen
Messzahlen vergleichen zeitlich unterschiedliche Merkmalsausprgungen durch Bezugsbildung auf einen gemeinsamen Basiswert. Ausgangspunkt ist dabei die chronologisch geordnete Sequenz von im Zeitablauf gemessenen Beobachtungswerten
Je, des Merkmals X, d.h. die sog. Ze/trelbe von Beobacbtungswerten

04: 1)
die die Entwicklung des Merkmals X vorn Zeitpunkt t - -m bis t - n abbildet. Dividieren wir nun jedes Element dieser Zeitreihe durch dasselbe vorher definierte
Element, den sog. Bas/swert x", so erhalten wir eine Zettrelbe von Messzablen zur
Bastsze/tt - 0, die sich wie folgt darstellt:

04: 2)
Bezeichnen wir die Messzahl der Bertchtszeit t zur Basiszeit
nen wir damit die allgemeine Formel

t =

0 mit f ot' so kn-

'

[0,' =~

04: 3)

Xo

zur Messzahlenberechnung festhalten, in der Je, wie bisher fr den Merkmalswert


zur Berichtszeit t und x" fr den Merkmalswert zur Basiszeit t - stehen,
Multiplizieren wir die Messzahl (14: 3) mit dem Faktor 100, so ermglicht uns dies,
prozentuale Abweichungen der Merkmalsausprgung der Berichtsperiode von der
Merkmalsausprgung der Basisperiode unmittelbar abzulesen, Beispiel 1 4-1 verdeutlicht dies,

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_4, Springer Fachmedien Wiesbaden 2015

112 _ _ _ _ _ _ _

.:===========~

Beispiel I 4-1

__~I~D~.=.k~r=iP~tive=_S='=at=ist=i=k Q.
Messzahlen im Vergleich

Ober 12 Jahre wurden die Umsatzzahlen zweier Unternehmen A und B ermittelt. Um die
Entwicklung beider Unternehmen besser vergleichen zu knnen, werden in beiden Fllen
(bereits mit 100 multiplizierte) Messzahlen im Bezug auf den Umsatz in 1998 berechnet

Die Resultate sind in folgender Tabelle zu sehen:


Jahr
1998
1999

2000
2001
2002
2003
2004

2005
2006
2007
2008
2009

Per10de

0
1
2
3

5
6
7
8
9

10
11

Umsatz in Tsd.
A
B

500
620
650
730
680
670
600
480
600
620
630
450

1200
1320

1440
1500
1560
1620
1500
1380

1320
1440
1560
1080

Messzahlen (Basis 1998)


A
B

100
12.
130
146
136
134
120
96
120
124
128
90

100
110
120
125
130
135
125
115
110
120
130
90

Betrachten wir nun die Messzahlen des Jahres 2003, so ist zu erkennen, dass der Umsatz
des Unternehmens A im Vergleich zur Basisperiode um (134 - 10D) % - 34 % gestiegen
ist. Bei Unternehmen B liegt das entsprechende UmsatzwachSlum bei 35 %. Wir knnen
auch sagen, dass der Umsatz im Jahr 2003 genau 134 % bzw. 135 % des Umsatzes des
Basisjahres ausmacht. Vergleichen wir die Messzahlen des Unternehmens A rur die Jahre
2007 und 2008, so ist zu erkennen, dass der Umsatz um 2 Prozentpunkte gestiegen ist.
Dies entspricht einem Prozentsatz (Wachstumsrate) von

126-124 .100 %=161 %.


124
'
Stellen wir die Entwicklung der Messzahlen grafisch dar, so knnen wir daraus die Abweichungen von der Basis (100) sehr gut veranschaulichen. Fr Unternehmen A ergibt sich 60
die folgende Grafik, in der neben den Messzahlen auch die absoluten Merkmalswerte an
den Achsen abgetragen sind. Wie zu erkennen ist, wird der Basiswert 100 nur zweimal unterschritten. Dies bedeutet, dass es nur in den Jahren 2005 und 2009 zu einem UmsatzrOckgang unter das Niveau von 1998 kam.

800

absolut

Messzahl

180

700

140

800

120

..

500

400

SO

300

1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009

60

4. Messzahlen und Indizes

113

Sind wir gezwungen die Basis einer Messzahl bzw. einer Reihe von Messzahlen im
Nachhinein zu ndern, bezeichnen wir diesen Vorgang auch als Umbasierung. Im
Prinzip steckt dahinter nichts anderes als die Anwendung der Fonne! (14: 3) zur
Messzahienberechnung auf die Zeitreihe der Beobachtungswerte (14: 1) unter Nutzung einer neuen Basis x,:
x

(14: 4)

=~

','

x,

Angenommen, die ursprnglichen Merkmalsausprgungen (14: 1) liegen nicht mehr


vor, sondern nur noch die Messzahlenreihe zur Basiszeit t = 0, knnen auch daraus
die neuen Messzahlen zur Basiszeit t = s berechnet werden:

"'-

s,t

=~=rO,t
X
~

xo

(14: 5)

f O,8

Beispiel I 4-2

Umbasierung von Messzahlen

Die folgende Tabelle en1hlt tur den Zeitraum 1998 bis 2007 die Absatzzahlen eines Verlagshauses (in Mio. ) und die dazugehrigen (bereits mit 100 multiplizierten) Messzahlen
zur Basis 1998. Durch Umbasierung auf die Basis 2003 ergeben sich folgende Werte:

Xi

1998
50

1999
56

2000
60

2001
62

2002
72

2003
80

2004
84

2005
88

2006
90

2007
96

Messzahl

100

112

120

124

144

160

168

176

180

192

Messzahl

62,5

70

75

77,5

90

100

105

110

112,5

120

Jahr

(1998)
(2003)

Wie die neuen Messzahlen zur Basis 2003 entstehen, wollen wir im Folgenden exemplarisch anhand der Messzahl fOr das Jahr 2004 darstellen. Die Berechnung anhand der
Merkmalsauspragungen liefert
X 2004
84
r20032OO4 = --100
= -,100 = 105,
,
X
80
2003

was natrlich mit der Berechnung anhand der Messzahlen zur Basis 1998

r
168
2004
r2OO32004 = 1996'
,100=-,100=105
,
r1998,2003
160
Obereinstimmt.

4.2 Indexzahlen
In diesem Abschnitt wollen wir nun die zeitliche Entwicklung mehrerer verwandter

Gren beschreiben, Mazahlen, die zeitlichen Vergleichen dienen und zudem

"4

I Deskriptive Statistik
dem Aspekt der Aggregation mehrerer Gren Rechnung tragen, nennen wir

Indexzablen oder kurz Indizes. Indizes fassen typischerweise Messzahlen der Einzelgren in geeigneter Weise zusanuneo. Damit wird klar, dass genau wie bei
Kennzahlen zur Charakterisierung von Huflgkeitsverteilungen durch die Berechnung eines Index die zugrunde liegenden Einzellnformationen verloren gehen.
Dies muss aber nicht unbedingt einen Nachteil darstellen. Sinn und Zweck eines
Index ist es ja gerade die durchschnittliche Vernderung einer Vielzahl von gleichartigen Tatbestnden in einer einzigen Zahl auszudrcken. Durch diese Komprimierung der Ausgangsdaten sind Vergleiche und Analysen mglich, die unter
Zugrunde1egung der oft sehr umfangreichen anfanglichen Einzeldaten nur schwer
umsetzbar wren.
Zur Erhhung der Anschaulichkeit stehen im Folgenden spezielle Anwendungen
von Indexzahlen im Vordergrund. Wir diskutieren die Messung der Preisentwicktung, der Mengenentwicldung und der Wertentwicldung von Gterbnde1n ber
Preis-, Mengen- und Wertindizes. Unser Hauptaugenmerk liegt auf Preisindi2es. Wrr
werden diese daher nutzen um wesentliche Indexoperationen zu veranschaulichen,
die natrlich auf Mengen- und Wertindizes analog bertragbar sind. Zudem werden
wir die praktische Bedeutung von Preisindizes herausarbeiten. Wir beschlieen das
Kapitel schlielich mit drei bedeutsamen Preisindizes aus der Wirtschaftspraxis.

4.2.1

Preisindizes

4.2.1.1

Grundlegenda

Eine Marktwirtschaft ist in der Regel gekennzeichnet durch sich im Zeitablauf

~ ndernde Preise von Gtern und Dienstleistungen. Zur Quantifizierung dieser

Preisnderungen nutzen wir in der Praxis sog. Preisindizes. Sie geben Auskunft
ber Kaufktaftnderungen des Einkonunens und damit ber die Stabilitt oder Instabilitt des Geldwertes. Rein definitorisch beschreibt ein Preisindex die durcbschnittllche Prelsentwicklung einer vordeftnierten Gruppe von GOlem.
Ausgangsdatenmaterial fr die rechnerische Bestinunung eines Preisindex sind die
Preise p~l), p~) ... , p~") von n Gtern in der Basisperiode 0 und p~). p~), ... , p~n) in
der Berichtsperiode t sowie die dazugehrigen Gtennengen q~1),q~2l, ... ,q~n) und
q~l).q~1), ... ,q~. Bei den Preisen handelt es sich je nach Sachlage um Ein- oder
Verkaufspreise, Import- oder Exportpreise, usw. Die Mengen sind je nach sachlage
konsumierte, produzierte, exportierte, importierte oder verkaufte Mengen der jeweiligen Gter. Wir sprechen dabei allgemein von transferierten Mengen.
Die n Gter und die dazugehrigen Mengen bilden die sog. warenkrbc. Der
Wert W dieser warenkrbe bzw. die latsilcblichen Ausgaben eines Konsumenten,
Produzenten, etc. (im Folgenden Individuen) fr die Gtennengen kann wie folgt
berechnet werden:
a) Wert des warenkorbs der Basisperiode in der Basisperiode

w0,0 =~pO).qO)
~o
0
,~

b) Wert des warenkorbs der Berichtsperiode in der Berichtsperiode

04,6)

4. Messzahlen und Indizes

115

wt,t = ~p(i)t . q(!lt

(14: 7)

~
i=l

Neben diesen tatschlichen Ausgaben lassen sich hypothetische Ausgaben bestimmen, die angeben, welche Zahlungen die Individuen fr die Warenkrbe htten
leisten mssen, wenn die Preise der jeweils anderen Periode vorgeherrscht htten:
a) Was htte das Individuum in der Berichtsperiode fr den Warenkorb bzw. die
Mengen der Basisperiode ausgeben mssen?

wt,0 ; ; ~p(i)
q(O
L..Jt
0

(14: 8)

b) Was htte das Individuum in der Basisperiode fr den warenkorb bzw. die
Mengen der Berichtsperiode ausgeben mssen?

wO,t ; ; L..J
~p(i)
q(O
0
t

(14: 9)

Die Werte (14: 6) bis (14: 9) werden uns bei der Definition der Preis-, Mengen- und
Wertindizes wertvolle Dienste leisten und uns helfen diese Zu interpretieren.
Beispiel I 4-3

Warenkrbe

Ein Arbeitnehmerhaushalt kaufte im Basis- und Berichtsjahr folgende Gter 1-3:


Gut
Nr. i
1
2
3

Basisjahr 2000
p(l)

2000

1,50 tStOck
2,00/kg
9,00 tLiter

q~
60 Stck
20 kg
50 Liter

Berichtsjahr 2006
p(l)

2006

1,50 tStck
4,00 tkg
9,50 tLiter

q~
40 Stack
10 kg
50 Liter

Betrachten wir dazu nun folgende Fragestellungen:


a) Welchen Wert hat der Waren korb der Basisperiode in der Basisperiode?
W2000.= =1,5060+2,0020+9,0050=580
b) Welchen Wert hat der Waren korb der Berichtsperiode in der Berichtsperiode?
W20DB2OOfl =1,5040+4,0010+9,5050 =575
c) Wieviel Euro htte der Haushalt in der Berichtsperiode fr den Warenkorb der Basisperiode ausgeben massen?
W20

".= =1,5060+4,0020+9,5050=645

d) Wieviel Euro htte der Haushalt in der Basisperiode fUr den Warenkorb der Berichtsperiode ausgeben massen?
W2000..... =1,5040+2,0010+9,0050 = 530

Die Entwicklung der Preise einzelner Gter aus dem Warenkorb knnen wir durch
Preismesszahlen beschreiben. Fr das i-te Gut erhalten wir so zur Berichtszeit t die
Messzahl

I Deskriptive Statistik

116

Eine denkbar einfache simultane Beschreibung der Preisentwicklung aller n Gter


des Warenkorbs liefert das arithmetische Mittel der Preismesszahlen, also

PO,t

pO)

L ----to
.
n
Po
n

(14: 10)

== -

io:l

Ein so definierter Preisindex ist allerdings nur dann konomisch sinnvoll interpretierbar, wenn allen n Gtern die gleiche konomische Bedeutung zukommt. In
praktischen Anwendungen ist dies meist nicht der Fall. Es wird dann notwendig,
die Gter bzw. die Preismesszahlen geeignet zu gewichten. Dafr gibt es eine Reihe verschiedener Lsungen, die die im Folgenden vorgestellten Preisindizes liefern.
4.2.1.2

Preisindex nach Laspeyres

Der Preisindex nach Laspeyres p~, ist ein gewogenes arithmetisches Mittel der n
Preismesszahlen p~!) / pi!) der im' Warenkorb enthaltenen Gter. Er ist allgemein
defmiert als
n
Ol
ol. qOl
"~
. gOl
mit g (ol ) = nP0 0
(14: 11)
P LO,t = 'L..
0)
0
1=1 Po
LP~I) q6i)

Wie wir sehen, entsprechen die Gewichte gii) fr jedes Gut i genau dem Anteil der
Ausgaben fr das Gut am Gesamtwert des Warenkorbs der Basisperiode. Die Gewichte (in ihrer Gesamtheit auch Wgungsschema des Index genannt) mit denen
die Preismesszahlen in den Index eingehen, werden also ausschlielich mit

Datenmaterial aus der Basisperlode bestimmt.


Zur genaueren Analyse und auch einfacheren Berechnung des Index erfolgt hufig
eine Umformung in die sog. Aggregaiform
n

PO,t

pm p(!), q(!)
t
0
0
= L.. W . 'WT
1=1 Po
WO,O
n
~

Lp~1) . q~1)

W
-=----=_.
i_I

tO

(14: 12)

WO,O'

Diese zeigt, dass der Preisindex nach Laspeyres nichts anderes als das Verhltnis

eines fiktiven Ausgabenwertes (wie viel der Warenkorb der Basisperiode zu Preisen
der Berichtsperiode gekostet htte) und den tatschlichen Ausgaben fr den Warenkorb der Basisperiode ist. (14: 12) gibt damit an, wie sich das Preisniveau gendert htte, wenn das in der Basisperiode geltende Mengenschema auch in der Berichtsperiode Gltigkeit htte. Vorteil dieses Index ist es also, dass er von Mengennderungen in der Berichtsperiode nicht beeinflusst wird und so die reine Preisentwicklung widerspiegelt. Whrend damit eine Vergleichbarkeit verschiedener
Indexwerte gewhrleistet wird, kann dies jedoch gerade bei langen Zeitreihen
einen erheblichen Nachteil darstellen. Gternachfragende Wirtschaftssubjekte reagieren nmlich im Allgemeinen auf Preisnderungen, und zwar durch den Kauf geringerer Mengen relativ teurer gewordener Gter und durch den Kauf grerer

Mengen relativ billiger gewordener Gter. Bei nderung ihrer Verbrauchsgewohn-

4. Messzahlen und Indizes

117

heiten werden sie auerdem "neue" Gter verstrkt und "alte I! Gter weniger nach-

fragen. Aufgrund der unvernderten Gewichtung der Gter ber- oder unterschtzt
der Index bei solchen Gegebenheiten die Preissteigerung (sog. Substitutiom- oder
Laspeyres-Effekt). In der Literatur wird hufig ausschlielich von einer berschtzung der Preissteigerung gesprochen. Es wird dabei vernachlssigt, dass zu unterscheiden ist, ob eine festgestellte Preissteigerung auf eine Angebots- (z.B. lieferengpass einer Unternehmung und damit Angebotsverknappung) oder Nachfragenderung (z.B. vernderte Verbrauchsgewohnheiten aufgrund neu auf den Markt
gekommener Gter) zurckzufhren ist. Die Betrachtung der beiden folgenden
Angebots-Nachfrage-Diagramme macht klar, dass eine angebotsinduzierte Preissteigerung mit einem Rckgang, eine nachfrageinduzierte Preissteigerung mit einer
Zunahme der nachgefragten Menge verbunden ist. Bei unvernderter Gewichtung
kommt es daher durch den Preisindex nach Laspeyres bei einem Angebotsschock
zu einer berschtzung der Preissteigerung und bei einem Nachfrageschock zu
einer Unterschtzung der Preissteigerung.
p
A

Angebotsinduzierte
Preissteigerung

x
P
A

Nachfrageinduzjerte
Preissteigerung

7'
W
N
7

Gerade bei der Problematik einer unvernderten Mengenstruktur setzt der Preis-

index nach Paasche an, der die aktuelle Nachfragestruktur durch einen aktuellen
Warenkorb bercksichtigt. Auch er ist jedoch nicht unproblematisch.
4.2.1.3

Preisindex nach Paasche

Auch der Preisindex nach Paasche p~., ist als gewogenes arithmetisches Mittel von
Preismesszahlen bzw. konkret als

I Deskriptive Statistik

118
n
p
~
PO,t ;;;;;; ~
i=l

(i)

Pt
Po

(0

-----co gt

mit

O) q(i)

P0

(i);;;;;;

gI

LP~I) .q~O

P6i) . q~i)

(14: 13)

WO,t

1_1

deftniert. Der Unterschied zum Preisindex nach Laspeyres besteht allein in der Gewichtung. Die Gewichte beim Preisindex nach Paasche verndern sich von Berichtsperiode ZU Berichtsperiode, da sie die Anteile der Werte der in den Berichtsperioden transferierten Mengen zu Preisen der Basisperiode an der zugehrigen
Gesamtwertesumme sind. Das Gewtcbtungsscbema orientiert sich also an den
Mengen der Berlcbtsperiode und ist damit variabel. Im Gegensatz dazu orientierte
sich der Preisindex nacb Laspeyres bei der Gewichtung an den Mengen der Basis-

periode, sodass bei Berechnung des Preisindex fr mehrere Berichtszeiten das Ge-

wlcbtungsscbema ber die gesamte Indexreihe konstant beibehalten wird.

Auch P:., lsst sich in Aggregaiform darstellen und zwar als


n

Lp~l) . q~l)
p
PO,t

= --:'-n,,'_ _ _-

(14: 14)

LP61) .q~i)
io:l

Der Index ist also lediglich das Verhltnis der tatschlichen Ausgaben fr den Warenkorb der Berichtsperiode und einem fiktiven Ausgabenwert, der angibt, wie viel
der Warenkorb der Berichtsperiode zu Preisen der Basisperiode gekostet htte. Er
gibt somit an, wie sich das Preisniveau gendert htte, wenn das in der Berichtsperiode gltige Verbrauchsschema unverndert in der Basisperiode Gltigkeit htte.
Zusammenfassend wird der Preisindex nach Paasche also anders als der Index
nach Laspeyres nicht nur von Preis- sondern auch von Mengennderungen beeinflusst. Trotz der greren Aktualitt der Gewichtungen neigt auch er bei Substitutionsprozessen oder vernderten Verbrauchsgewohnheiten zu verzerrten Messungen.
Da ihm die Fiktion zugrunde liegt, dass die Wirtschaftssubjekte die nach dem Angebots- oder Nachfrageschock verbrauchten Gter auch in der Basiszeit (also vor
dem Angebots- oder Nachfrageschock) verbraucht haben, kann der Index die Preissteigerung ebenso unter- oder berschtzen. Zudem ist nachteilig, dass die Ver-

brauchsgewohnheiten in jedem Berichtsjahr neu erhoben werden mssen, womit


Kosten verbunden sind. Gerade daher sind die meisten Preisindizes in der Praxis
vom Laspeyres-Typ.
4.2.1.4

Weitere Preisindizes

Wie wir gesehen haben, kann es bei Substitutionsprozessen oder vernderten

Verbrauchsgewohnheiten bei den Preisindizes nach Laspeyres und Paasche zur


Unter- oder berschtzung der Preissteigerungen kommen. Dies hat zur Entwicklung weiterer Indizes gefhrt, von denen jedoch einzig der Preisindex nach Drobisch und der Fishersche Idealindex in der Praxis Beachtung gefunden haben.
Der Preisindex nach Drobisch ist lediglich das arithmetische Mittel aus den
Preisindizes nach Laspeyres und Paasche.
Dr

PO.I =

L
PO,t

+ PO,t
2

(14: 15)

4. Messzahlen und Indizes

119

Der FIshersche Idealindex ist das geometrische Mittel der Preisindizes nach
Laspeyres und nach Paasche.
Pi

PO,t

~ L
P
PO,t' PO,t

(14: 16)

Daruber hinaus existiert eine Vielzahl weiterer Indexkonstrukte, die jedoch nahezu

keine praktische Bedeutung besitzen. Zu diesen zhlt z.B. der Marshall-EdgeworthIndex, der transferierte Mengen benutzt, die sich als Durchschnitt (arithmetisch
oder geometrisch) der Verbrauchsmengen der Basis- und der Berichtsperiode ergeben. Der Preisindex nach Lowe verwendet transferierte Mengen, die sich als arithmetisches Mittel aller beobachteten Mengen zwischen Basis- und Berichtsperiode
ergeben. 2
In der Praxis multiplizieren wir Indexwerte hufig mit dem Faktor 100. Dies erlaubt
uns eine hnliche Intetpretation, wie wir sie bei einer Preismesszahl vornehmen
knnen. Der Wert eines Index in der Basisperiode ist nmlich wie der einer Mess-

zahl in der Basisperiode immer 1 bzw. 100. Hier ist es jedoch die Preisentwicklung
einer Gtergruppe, die wir untersuchen.
Beispiel I 4-4

Preisindizes im berblick

Gegeben sei folgendes Datenmaterial:


Gut
i
1
2
3

2003

2004

!1

3
4
5

5
7
9

!1

2
5
8

2005

10
12
11

!1

2
6
8

2006

10
11
15

!1

1
13
17

10
9
16

Berechnen wir nun daraus die bisher behandelten Preisindizes, wobei wir 2003 als Basisund 2006 als Berichtsjahr verwenden:
L
15+137+179
P"".2000 = 3.5+4.7+5.9

P..".2OOB

= 110+139+1716
3.10+4.9+5.16

249=28295
88
'
399 =27329
146
'

P~".2000 = 0,5 (2,8295+2, 7329) = 2, 7812

P:~".""" = ,j2, 8295 2,7329 - 2, 7808


Betrachten wir den Preisindex nach Laspeyres, so erhalten wir aus diesen nach Multiplikation mit 100 den Wert 282,95. Wir knnen damit sagen, dass im gesamten Zeitraum 2003
bis 2006 die Preise der drei GOter durchschnittlich um (282,95 - 100) % = 182,95 % gestiegen sind. Interessieren wir uns fOr die durchschnittliche Preisnderung zwischen 2005
und 2006, so knnen wir diese nach Berechnung des Index Pioo,.2006 = 1,4091 bzw. des
Wertes 140,91 wie folgt angeben:

2 Schira, J. (2009) gibt einen detaillierten berblick ber diese und andere Preisindizes.

I Deskriptive Statistik

120
282,95-140,91. 100 % = 100 80 %
140,91
'
4.2.1.5

Preisindexreihen und Inflationsmessung

In der Praxis ermitteln wir Preisindizes in der Regel nicht nur fr eine, sondern fr
mehrere aufeinanderfolgende Berichtsperioden t = I, 2, 3, ... Die Folge von dabei
entstehenden Indexwerten bezeichnen wir als Indexreihe. Sie hat die Gestalt
(Po,o =

0, PO,l' PO,2' ,PO,I, .. ,PO,T .

04: 17)

Aus derartigen Indexreihen lassen sich, wie wir bereits in Beispiel I 4-4 gesehen
haben, durchschnittliche Preissteigerungsraten berechnen. Wir bezeichnen diese in
der Praxis auch als Inflationsraten. Unter Inflation verstehen wir allgemein einen
kontinuierlichen Anstieg des Preisniveaus bzw. einen anhaltenden Rckgang der
Kaufkraft. Die Inflationsrate lt, bzw. die prozentuale Preisnderung fr den gesamten Zeitraum von der Basispertode 0 bis zur Berlchtspertode t kann allgemein als
7l,

= (Po" -1). 100 %

(14: 18)

bestimmt werden. Wurden die Indexformeln um ein "mal 100" ergnzt, so ergibt
sich die Inflationsrate als 7l. = (Po. - 100) %.
Die Inflationsrate zwischen zwei unterschiedlichen Perioden t und t' mit t' < t bestimmt sich als
1t,

= Po., - Po.... 100% = (po" - 1) . 100% .


PO,t'

(14: 19)

PO,t'

Von Deflation sprechen wir bei einem kontinuierlichen Rckgang des Preisniveaus bzw. einer anhaltenden Steigerung der Kaufkraft. Die Inflationsrate wre in
einem solchen Fall also negativ. Des Weiteren wird hufig der Begriff der Disinflation gebraucht. Dabei handelt es sich um eine Phase noch positiver, jedoch rcklufiger Inflationsraten.
Gemessen wird die Inflation in Deutschland anhand des VerbraucherpreIsindex
(YPI, vgl. Abschnitt I 4.2.5.1), der vom Statistischen Bundesamt berechnet wird. Mit
diesem Index lsst sich zwar nur ein Teil der gesamtwirtschaftlichen Preisentwicklung abbilden, doch da die private Bedrfnisbeftiedigung als finaler Zweck des
Wirtschaftens gilt, ist eine Verwendung dieses Index dennoch zweckmig. Im Eurosystem bezieht sich das Interesse vornehmlich auf den sog. Harmonisierten
Verbraucherpretsindex (HVPI, vgl. Abschnitt I 4.2.5.2), welcher vom Statistischen
Amt der EU berechnet wird. Beide Indizes sind vom Laspeyres-Typ. Wie wir bereits
wissen, wird bei einer derartigen Indexberechnung unterstellt, dass sich die
Verbrauchsgewohnheiten der Konsumenten ber einen mehr oder weniger langen
Zeitraum nicht verndern. Ein Warenkorb ist bei seiner Einfhrung normalerweise
bereits vier Jahre, bei seiner Ablsung neun Jahre alt. Dieses lange Festhalten an
einem Warenkorb impliziert eine Reihe von Fehlerquellen bei der Inflations-

messung: 3

3 Vgl. Grgens et al. (2008).

4. Messzahlen und Indizes

121

product Substitution Bias


Die Tatsache, dass relativ teurer gewordene Gter von den Haushalten weniger
nacbgefragt werden, kann mit einem fixen Warenkorb nicbt erfasst werden.
Quality Change Bias
Qualittsverbesserungen werden nur unzureicbend aus den Preiserhhungen
herausgerechnet. Dies liegt vor allem daran, dass Qualittsvernderungen bei
gewissen Gtern und Dienstleistungen nur uerst scbwer auszumachen sind.
New Product Bias

Neue Produkte, deren Preise in der Regel nacb Markteinfhrung fallen, werden
oft erst mit einer Verzgerung von mehreren Jahren in die Preisbeobachtung
einbezogen. Ein Warenkorb, der die neuen Produkte nicht einbezieht, ber-

zeichnet also die Teuerung.


Outlet Substitution Bias
Basiert der Preisindex auf einer festen Auswahl von Berichtsstellen, die die
Preise der im Warenkorb enthaltenen Gter an das statistiscbe Bundesamt melden, knnen Strukturnderungen im Handel, die zu gnstigeren Einkaufsmg-

licbkeiten fr die Haushalte fhren, nur unzureicbend bercksichtigt werden.


Insgesamt kommt es durch diese Probleme Ld.R. zu einer systematischen bertreibung der tatschlichen Inflationsrate. Dies hat zur Konsequenz, dass das reale
Wachstum der Volkswirtschaft insgesamt, aber aucb etwa die reale Zunahme der
verfgbaren Haushaltseinkommen unterschtzt wird (vgl. Abschnitt I 4.2.1.6). Auch
Leistungen, die an den Verbraucherpreisindex gekoppelt sind, fallen zu hoch aus.
4.2.1.6

Preisbereinigung und reale Gren

Grundstzlicb wird in der Wirtschaftstheorie zwischen nominalen und realen Gren unterschieden. Die Ermittlung eines nominalen Wertaggregates zur Bericbtszeit
t stellt in der Regel kein Problem dar. Ein solches ist definiert als
nominales Wertaggregat =

L p~1) . q~l) =
n

Wt,t .

(14: 20)

1_1

Da reale Gren streng genommen in physischen Mengeneinheiten gemessen werden sollten, dies aber in der Praxis oftmals nicht mglich oder sinnvoll ist, behelfen
wir uns in der Statistik durch die Approximation
n

reales Wertaggregat s=I LP~i) q~i) = Wo,t'


i_ I

(14: 21)

Der Quotient aus nominaler und approximativ ermittelter realer Gre ergibt, wie
unschwer zu erkennen ist, einen Preisindex nach Paasche:
nominales Wertaggregat

Wt,t _

reales Wertaggregat

0,1

W.

P
-PO,t

(14: 22)

Durch Umformung und Verallgemeinerung dieses Zusammenhangs (14: 22) lsst


sich zeigen, dass eine preisbereinigte oder deflationierte Gre durch Division ei-

122

I Deskriptive Statistik

ner nominalen Gre durch einen entsprechenden Preisindex ennittelt werden


kann. Diese bereinigte Gre ist dann eine gute Approximation fr die reale Gre.

w.=~
0,'

(14: 23)

PO,t

Der dabei verwendete Preisindex sollte genau auf das Aggregat zugeschnitten sein,
Finden wir keinen Index, der diese Bedingung erfllt, so kann hilfsweise ein anderer Index verwendet werden, der diesem am nchsten kommt.

Beispiel I 4-5

BIP-Deflator

Angenommen eine Volkswirtschaft produziert nur die 2 Gter Computer und Autos, Unter
Verwendung der Daten nachfolgender Tabelle sollen fOr das Jahr 2005 zunchst das
nominale und das reale BIP (Bruttoinlandsprodukt) ermittelt werden,
Jahr

Computerpreis
(in Euro)

2000
2005

10.000
2,000

Verkaufte Computer
(in Stck)

Autopreis
(in Euro)

Verkaufte Autos
(in StOck)

15.000
25,000

1.000.000
1,500,000

200.000
1.500,000

Damit ergeben sich folgende nominale und reale Gren:


BIP;:; = 2,0001,500,000 + 25,0001,500,000 = 40,500,000,000
BIP,':', = 10.000 1.500.000+15.0001.500.000 = 37.500.000.000
Aus diesen kann Ober (14: 22) ein Inflationsrna abgeleitet werden, das in der Praxis auch
als BIP-Deflator bezeichnet wird. Dieser ergibt sich als
BIP-Deflator = BIP~~ = 40.500.000.000
BIP2006 37,500,000,000

1,08

und gibt in diesem Beispiel Auskunft darber, dass die Inflationsrate fr den gesamten Betrachtungszeitraum bei 8 % lag.

Beispiel I 4-6

Preisbereinigung

Der Zusammenhang (14: 23) wird in der Praxis hufig dazu genutzt aus einem nominalen
Index durch Preisbereinigung einen realen Index zu gewinnen, Typisches Beispiel hierffir
ist der reale Lohn- und Gehaltsindex, der sich als
Realer Lohn- und Gehaltsindex = Nominaler Lohn- und Gehaltsindex ,100
Verbraucherpreisindex (VPI)
ergibt. Wichtig ist dabei, dass sich die eingesetzten Werte auf dieselbe Basis beziehen.
Welchen Sinn nun eine solche Preisbereinigung macht, wollen wir durch ein einfaches
Zahlenbeispiel verdeutlichen:
Jahr

2004 (Basis)
2005

Lohn- und Gehaltsindex


nominal

VPI

Lohn- und Gehaltsindex


real

100,0
101,5

100,0
102,0

100,0
99,5

4. Messzahlen und Indizes

123

Wird nur die nominale Lohn- und Gehaltsentwicklung betrachtet, knnte die Aussage gemacht werden, dass es von 2004 bis 2005 zu einer Lohn- und Gehaltserhhung von 1,5 %
gekommen ist. Wird aber die gleichzeitige Preiserhhung von 2,0 % in die Betrachtung
einbezogen, so stellen wir real eine Lohn- und Gehaltsabnahme von 0,5 % fest. Wir sagen
auch, dass die Kaufkraft der Einkommen gesunken ist.

4.2.1.7

Interregionale Kaufkraftvergleiche

Die bisher behandelten Preisindizes dienten dem intertemporalen Kaufkraftvergleich. Ein Anstieg des Preisindex bedeutete hier bei gleichzeitiger Konstanz oder
Abnahme des nominalen Einkommens einen Verlust an Kaufkraft. Neben diesem
zeitlichen Vergleich kann nun aber auch ein Vergleich zwischen Lndern mit verschiedenen Whrungen von Interesse sein. Im Folgenden widmen wir uns dazu
einem stark vereinfachten Modell des bilateralen Kaufkraftvergleichs Cd.h. zwischen
nur zwei Lndern), um die Grundidee dieses Konzepts zu verdeutlichen. Wie bei
allen Kaufkraftvergleichen sollen auch in diesem vereinfachten Modell nur die Preise der fr die Lebenshaltung relevanten Gter betrachtet werden.
Bevor auf ein konkretes Beispiel eingegangen wird, mssen wir zunchst einige
grundlegende Begriffe aus dem Bereich Auenhandel klren: Bei nominalen
Wechselkursen, welche den relativen Preis zweier Whrungen beschreiben, ist
zwischen sog. Preis- und Mengennotierung zu unterscheiden. Von Preisnotiernng
sprechen wir, wenn wir zum Ausdruck bringen, wie viele Euro wir z.B. fr einen
US-Dollar aufwenden mssen (1 $ - e ). Im Falle der Mengennotierung interessieren wir uns hingegen dafr, wie viele US-Dollar wir fr einen Euro erhalten (1 e' $). Je nachdem welche Notierung betrachtet wird, kommt es bei nderungen
von e bzw. e' zu Auf- oder Abwertung der betrachteten Whrungen.
Notierung
Preis

Beispiel
l$-e

Menge

1 - e' $

Vernderung

Wert des

Wert des $

e t
e ~
e' t
e' ~

t
t

~
~

Beide Notierungen stehen in der Beziehung


1
e=e'

bzw.

ee'=1.

Wichtig wird im folgenden Beispiel vor allem die Mengennotierung sein.

Beispiel 14-7

Kaufkraftindizes

Es soll ein Kaufkraftvergleich zwischen Deutschland (D) und den Vereinigten Staaten
(USA) durchgefhrt werden. Dies erfolgt in zwei Schritten. Zunchst wird die sog. KaufkraftparitAI ("Purchasing Power Parity", PPP, vom Statistischen Bundesamt auch als

124

I Deskriptive Statistik
Verbrauchergeldparitt bezeichnet) ermittelt. Es handelt sich dabei u.a. um einen Korrekturfaktor, der volkswirtschaftliche Gren (z.B. das Bruttoinlandsprodukt) international vergleichbar machen soll. Eine bloe Umrechnung mit aktuellen Wechselkursen wre nicht
genau, da die Kaufkraft in unterschiedlichen Whrungsrumen oft unterschiedlich stark ist
und dieser Sachverhalt (Ober die PPP) bei der Umrechnung bercksichtigt werden muss.
Ist die PPP ermittelt, wird sie zusammen mit dem Devisenkurs benutzt um einen Index fr
die Kaufkraft aufzustellen.
1. Schritt: Ermittlung der Kaufkraftparitt
Im Folgenden wollen wir drei Mglichkeiten der Bestimmung der PPP betrachten.
a) Deutsche Sicht:
Wert des deutschen Standardwarenkorbes in USA
Wert des deutschen Standardwarenkorbes in D

PPPDUSA

Der deutsche Standardwarenkorb ist dabei eine reprsentative GOterauswahl und Verbrauchsstruktur fOr die privaten Haushalte in Deutschland. Angenommen der deutsche
Standardwarenkorb koste in Deutschland 1.500 und in den Vereinigten Staaten
1.700 $, so ergibt sich
PPPDUSA

1.700$
1.500

1,1333 $I ,

was eine Kaufkraftparitt von 1 = 1,1333 $ bzw. 1 $ = 0,8824 (Kehrwert) liefert.


b) Amerikanische Sicht:
PPP
USA.D

Wert des amerik. Standardwarenkorbes in D


Wert des amerik. Standardwarenkorbes in USA

"
Lpgl.q3k
1_1

"
~p(l)
'q(l)
L.J USA USA
1_1

Der amerikanische Standardwarenkorb ist dabei eine reprsentative GOterauswahl und


Verbrauchsstruktur fr die privaten Haushalte in den Vereinigten Staaten. Angenommen der amerikanische Standardwarenkorb koste in den Vereinigten Staaten 1.300 $
und in Deutschland 1.400 , so ergibt sich
PPP

USA.D

= 1.400 1 0769 /$
1.300 $ '
,

was zu einer Kaufkraftparitt von 1 $ = 1,0769 bzw. 1 = 0,9286 $ (Kehrwert) fOhrt.


c) Durchschnittliche PPP:
Zur Ermittlung einer durchschnittlichen PPP empfiehlt sich die Berechnung des geometrischen Mittels (Fisherscher Idealindex) der unter a) und b) ermittelten Werte, d.h.
1 $=,,10,8824.1,0769 =O,9748
oder gleichbedeutend
1 =,jl,13330,9286 $=1,0259 $.
Es ist wichtig, dass diese ermittelten Kaufkraftparitten in der Regel nicht mit dem Wechselkurs bereinstimmen, da fOr diesen nicht nur die Verbraucherpreise sondern auch andere Faktoren wie z.B. Import- und ExportgOterpreise oder Zinsstze mageblich sind.
2. Schritt: Ermittlung des Index fr die Kaufkraft

4. Messzahlen und Indizes

125

Kaufkraftparitten sind grundstzlich nur dann aussagekrftig, wenn der (aktuelle) Wechselkurs bekannt ist. Im Folgenden soll die Kaufkraft des Euro in den USA an hand eines
geeigneten Index untersucht werden. Wir wollen dafr den folgenden Index verwenden,
der sich der Mengennotierung bedient:
Devisenkurs

Index fOr die Kaufkraft des Euro in den USA

Kaufkraftparitt

Hier stellt sich nun die Frage, welche Kaufkraftparitt (a oder b) in diese Formel eingesetzt
werden soll. Betrachten wir als Zielgruppe Deutsche, die in die USA gezogen sind und ihre
deutschen Verbrauchsgewohnheiten beibehalten, so gelten fOr diese die unter a) ermittelten Werte. Unter der Annahme, der koste 1,1629 $ (Devisenkurs in Mengennotierung),
so ergibt sich der Indexwert
Index fr die Kaufkraft des Euro in den USA =

:::~~~ :~:

1,0261.

Da die Kaufkraft des Euro in Deutschland gleich 1 ist (Basiswert des Index), bedeutet dieses Ergebnis, dass der "Kaufkraftvorteil" des Euro in den USA 2,61 % betrgt. Ein steigender Wechselkurs (Mengennotierung) bedeutet also in einer solchen Kaufkraftparittensituation einen Kaufkraftgewinn (mehr $ fOr einen ), ein sinkender Wechselkurs einen Kaufkraftverlust (weniger $ fur einen ) des Euro in den Vereinigten Staaten.

4-2_1.8

Umbasierung und Verknpfung

Stehen wir vor der Aufgabe einen bestimmten Index von der alten Indexbasis auf
eine neue Indexbasis umzustellen, sprechen wir von Umbasierung. Dieses verfahren wollen wir direkt anhand eines einfachen Beispiels erlutern:
Beispiel I 4-8

Umbasierung von Preisindizes

Fr die Jahre 2003 bis 2006 seien fur einen Konsumentenpreisindex folgende (bereits mit
100 multiplizierte) Indexwerte zur Basis 2003 bekannt:
Jahrt
Index P2003,t

2003
100

2004
103

2005
102

2006
105

Als neue Basis soll nun das Jahr 2005 dienen und eine entsprechende Umbasierung vorgenommen werden. Die Ermittlung der neuen Indexwerte P2005,t erfolgt dabei ber
P2005,t

P2003"

.100,

P2003,2005

d.h. durch Division aller Indexwerte zur alten Basis durch den Indexwert des neuen Basisjahres zur alten Basis. Wir knnen so fr t = 2004 beispielsweise
P20D5,2004

= P2003,2004 .100 = 103,00. 100 = 10098


P

2003,2005

102, 00

'

bestimmen. Die gesamte neue Indexreihe hat damit folgendes Aussehen:


Jahr!
Index

P2005,t

2003
98,04

2004
100,98

2005
100,00

2006
102,94

126

I Deskriptive Statistik
Wir erkennen deutlich, dass die Vorgehensweise bei der Umbasierung dieser Indexwerte
identisch ist mit der bei der Umbasierung von Messzahlen (vgl. Abschnitt I 4,1),

Bei Indexreihen, denen ein konstantes Gewichtungsschema zugrunde liegt, wird


dieses im Allgemeinen im Laufe der Zeit an Aktualitt einben (Vernderung der
Verbrauchsgewohnheiten, Qualittsverbesserungen, neue Gter, usw.) und muss
durch ein neues ersetzt werden. Beim Preisindex nach Laspeyres wird dazu einfach

der Warenkorb der Basisperiode durch einen aktuelleren Warenkorb ersetzt. Wir
sprechen dabei auch von einer Neubaslernng des Index. Sind wir allerdings an der
Preisentwicklung ber einen lngeren Zeitraum interessiert, mssen wir den neuen

Index (aktuellerer Warenkorb) mit dem alten Index (veralteter warenkorb) verknpfen. Wir werden sehen, dass dazu lediglich Umbasierungen notwendig sind.
Betrachten wir folgende Situation:
Es sind zwei Preisindexreihen

PO,O' PO,I' ... , Po,.

mit

PO,O = 1

P.,,,P.,HI, ... ,P.,T

mit

Ps,s ; ; ; 1

mit den Basen t = 0 und t = s gegeben. Der Preisindex wurde also zunchst zur
Basiszeit t = 0 berechnet, im Zeitpunkt t = s erfolgte dann eine Neubasierung.
Wir erhalten eine verknpfte Indexreihe zur Basiszeit t
p' _ {Po"
O,t -

wobei die Werte fr

t =

= 0

ber

fr t = O,l, ... ,s -1
fr t=s,S+l, ...

04: 24)

,:J'

PO,s 'Ps,t

s, s + 1, ... ,T umbasierte Indexzahlen sind. Alternativerhal-

ten wir gem


-Po"

..

Pat

f' r t = 01
, , ... ,8- 1

04: 25)

PO,s

Pa,t

fr t=s,s+l, ... ,T

die verknpfte Indexreihe zur Basis t


umbasierte Indexzablen sind.

s, wobei nun die Werte fr t

0, 1, ... ,s-l

Wichtig ist in diesem Zusammenhang, dass umbasierte Indexzahlen nicht vom


selben Indextyp wie der Ausgangsindex sein mssen. Dies gUt insbesondere fr
Indizes vom Laspeyres-, Paasche- und Fisher-Typ. Beim Preisindex nach Laspeyres
erkennt man das leicht daran, dass der Warenkorb nicht ber dem gesamten Be-

trachtungszeitraum konstant bleibt. Die Umbasierung liefert nur einen Nherungswert fr den Ausgangsindex.

Beispiel I 4-9

VerknOpfung von Preisindizes

Ein Index (vgl, folgende Tabelle), der bisher zur Basis 1999 gefhrt wurde (Spalte 2), wird
im Jahr 2003 mit der neuen Basis 2003 fortgefhrt (Spalte 3). Wollen wir nun die Preisent-

127

4. Messzahlen und Indizes

wicklung von 1999 bis 2006 in einer einzigen Indexreihe zusammenfassen, so bieten sich
zur VerknOpiung des alten mit dem neuen Index zwei MOglichkeiten: a) FortfOhrung des
alten Index und b) ROckrechnung des neuen Index. Hierbei wird unterstellt, dass sich der
neue Index in der Vergangenheit proportional zum alten Index entwickelt hat bzw. dass
sich der alte Index in der Zukunft proportional zum neuen Index entwickelt.
Jahr
1

1999

2000
2001

2002
2003

originale Indexreihen
P11111111

100,00

verknOpfie Indexreihen

0Zm1

P11111111

101,00
102,00

104,00

108,00

2004
2005

100,00
102,00
103,00

107,00

2006

E?2oo31

100,00

94,43

101,00
102,00
104,00
106,00

96,23
98,11

95,28

100,00

108,12
109,18
113,42

102,00
103,00

107,00

.)

b)

Zur FortfOhrung und ROc:krechnung knnen wir nun auf die Erkennb1isse aus (14: 24) und
(14: 25) zurOckgreifen. Wir knnen daraus nmlich zwei Faktoren ableiten, die sich aus den
Indexwerten der Oberlappenden Periode (2003) ergeben. Diese berechnen wir, wie folgt:
Fortfhrungsfaktor F

Pll..,acm

Paoa.zooa

ROckrechnungsfakior R

106,00
100,00

1,06

100, 00
106,00

0,9434

Die Ennittlung der fortgefOhrten Werte erfolgt nun durch Multiplikation der Werte des neuen Index mit dem Faktor F. Die zurOckgerechneten Werte ergeben sich durch Multiplikation
der Werte des alten Index mit dem Faktor R. FOr das Jahr 2002 ergibt sich so z.B. der
rOckgerechnete Wert 104,00 . 0,9343 '" 98,11 und ffir das Jahr 2006 der fortgefOhrte Wert
107,00 . 1,06 '" 113,42. Alle anderen Werte lassen sich analog ermitteln und sind in obiger
Tabelle kursiv dargestellt

4,2,2

Mengenindizes

Die Bausteine von Mengenindizes (auch als Volwnenindizes bezeichnet) sind die
Mengenmesszahlen
~
q~1)

q~1)

der n im Index enthaltenen Gter. Gewichten wir diese mit den von Laspeyres und
Paasche vorgeschlagenen Wgungsschemata, dann erhalten wir durch Aggregation
der gewichteten Messzahlen die Mengenindizes nach Laspeyres und Paasche. Sie
erlauben uns Aussagen ber dun:bscbnittlicbe Mengenentwicklung zwischen Basisund Berichtsperiode .
Den Meogenind.o:: nach Laspeyrcs erhalten wir in seiner Aggregatfonn zu

128

I Deskriptive Statistik

(14: 26)

Im liegt die Fiktion zugrunde, dass die in der Basisperiode vorherrschenden Preise

unverndert auch in der Berichtsperiode gelten. Der Index spiegelt somit eine reine
Mengenentwicklung wider.

Die Aggregatform des Mengenindex nach Paasche ergibt sich zu

:tp~1) . q~O
P

qO,t ;;;;;;

1=1

":n:'---LP~o. q~O

(14: 27)

1_'

Er unterstellt, dass die in der Berichtsperiode vorherrschenden Preise auch bereits

in der Basisperiode Gltigkeit hatten. Von Periode zu Periode der Indexberechnung werden neue Preise verwendet, was im Vergleich zum Index nach Laspeyres
eine grere Aktualitt gewhrleistet.
Die im Abschnitt I 4.2.1.4 behandelten weiteren Formen von Preisindizes knnen
wir analog auch auf Mengenindizes bertragen. So ergibt sich etwa der Mengenindex nach Fisher als geometrisches Mittel der Mengenindizes nach Laspeyres und
Paasche. Unsere Ausfhrungen zur Umbasierung und Verknpfung unter I 4.2.1.8
knnen wir auerdem bertragen.
Wichtige von der amtlichen Statistik verffentlichte Mengenindizes sind etwa der
Index der industriellen Nettoproduktion und der Index des Aujtragseingangs im
Baubauptgewerbe. Ersterer liefert Informationen ber die Entwicklung und die
Situation im produzierenden Gewerbe. Zweiterer gibt Auskunft ber das Volumen
der zu errichteten Bauwerke bzw. die Vernderung dieses Volumens im Zeitablauf.
Beispiel I 4-10

Mengenindizes

Gegeben sei folgende Arbeitstabelle, die sich auch bei der Berechnung von Preis- und
Wertindizes als uerst hilfreich erweisen kann. Aus dieser sollen die Mengenindizes nach
Laspeyres und Paasche berechnet werden.
Gut
i

1
2
3
~

Basiszeit
qo
Po

4
5
6

10
12
14

Berichtszeit
p,
q,

7
9
9

4
7
3

Wo.o
Po qo

W1,1

W1,O

WO,1

p,.q,

p,qo

Po .q,

40
60
84
184

28
63
27
118

70
108
126
304

16
35
18
69

Die Mengenindizes belaufen sich damit auf


L
69
q01 =-100=37,50
, 184

und

4. Messzahlen und Indizes

129

q~, = ~: 100=38,82.
Da die Basis beider Mengenindizes bei 100 liegt, kam es zwischen Basis- und Berichtsperiode zu durchschnittlichen MengenAnderungen von (37,50 - 100) % '" --62,50 % bzw.
(38,82 - 100) % '" --61,18 %, d.h. zu einem starken Mengenrllckgang.

4.2.3

Wertindex

Soll die Vernderung des warenkorbwerts zwischen Basis- und Berichtszeit erfasst n
werden, wird der sog. wertIndcI. (auch Umsatzindex genannt) herangezogen. ~
Dieser ist in 04: 28) als Verhltnis aus Warenkorbwert der Berichtszeit und Warenkorbwert der Basiszeit definiert. Er stellt jedoch genau genommen keinen echten
Index dar, da er nur die Entwicklung des Wertaggregates W widerspiegelt. Er ist
daher eine reine Messzahl.

Wir knnen leicht zeigen, dass sich der Umsatzindex auch wie folgt aus Indizes
vom Laspeyres-, Paasche- und Fisher-Typ bestimmen lsst:
u-~I'_P~

0,1 - PO,I qo,l - PO,I qO,1

_pli

0,1 -

0,1'

qll

0,1

Es gilt aber
c

und

uo" '# Po" 'qo"

Whrend also die Fisher-Indizes die sog. Faktorumkebrprobe (Wert - Menge Preis)
bestehen, scheitern die Indizes vom Laspeyres- und Paasche-Typ.
Beispiel I 411

Umsatzindex

Folgende Tabelle spiegelt die Umsatzentwicklung eines Unternehmens von 2003 bis 2006
wider und zeigt den dazugehrigen Urnsalzindex zur Basis 2004.
Jahr
Umsatz (p . q) in Mio. Euro
Umsatzindex

2002
55.000
110.00

2003
40.000
80.00

2004
50.000
100.00

2005
80.000
120.00

2006
65.000
130.00

Der Wertindex des Jahres 2006 zur Basis 2004 ergab sich darin z.B. als
UIOD4,1OOI

65.000
50.000 100 - 130,00,

was eine Umsalzsteigerung von (130 -100)% '" 30% irn Zeitraum 2004 bis 2006 aufzeigt.

130

I Deskriptive Statistik

4.2.4

Wichtige Indizes aus der Wirtschaftspraxis

4.2.4.1

Verbraucherpreisindel (VPI)

Vom Statistischen Bundesamt wird regelmig und aktuell eine Vielzahl verschiedener Preisindizes berechnet, die detailliert Preisentwicklungen auf branchen- oder
gesamtwirtschaftlicher Ebene messen. Der vor dem Jahr 2000 als "Preisindex fr die
Lebenshaltung aller privaten Haushalten bezeichnete Verbraucherprei.sindex (VPI)
ist ein wesentlicher Bestandteil des preisstatistischen Berichtssystems in Deutschland, zu dem u.a. auch der Index der EinzelhandeIspreise, Indizes der Ein- und
Ausfuhrpreise, der Index fr Erzeugerpreise gewerblicher Produkte, der Preisindex
fr Bauwerke, der Erzeugerpreisindex fr land- und forstwirtschaftllche Produkte
und der Index fr Grohandelsverkaufspreise gehren. Da der private Konsum der
dominante Zweck des Wtrtschaftens ist, ist der VPI in Deutschland
ein Indikator fr die Beurteilung der Geldwertstabilitt und wird als InjIatIonsmastab verwendet. Aus diesem Grund wird seine Vernderungsrate oft
als Inflationsrate bezeichnet (vgl. Abschnitt I 4.2.1.5).
Grundlage fr die Deflationierung von Wertgten der volkswirlschaftlichen
Gesamtrechnung, z.B. zur Berechnung der realen Lohn- und Gehaltssummen
(vgl. Abschnitt I 4.2.1.6).
Anker zur Wertsicherung wiederkehrender Zahlungen in Werlstcherungsklausein (z.B. Realzinsgarantie bei Zertifikaten) in lngerfristigen Vertrgen.
Der VPI misst die durchschnittliche Pretsvernderung aUer Waren und Dienstleistungen, die von Privaten Haushalten zu Konsumzwecken gekauft werden. Bercksichtigt werden dabei Gter des tglichen Bedarfs (z.B. Lebensmittel, Bekleidung),
Mieten und langlebige Gebrauchsgter (z.B. Kraftfahrzeuge, Khlschrnke) und
Dienstleistungen (z.B. Friseur, Reinigung, Versicherungen). Damit ist sichergestellt,
dass der Index: Preisvernderungen umfassend abbildet. Die Indexwerte werden
monatlich ermittelt und verffentlicht. Das aktuelle Basisjahr ist 2005.
Wie fast alle bedeutsamen Indizes des preisstatistischen Berichtssystem.s ist der VPI
ein Pretstndex nach Laspeyres. Er beschreibt die reinen Preisnderungen eines hinsichtlich Gterauswahl und zugehriger Verbrauchsmengen konstanten Warenkaros im Zeitverlauf, der rund 700 Waren und Dienstleistungen als sog. Preisreprlisentanten enthlt. Diese werden funktional in 12 Ableilungen gegliedert, fr die
jeweils Teilindizes ermittelt werden. Diese Abteilungsindizes gehen aktuell, d.h. mit
Basisjahr 2005, mit den folgenden Gewichten (in Promille) in den VPI ein:
2

3
4

6
7
8
9
10

11
12

Nahrungsmittel und alkoholfreie Getrnke


Alkoholische Getrnke und Tabakwaren
Bekleidung und Schuhe
Wohnung, Wasser, Strom, Gas und andere Brennstoffe
Einrichtungsgegenstnde u.. fr den Haushalt und deren Instandhahung
Gesundheitspflege
Verkehr
NachrichtenObenruttlung
Freizeit, Unterhaltung und Kultur
Blldungswesen
BeheIDergungs und Gaststlittendienstleistungen
Andere Waren und Dienstleistungen

103,55

38,99

48,88
308,00
55,87
40,27

131,90
31,00

115,68
7,40
43,99
74,47

4. Messzahlen und Indizes

131

Bezeichnen wir die einzelnen Abteilungsindizes mit P~t(j) und ihre Gewichte mit

gCfl mit j = 1,2, ... ,12, ennittelt sich also der Gesamtindex formal nach
12

VPILO,t = ""
pL Cil . gCil
~ O,t

12

mit

j- l

Lg Cil = 1.
j-l

Die Gewichte gCil geben fr die einzelnen Abteilungen die Ausgabenanteile an den
Gesamtausgaben der Basisperiode an. Sind im Gesamtindex also insgesamt n Gter
und in den Abteilungen n, Gter bercksichtigt, so ergeben sich die Gewichte zu

tp~k) . q~k)
g(j) ;;;;;;

k:l

mit

Lp~1) . q~l)
1.1

Beispiel I 4-12

Unbekannte Abteilungsgewichtung

Sind in einer Verffentlichung Indexwerte /Ur das Gesamtaggregat sowie fur Abteilungen
gegeben, nicht aber die Gewichte, so lassen sich die Gewichte dennoch eindeutig bestimmen. Zur Veranschaulichung der Vorgehensweise betrachten wir einen LaspeyresPreisindex, der aus nur drei Abteilungen bestehe und /Ur den zu den Berichtszeiten t = 1, 2
bei einer Basiszeit t = 0 folgende Indexwerte vorliegen:
L (1)

L {3l

L (2)

P0,1

P0,1

P0,1

PO,I

110
120

120
130

140
150

126
136

Die (zunchst unbekannten) Gewichte g(1) = 0,2, g(2) = 0,4 und g(3) = 0,4 erhalten wir aus
dem gegebenen Datenmaterial durch Lsung des Gleichungssystems
110 g(1) +1201f2) +140g(3) = 126
120, g(1) + 130, If') + 150g(3) = 136
g(l)

g(S'

= 1 .

Zur Berechnung des VPI werden fr die reprsentativen Gter reprsentative Preise
bentigt. Preise variieren nun jedoch von Ort zu Ort und von Anbieter zu Anbieter,
nicht zuletzt aufgrund unterschiedlicher Qualitt. Um einen reprsentativen Preis zu
erhalten mssen daher viele Preise je Preisreprsentant erhoben werden, um daraus einen "typischen" Preis fr ein Gut "mittlerer" Qualitt bei einem "typischen"
Anbieter bestimmen zu knnen. Rund 600 PreisennittIer erfassen dazu in 188 Stdten und Gemeinden Monat fr Monat Preise der gleichen Produkte in den gleichen
Geschften. Zustzlich werden fr viele Gterarten Preise zentral erhoben (z.B.
ber das Internet). Insgesamt werden so ber 300.000 Einzelpreise erfasst. Die Einzeldaten werden dann zu gewogenen Durchschnittspreisen fr die Preisreprsentanten verdichtet, die schlielich in die Indexberechnung eingehen.
Die Bestimmung des reprsentativen Warenkorbs (Gter und deren Gewicht) erfolgt auf Basis der Ausgaben der privaten Haushalte fr Waren und Dienstleistungen. Diese Ausgaben werden in Haushaltsbefragungen auf Stichprobenbasis erhoben. In Deutschland zeichnen rund 60.000 Teilnehmer freiwillig einige Monate lang

I Deskriptive Statistik

132

ihre Einnahmen und Ausgaben im Rahmen der sog. Einkommens- und Verbrauchsstichprobe (EVS) auf. Zusammen mit Ergebnissen der volkswirtschaftlichen Gesamtrechnung (VGR), der Steuerstatistik., anderer amtlicher Statistiken, der Zahlungsbilanzstatistik. der Deutschen Bundesbank. und anderer Quellen, knnen damit
wesentliche Gterarten identifiziert und anband ihrer Ausgabenanteile auch deren
Gewichte cPromilleangaben in obiger Auflistung) bestinunt werden.

Die Verbrauchsgewohnheiten der privaten Haushalte ndern sich aber im Zeitablauf. Neue Gter erweitern die Konsummglichkeiten, alte Gter scheiden aus dem
Marktgeschehen aus. Folge hiervon ist, dass ein bestlnunter warenkorb Dur fr begrenzte Zeit den Verbrauch der Haushalte reprsentieren kann. Diesem Wandel
versucht das Statistische Bundesamt durch Neubasterung des VPI Rechnung zu tragen, welche neben der Festlegung eines neuen Basisjahres, der Erhebung neuer
Preisreprsentanten und Bestimmung eines neuen Wgungsschemas auch die Umbasierung alter Indexwerte einschliet. In der Vergangenheit wurde der VPI ca. alle
5 jahre neubasiert. Die Basisjahre waren 1950, 1958, 1962, 1970, 1976, 1980, 1985,
1991, 1995 und 2000.

Von Anfang 1991 bis Mitte 2011 zeigte der VPI CBasisjahr 2005) den im Folgenden
abgebildeten Verlauf. Wir erkennen daran fr Deutschland einen deutlichen Preissteigerungstrend. Die nebenstehende Darstellung der monatlichen Wachstumsraten
des Index verdeutlicht ebenfalls das durchschnittlich positive Wachstum sowie die
beachtlichen Schwankungen der monatlichen Inflationsraten.

'''~----------~

,m

'~~-----------,
,.~

,~

,m

m
~

n~~~-:;;-;~~
~~ M

00 ~ ~ ~ ~ ro

4.2.4.2

IIarmonlsl.- Verbraacl1erprelsindeI (HVPI)

Primr fr europische Zwecke berechnet das Statistische Bundesamt den Hannonisierten Verbraucherpreisindex (HVPO. Wichtigste Zielsetzung des HVPI ist der
Vergleich der PreisvertJnderungen zwischen den Mt/gliedstaaten der EuropIJtschen
Union (EU). Da sich die nationalen Verbraucherpreisindizes der einzelnen EULnder in vielfltiger Weise unterscheiden, ist die Berechnung des HVPI unerlss-

lich. Diese Unterschiede sind zum Teil historisch bedingt, resultieren aber auch aus
unterschiedlichen gesellschaftlichen Rahmenbedingungen oder abweichenden
Strukturen des statistischen Systems. Auch sind die Ziele der VPI-Berechnung oft
weiter gefasst als die des HVPI. Whrend der HVPI primr das Ziel der Inflationsmessung verfolgt, dienen die nationalen Verbraucherpreisindizes zustzlich als Deflator (z.B. zur Berechnung des realen Wachstums) und als Kompensationsmastab

4. Messzahlen und Indizes

133

(Wertsicherungsklauseln). Da die nationalen Indizes darauf ausgelegt sind, ihr Umfeld mglichst gut zu beschreiben, fhrt die Verwendung unterschiedlicher Berechnungsformeln und Konzepte zu nicht vergleichbaren Ergebnissen. Daher wurden
gemeinsame Methoden, Konzepte und Verfahren fr den HVPI verbindlich festgelegt. Die Erfassungsbereiche (Auswahl der Waren und Dienstleistungen fr die Berechnung des HVPI) des deutschen VPI und des deutschen HVPI unterscheiden
sich im Wesentlichen durch die zustzliche Einbeziehung des vom Eigentmer
selbst genutzen Wohneigentums (durch Mietquivalente) im deutschen VPI.
Das Statistische Amt der Europischen Union (Eurostat) berwacht die Einhaltung
dieser Regeln und berechnet anhand der nationalen HVPIs Verbraucherpeisindizes
fr die Europische Union, fr die Europische Whrungsunion und fr den Europischen Wirtschaftsraum. Diese Verbraucherpreisindizes werden als gewogene
Durchschnitte der nationalen HVPI berechnet. Als Gewicht dient der private
Verbrauch aus den Volkswirtschaftlichen Gesamtrechnungen. Zur Umrechnung der
unterschiedlichen Whrungseinheiten innerhalb der Europischen Union und dem
Europischen Wirtschaftsraum werden Kaufkraftparitten herangezogen.
Der HVPI dient unter anderem zur Messung des Konvergenzkriteriums PreIsstabilitt (Referenzwert: ungewogenes arithmetisches Mittel der jhrlichen Inflationsraten der drei preisstabilsten EU-Lnder plus 1,5 Prozentpunkte). Somit war er
gemeinsam mit den anderen Konvergenzkriterien eine wichtige Entscheidungshilfe
fr die Zulassung der einzelnen Mitgliedstaaten der EU zur Whrungsunion und
wird dies bei der Aufnahme weiterer EU-Staaten in die Europische Whrungsunion wieder sein. Fr die Europische Zentralbank ist die Verwendung des
Verbraucherpreisindex fr die Europische Whrungsunion (VPI-EWU), der aus
den nationalen HVPI der Mitglieder der Euro-Zone aggregiert wird, der Mastab
fr die Geldwertstabilitt des Euro.
Fr den HVPI steht fr Deutschland bisher nur eine Zeitreihe ab Januar 1995 (zur
Basis 2005) zur Verfgung. Sie zeigt folgende Gestalt:

115~-----------,

1."'~-----------,

110

"16
"D

..
Wie bereits der deutsche VPI zeigt auch sein harmonisiertes Gegenstck einen
klaren Aufwrtstrend. Auch die monatlichen Inflationsraten nehmen vergleichbare
Hhen an.

I Deskriptive Statistik

134

4.2.4.3

Deu_r Ak1ieuiDdeJ< (DAX)

Als wichtige Informationsinstrumente auf dem Kapitalmarkt werden von Land zu

~ Land sog. Aktienindizes berechnet und der ffentlichkeit zur Verfgung gestellt.

Sie sollen kurzfristig, reprsentativ und im Zeitablauf vergleichbar ber Marktentwicklungen bei Aktlenwerten informieren. Allgemein zu unterscheiden sind dabei
Kurs- und Perfonnance-Indizes. Kursindizes messen die eigentliche Kursentwicklung und werden lediglich um Ertrge aus Bezugsrechten und Sonderzahlungen
bereinigt. Bei den Performance-Indizes werden darber hinaus smtliche Ertrge
aus Dividenden- und Bonuszahlungen in das Indexportfolio reinvestiert.
Zu den weltweit wichtigsten Aktienindizes zhlen folgende:

Deutschland: CDAX, DAX, MOAX, SOAX, TecDAX, VDAX, HDAX

Europa: Fr-SE 100 (London Stock Exchange), CAC 40 (Bourse de Paris),


AEX (Amsterdam), ATX (Wien), Dow]ones Euro Stoxx!Stox:x 50, Dow Jones
Stoxx!Stoxx 50, Mib 30 (Mailand), Ibex 35 (Spanien)

USA: Dow Jones 30 Industrial, Nasdaq, Nasdaq 100, S&P 500

Asien: Nikkei 225 (Tokio), Hang Seng (Hongkong), Singapore Times, Taiwan Weighted, Thai Stock Exchange

Lateinamerlka: MCSI Mexico, MCSI Brazil, Chilean Stock Market Select


Der meist beachtete Aktienindex fr Deutschland ist der Deutsche Aktienindex
(D.AX). Es handelt sich dabei um den Bluechip-Index, der die 30 grten und umsatzstrksten deutschen Aktienwerte enthlt, die im Prime Standard (spezielles
MarktsegmenO der Frankfurter Wertpapierbrse (FWB) gelistet sind und fortlaufend
im Xetra (Computersystem zum elektronischen Handel aller an der FWB notierten
Wertpapiere) gehandelt werden sowie einen Mindest-Freefloat (Aktien eines Unternelunens, die am Markt frei gehandelt werden und nicht im Besitz von Anlegern
sind, welche sich dauerhaft an der Unternehmung beteiligen wollen) von 5 % aufweisen. Er ist ein Performancelndex und wird neben einer Reihe anderer Indizes
von der Trgergesellschaft der FWB, der Deutschen Brse AG, unter der ISIN (engl.
international securities identification number) DEOOos469008 ennittelt. Der DAX beruht auf dem Konzept der Indexberechnung nach Laspeyres.4-S Die Indexwerte
werden mit 1.000 multipliziert und als Promillezahlen verffentlicht. Die Basiszeit
mit dem Basiswert 1.000 ist der 30.12.1987. Der DAX wird whrend der Handelszeit
der FWB sekndlich berechnet und misst die Kursentwicldung eines kapitaIgewichteten Portfollos aus den 30 enthaltenen Aktien.
Die Entwicklung des DAX seit seiner Einfhrung im Jahr 1988 (bzw. im Dezember
1987) ist in der folgenden Grafik, die aktuelle Zusammensetzung (Stand: 14. Juni
2011) in der anschlieenden Tabelle zu sehen. Der grafische Verlauf ist dabei deutlich vom Platzen der Dotcom-Blase im Jahr 2000 und der jngsten Finanzmarktkrise
ab 2008 gekennzeichnet. Diese Ereignisse machen sich auch in einer hheren
Steuung der Monatsrenditen des Index in den Krisenzeitrumen bemerkbar.

4 Genau genommen ist er ein sog. modifizierter Laspeyres-Kettenindex. Fr DetailB zur IndeD>erechnung vgl. man den "Leitfaden zu den Aktienindizes der Deutschen Brse"J der
unter www.deutsche-boerse.comzufmdenist.
S Der DAX exJstlert zusiitzlich auch a1s Kursinda. Typischer Referenzindex in Finanznachrichten und Zeitschriften ist jedoch der Perfonnancdndex.

4. Messzahlen und Indizes

135

,..,.,..

.............,.

DAX(Pa b I i a UiilIrdEIc)

DAX(Pa1u I i & UiilIrDIc)

'~,----------------------,

~,----------------------,

Indexuntemehmen

Gewicht

Aktienanzahl

Marktkapitalisierung.
(in Mio. )

Adidas

1,55 %
7,29 %
8,87 %
3,05 %
7,38 %
0,71 %
0,72 %
7,05 %
6,42 %
1,69 %
1,76%
4,84 %
6,85 %
0,88 %
1,50 %
1,15 %
1,25 %
1,29 %
1,25 %
3,12 %
1,10 %
1,38 %
0,69 %
1,11 %
3,02 %
3,07 %
6,20 %
10,56 %
1,57 %
2,68 %
100,00 %

209.216.186
454.500.000
918.478.694
601.995.196
826.947.808
252.000.000
1.181.352.926
1.063.816.507
929.499.640
195.000.000
1.209.015.874
4.361.319.993
2.001.000.000
81.027.408
298.162.265
187.500.000
178.162.875
1.086.742.085
191.400.000
169.669.691
457.937.572
140.974.350
64.621.126
324.109.563
188.468.471
523.405.000
1.226.696.632
737.724.868
514.489.044
170.142.778
20.745.376.552

9.041,28
42.426,00
51.664,43
17.777,04
42.993,02
4.112,22
4.217,85
41.036,04
37.399,57
9.814,55
10.265,55
28.181,72
39.898,08
5.146,86
8.748,01
6.679,72
7.259,77
7.512,68
7.251,00
18.180,11
6.379,07
8.010,59
4.000,69
6.450,41
17.598,41
17.852,48
36.089,10
61.467,44
9.157,14
15.622,32
582.233

Allianz
BASF
BMW
Bayer

Beiersdorf
Commerzbank

Daimler
Deutsche
Deutsche
Deutsche
Deutsche
E.ON

Bank
Brse
Post
Telekom

Fresenius
Fresenius Medical Care
HeidelbergCement
Henkel
Infmeon
K+S

Linde

Lufthansa
MAN
Merck
Metro

Mnchener Rck
RWE
SAF

Siemens
Thyssen Krupp
Volkswagen
Gesamt

I Deskriptive Statistik

136

Die Zusammensetzung des DAX wird vierteljhrlich berprft und ggf. durch Austausch von Aktiengesellschaften gendert. Wir sprechen dabei auch von ordentlicber Anpassung des Index. Zustzlich wird auch das Wgungsschema vierteljhrlich aktualisiert, auch dann, wenn die Zusammensetzung des Index unverndert
bleibt. Kriterien bei der Aufnahme neuer Aktien bzw. dem Ausschluss bereits enthaltener Aktien sind dabei:
Orderbuchumsatz - Summe des an der FWB (ink!. Xetra) in den letzten zwlf
Monaten festgestellten Umsatzes der Aktie einer Gesellschaft
Freefloat-Marktkapitalisierung - Produkt aus Anzahl der frei verfgbaren
Aktien und dem umsatzgewichteten Durchschnittspreises der vergangenen 20
Handelstage
In gewissen Ausnahmefallen (z.B. kurzfristig angekndigte bernahmen oder signifikante Vernderung des Freefloats, Erffnung des Insolvenzverfahrens, ... ) kann
der Vorstand der Deutschen Brse AG in Abstimmung mit dem Arbeitskreis Aktienindizes auch eine auerordentlicbe Anpassung des DAX vornehmen.

5.

Aufgaben

Grundlagen
Aufgabe GI
Geben Sie Zu folgenden statistischen Massen an, ob es sich um Bestands- oder
Bewegungsmassen handelt:
a) Todesfalle in einer Grostadt
b)

Maschinenausfalle in einem Unternehmen

c)
d)
e)

Wartende Kunden vor einem Schalter


Arbeitnehmer in einem Betrieb
Aomeldungen in einem EinwohnenneIdeamt

AufgabeG2

Geben Sie Zu folgenden Bestandsmassen mgliche korrespondierende Bewegungsmassen an:

a)
b)
c)
d)

Einwohner der Stadt Mnchen


Kontostand
Rentenempfnger
Auftragsbestand

AufgabeG3

Auf welchen Skalen knnen folgende Merkmale gemessen werden?


a) Jahresumsatz
b) Temperatur
c) Handelsklasse von Obst
d) Nationalitt
e) Tarifklassen bei der Kfz-Haftpflichtversicherung
f)
Zensuren

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_5, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

138

Eindimensionale Huflgkeitsverteilungen
AufgabeEHl

Ein Anleger kaufte am 02.01.2003 Aktien bei einem Kurs von 100 . Am 02.01.2004
lag der Kurs bei 160 , am 02.01.2005 bei 80 .
Wie hoch war die durchschnittliche Wertvernderung pro Jahr?
AufgabeEH2

Der durchschnittliche Bruttomonatsverdienst von Arbeitnehmern, die der Sozialversicherungspflicht unterliegen, betrug im Jahr 2001 in Westdeutschland 2.816 und
in Ostdeutschland 2.013 . Im Westen waren 23 Mio. und im Osten 4,8 Mio. Arbeitnehmer beschftigt.
Berechnen Sie den durchschnittlichen Monatsverdienst aller sozialversicherungspflichtigen Deutschen!
AufgabeEH3

Die Arbeitslosenquoten betrugen im Jahr 2000 in Ost- und Westdeutsch1and


17,40 % bzw. 7,80 %. Im Osten gab es 7,806 Mio. und im Westen 32,505 Mio. Erwerbspersonen. Berechnen Sie die gesamtdeutsche Arbeitslosenquote und beachten Sie dabei, dass die folgenden Defmitionen gelten:
.
Arbeitslose
Arbeitslosenquote = -cc;-c-:----=::--;-c-:-Arbeitslose + Erwerbsttige
Erwerbspersonen = Arbeitslose + Erwerbsttige

AufgabeEH4

Fr die Preise von PC-Monitoren eines bestimmten Typs ergab sich ein Durchschnittspreis von xM = 300 und eine Standardabweichung von SM = 50 . Fr
Flachbildschirme ergab sich hingegen xp = 550 und s, = 100 .
Kann nun die Aussage gemacht werden, dass Flachbildschinnpreise doppelt so
stark streuen wie die Preise fr Pe-Monitore?
AufgabeEHS

Betrachten wir drei theoretische HufIgkeitsverteilungen A, Bund C:


Verteilung A

aJ

h(a~

Verteil~

14
10

h(a~

12
1

13
2

14
4

15
2

16
1

13
1

15
1

16
1

17
1

18
1

19
1

aJ

Verteilung C

aJ

h(a~

9
2

12
2

Berechnen Sie aus diesem Zahlenmaterial arithmetisches Mittel, Standardabweichung und Spannweite! Machen Sie auerdem ohne Kennzablenberechnung aussagen zur Schiefe der Verteilungen!

5. Aufgaben

139

AufgabeEH6

Es wurden 30 Energiesparlampen einer Lebensdauerprfung unterzogen. Die Lebensdauern in Stunden>; fr diese Lampen sind in folgender Tabelle angegeben:
x,
251,7
295,1
301,1
378,7
489,0
546,9
599,2
632,6
711,9
734,7

1
2
3
4
5
6
7
8
9
10

!!,

12
13
14
15
16
17
18
19
20

x,
897,6
906,2
934,0
951,3
957,8
965,9
999,3
1.004,4
1.055,1
1.156,6

21
22
23
24
25
26
27
28
29
30

755,8
767,5
772,3
789,1
799,4
800,5
834,0
851,3
877,1
884,9

11

Berecbnen Sie den Median, den Quartilsabstand und den Quartilskoefftzienten dieser Verteilung!
AufgabeEH7
Die Polizei greift an einem Abend 14 Studenten auf dem Heimweg von einer Semesteranfangsparty auf und stellt dabei folgende Blutalkoholkonzentrationen fest:

0,082
0,052

Mnner

Frauen

0,091
0,049

0,079
0,032

0,D70
0,041

0,084
0,052

0,092
0,061

0,089
0,059

Vergleichen Sie die Streuung der Alkoholkonzentration bei Mnnem und Frauen
anband geeigneter Mazahlen!
AufgabeEH8

Aus den Statistiken einer Bank ergaben sich fr 64 Kreditkunden folgende Tilgungszahlungseingnge (in % der Gesamtforderung). Der Rest der jeweiligen Forderung wird von der Bank als endgltig verloren betrachtet und abgeschrieben.
0
12
6
12
6
12
21
17

10

5
40
5
7,5
21
17
12

30
3
7
3
5
15
21
5

5
30
6
6
5
3,5
12
40

35
5
0
12
12
15
11,5
12

12
35
7
5
12
3
15
12

12
5
5
7,5
6
17
11

15

8
5
5
9
5,5
12
3,5
15

Zu bearbeiten sind nun folgende vier Teilaufgaben. Versuchen Sie a), c) und d)
mit Hilfe von MS-F.xcel zu lsen, da Ihnen hier das Programm einen erheblichen
Rechenaufwand abnimmt.

I Deskriptive Statistik

140

a)
b)

c)
d)

Geben Sie die kummuHerten relativen Hufigkeiten der Zahlungsausfalle an,


die in die empirische Verteilungsfunktion eingehen!
Wie gro ist der Anteil der Schuldner, bei denen
bl) hchstens 70 % der Forderung ausfllt?
b2) mehr als 85 % und weniger als 90 % der Forderung ausfllt?
Berechnen Sie arithmetisches Mittel, Modus und Median der Zahlungsausfalle!
Berechnen Sie Spannweite, Varianz, Standardabweichung und Variationskoeffizient der Verteilung!

AufgabeEH9
Von 100 Unternehmen einer Branche wurden folgende Reingewinne erzielt:
Gewinn

(in Mio. Euro)


5-15
15-25
25-35
35-45
45-55
55-65
65-75

Anzahl der
Unternehmen
20
10
30

5
5

10
20

Ermitteln Sie mit Hilfe von MS-Excel den durchschnittlichen Umsatz, der von den
betrachteten Unternehmen erzielt wurde, sowie Varianz, Standardabweichung und
den Variationskoeffizienten dieser Hufigkeitsverteilung!

Aufgabe EHIO
Die Aufzeichnungen einer Wetterstation ergaben ber einen Zeitraum von 2339
Tagen folgende Windgeschwindigkeiten:
aj bis unter aj
1
2
3
4
5

7
8
9
E

0,00
2,50
5,00
7,50
10,00
12,50
15,00
17,50
20,00

2,50
5,00
7,50
10,00
12,50
15,00
17,50
20,00
22,50

h,

f,

231
403
570
321
200
201
198
110
105
2339

0,0988
0,1723
0,2437
0,1372
0,0855
0,0859
0,0847
0,0470
0,0449
1,0000

Was lsst sich aus diesem Zahlenmaterial ber die Schiefe der Hufigkeitsverteilung der Windgeschwmdigkeiten aussagen? Nutzen Sie fr Ihre Berechnungen MSExcen Interpretieren Sie Ihr Ergebnis inhaltlich!

5. Aufgaben

141

Aufgabe EHll
Ein Unternehmen hat fr das abgelaufene Geschftsjabr smtliche Rechnungsbetrge (in Euro) fr Beschaffungsgter in Grenklassen eingeteilt. Hinsichtlich Anzahl und Betrge der Rechnungen ergab sich zum Jabresende folgendes Bild:
Groenklassen der
Recbnungsbetrge
[0, 500[
[500, 1.000[
[1.000, 2.500[
[2.500, 5.000[
[5.000, 10.000[
[10.000, 20.000[

Anzahl der Rechnungen


je Klasse
255
490
165
60
24

6
1.000

Beschaffungskosten
je Klasse
74.000
343.000
295.000
216.000
187.000
85.000
1.200.000

Beschaffungsgter knnen im Rabmen einer ABC-Analyse in A-, B- und C-Gter


eingeteilt werden. Diejenigen Gter, die mit den 20 % der Recbnungen mit den
grten Betrgen verbunden sind, werden als A-Gter klassifiziert. Die Gter aus
den 50 % kleinsten Recbnungen sind C-Gter. Die Gter dazwischen werden
B-Gter genannt.
Skizzieren Sie fr dieses Datenmaterial die Lorenz-Kurve und kennzeicbnen Sie
darin die A-, B- und C-Gter. Geben Sie auerdem an, welchen Anteil an den Gesamtkosten die A-Gter ausmachen!

Aufgabe EH12
Zwei Mrkte weisen folgende Strukturen auf:
MarktA
4 Firmen mit je 5 % Marktanteil
2 Firmen mit je 10 % Marktanteil
4 Finnen mit je 15 % Marktanteil

Markt B
5 Finnen mit je 3 % Marktanteil
5 Finnen mit je 17 % Marktanteil

Bestimmen Sie anhand des normierten Gini-KoefflZienten, welcher Markt die hhere Konzentration aufweist!

I Deskriptive Statistik

142

Mehrdimensionale Hufigkeitsverteilungen
AufgabeMHl

Eine Befragung von 500 Studenten nach dem Studiengang (Merkmal X) und der
sportlichen Bettigung (Merkmal Y) liefert folgende Kontingenztabelle:
y

nie

BWL

gelegentlich
40
50
40
130

30
20
80
130

VWL

Mathematik
L

regelmig
200
20
20
240

L
270
90
140
500

Bestimmen Sie die bedingten Verteilungen des Merkmals Y und interpretieren Sie
ihre Werte exemplarisch!
AufgabeMH2

Ein Automobilhersteller liefert Klein-, Mittelldasse- und Oberklassewagen in die


drei Regionen A, Bund C. An einem bestimmten Tag wurden insgesamt 1.000
Fahrzeuge ausgeliefert. Davon gingen je 300 in die Regionen A und C. Die Lieferung enthielt zu 50 % Kleinwagen, zu 30 % Mittelklassewagen und zu 20 % Oberklassewagen. In die Region A wurden 150 Kleinwagen und 100 Mittelklassewagen,
in die Region B 100 Mittelldassewagen und in die Region C 50 Oberklassewagen
geliefert.
a) Erstellen Sie hierzu eine zweidimensionale Hufigkeitstabelle der absoluten und
relativen Hufigkeiten mit den entsprechenden Randverteilungen!

b) Bestimmen Sie die Hufigkeitstabelle der bedingten Verteilung des Merkmals


Pkw-Typ, die durch Beschrnkung auf die Region A entsteht!
c) Bestimmen Sie die Hufigkeitstabelle der bedingten Verteilung des Merkmals
Region, die durch Beschriinkung auf Kleinwagen entsteht!
d) Geben Sie den Modus bzgl. beider Merkmale an!
AufgabeMH3

Fr 500 Mietwohnungen ergab eine Untersuchung folgende Daten ber Mietpreis


Y (in Euro) in Abhngigkeit von der Wohnflche X (in m'):
Y
X

40
80

40
80
120

0-300
84
76

300 - 600
43
160
14

600 - 900

o
23
25

900 - 1200

12
60

Berechnen Sie ein geeignetes Ma zur Charakterisierung des Zusammenhangs zwischen Mietpreis und wohnflche!

5. Aufgaben

143

AufgabeMH4

Nelunen Sie an, eine UNICEF-Studie liefert die folgenden Kindersterblichkeitsraten


X in 9 Staaten des Naben Ostens und zudem die prozentualen Anteile der Leseund Schreibkundigen der Gesamtbevlkerung der jeweiligen Lnder. Diese Alphabetisierungsrate Y kann als Indikator fr den Entwicklungsstand des betreffenden
Landes interpretiert werden.
Land
Kuwait
Vereinigte Arabische Emirate
Jordanien
Ubanon
Iran
Syrien
Irak
Saudi-Arabien
Jemen

X. (in %)
1,9
3,0
5,2
5,6
5,9
5,9
8,6
9,1
18,7

y, (in %)

67,0
38,0
70,0
73,0
43,0
51,0
49,0
48,0
21,0

Untersuchen Sie mittels eines geeigneten Korrelationsmaes den Zusammenbang


zwischen Kindersterblichkeits- und Alphabetisierungsrate!
AufgabeMH5

Die folgende Vierfeldertafel weise eine vom Statistischen Bundesamt ermittelte


Gliederung der in der Bundesrepublik lebenden Personen nach dem Geschlecht
(Merkmal X) und der Beteiligung an der Erwerbsttigkeit (Merkmal Y) aus (Angaben in Tausend Personen):

Mnnlich
Weiblich
1:

Erwerbspersonen
22.232
17.814
40.046

Nichterwerbspersonen
18.098
24.346
42.444

1:
40.330
42.160
82.490

a) Um welche spezielle Art von Merkmalen handelt es sich bei X und Y?


b) Beurteilen Sie den statistischen Zusanunenbang der Merkmale X und Y anband
einer geeigneten Mazahl!
c) Betrachten Sie den Fall, dass alle Mnner erwerbsttig und alle Frauen nicht
erwerbsttig sind, und machen Sie Aussagen zur Abhngigkeit zwischen X und
Y in diesem Fall!
AufgabeMH6

Beweisen Sie die Gltigkeit der Beziehung Q3: 23) bzw. des Verschiebungssatzes
fr die Kovarianz!

I Deskriptive Statistik

144

Preisindizes
Aufgabe PI
In welchem Fall liefern die Preisindizes nach Laspeyres und Paasche identische Ergebnisse? Begrnden Sie Ihre Aussage!
AufgabeP2

Ein Laspeyres-Index zeigt folgendes Verhalten: Steigt der Preis eines Gutes X um
8 % und bleiben alle restlichen Preise unverndert, so resultiert ausgehend von
einem Startwert 1 ein Indexwert von 1,004. Mit welchem Gewicht ist das Gut X im
Warenkorb vertreten?
AufgabeP3
Folgende Tabelle zeigt die Durchschnittswerte fr Preis (in Euro) und Verbrauch
(in Liter) von Kraftstoff fr zwei Jahre A und B:

Kraftstoff

Preis

Jahr A
0,96
0,90
0,87

Super
Nonnal
Diesel

Verbrauch
Jahr A
400
700
350

Verbrauch
Jahr B
700
600
250

Preis

Jahr B
1,15
1,10
1,01

a) Berechnen Sie den Preisindex nach Laspeyres und nach Paasche! Basisjahr ist
das Jahr A.
b) Ermitteln Sie den Wertindex!
AufgabeP4

Gegeben ist die folgende Indexreihe (Preisindex nach Laspeyres fr die Lebenshaltungskosten):
Jahr
Index

2001
98,1

2002
100,0

2003
122,5

2004
130,7

2005
146,6

2006
149,4

Entscheiden Sie fr folgende Aussagen jeweils, ob sie richtig oder falsch sind! Begrnden Sie dabei stets 1hre Aussage!
a) Der Preisindex nach Laspeyres ist ein gewogenes arithmetisches Mittel aus
Preisen.

b)
c)
d)
e)

Der Preisindex nach Laspeyres ist ein gewogenes arithmetisches Mittel aus
Preisverhltnissen mit Gewichten aus der Basisperiode.
Im Jahr 2002 waren die Kosten fr die Lebenshaltung im Durchschnitt 100 %
hher als zu Beginn der statistischen Berechnung.
Die Steigerung der durchschnittlichen Lebenshaltungskosten im Jahr 2006 bezogen auf 2005 belief sich auf 2,8 %.
Die Steigerung der durchschnittlichen Lebenshaltungskosten im Jahr 2004 bezogen auf 2001 betrgt 33,23 %.

5. Aufgaben

145

AufgabeP5

Gegeben sind zwei Indexreihen A und B. Bei A ist 2003, bei B 2000 als Basisjahr
zu betrachten. Beide Indexreihen sollen nun miteinander verglichen werden. Wie
lsst sich dies bewerkstelligen? Fhren Sie die erforderlichen Operationen durch!

Index I
Index I"

2003
100
140

2004
104
150

2005
115
155

2006
120
157

AufgabeP6

Fr eine bestimmte Menge von Warengruppen und denselben Basis- und Berichtszeitraum (Basisjahr 2002, Berichtsjabr 2006) sind der Preisindex nach Laspeyres mit
P;002,2006 = 125,7 und der Mengenindex nach Paasche mit Q;"'2,2006 = 110,8 gegeben.
a) Welchen Wert nimmt der Umsatzindex U 2002,2006 an? Beweisen Sie in diesem Zusammenhang die Gltigkeit der von Ihnen zur Berechnung verwendeten fonnalen Beziehung!
b) Wie hoch ist das durchschnittliche Umsatzwachstum whrend dieser 4 Jahre?

11 WAHRSCHEINLICHKEITSRECHNUNG

Thema dieses Kapitels ist die Wahrscheinlichkeitstheorie, die sich mit der
mathematischen Beschreibung von Zufallserscheinungen und der Analyse
von Gesetzmigkeiten befasst, die diesen innewohnen. Wir legen dazu im
Abschnitt 11 1 zunchst die begrifflichen Grundlagen und beschftigen uns
mit der Messung der "Neigung" oder "Chance" des Eintretens bestimmter
Ereignisse durch Zahlen, die man Wahrscheinlichkeiten nennt. Im Abschnitt
11 2 fhren wir das zentrale Konzept der Zufallsvariablen ein und analysieren
deren Wahrscheinlichkeitsverteilungen sowie Mazahlen zur Charakterisierung dieser Verteilungen. Wir werden hier starke Analogien zur ein- und
mehrdimensionalen Hufigkeitsverteilung feststellen, weshalb wir hufig auf
erneute Beweisfhrungen verzichten knnen. Abschnitt 11 3 beschliet das
Kapitel mit einem berblick ber wichtige spezielle Wahrscheinlichkeitsverteilungen, die uns insbesondere in der induktiven Statistik des Kapitels 111
ntzliche Dienste erweisen werden.

1.

Grundlagen der
Wahrscheinlichkeitstheorie

Viele Ergebnisse wirtschaftlicher Entscheidungen sind nicht streng vorherbestimmbar.


sondern besitzen Zufallscharakter. So lsst sich beispielsweise nicht genau im Voraus
bestimmen. welche Rendite die Investition in eine Aktie oder eine andere risikobehaftete
Anlageform letztendlich liefert. Mit derartigen Zufallssituationen werden wir uns in diesem
Kapitel auseinandersetzen. Da das Verstndnis der Wahrscheinlichkeitstheorie anhand
realer Entscheidungssituationen aus dem Wirtschaftsleben jedoch oft schwer fllt. erlutern wir die Stze und Regeln der Wahrscheinlichkeitsrechnung zumeist anhand einfacher Glcksspiele (z.B. MnzwurI. Wrleln. ele.). Sie knnen nmlich als die Wurzeln
der Wahrscheinlichkeitstheorie betrachtet werden.

1.1 Grundbegriffe
Ausgangspunkt der Wahrscheinlichkeitsrechnung ist der sog. Zufallsvorgang. Er
ist definiert als Geschehen, bei dem aus einer gegebenen Ausgangssituation heraus
mehrere sich gegenseitig ausschlieende Folgesituationen mglich sind, wobei un-

gewiss ist. welche dieser Folgesituationen eintreten wird. Typische Beispiele fr


Zufallsvorgnge sind etwa das Werfen einer Mnze oder eines Wrfels, das Ziehen
einer Karte aus einem Kartenspiel, die Ziehung der Lottozahlen, das Drehen eines
Glcksrades oder die Entnahme einer Zufallsstichprobe (z.B. zur Bestimmung des
Ausschussanteils einer Produktionsserie).
Lassen wir einen Zufallsvorgang mehtfach ablaufen, sprechen wir von einem Zu-

fallsexperlment. Ein solches ist dadurch charakterisiert. dass der Zufallsvorgang


nach einer exakt bestimmten Vorschrift durchgefhrt wird und

unter identischen Bedingungen beliebig oft wiederholbar ist.

Bei einem einem Zufallsexperiment setzt man also voraus, dass sich die einzelnen

Wiederholungen des Zufallsvorgangs nicht gegenseitig beeinflussen, also unabbngig voneinander sind.
Die einzelnen. nicht mehr weiter zerlegbaren, mglichen Ausgnge oder Ergebnisse eines Zufallsexperimentes werden als Elementarerelgnisse m bezeichnet.
Bei jeder Durchfhrung des Experiments kann bzw. muss immer nur ein einziges
dieser Elementarereignisse eintreten. Man sagt daher, dass sich die Elementarereignisse gegenseitig ausscblieen. Das nach Ablauf des Geschehens tatschlich eintretende Elementarereignis ist das sog. Ergebnis des Zufallsexperimentes. Die Menge
n aller Elementarereignisse eines Zufallsexperimentes nennen wir Ergebnisraum
(in der Uteratur gelegentlich auch Ergebnismenge oder Ereignisraum) des Zufallsexperimentes. Existieren n mgliche Elementarereignisse, dann gilt

n ={m,.m,.m, ... mnl.


B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_6, Springer Fachmedien Wiesbaden 2015

(111:1)

150

11 Wahrscheinlichkeitsrechnung

Eine solche Darstellung ist allerdings nur mglich, wenn der Ergebnisraum endlich
viele oder hchstens abzhlbar unendlich viele Elementarereignisse hat. In der
Literatur wird die Anzahl der Elementarereignisse des Ergebnisraumes hufig als
Mchtigkeit I Cl I bezeichnet. Es gibt jedoch auch Zufallsexperimente, bei denen der
Ergebnisraum mehr als endlich viele oder abzhlbar unendlich viele Elemente hat.
Wir sprechen hier auch von einem stetigen Kontinuum von Elementarereignissen.
Neben dieser Kategorisierung hinsichtlich der Anzahl und Abzhlbarkeit der Elemente knnen wir Ergebnisrume aucb hinsichtlich der Strukur der Elemente unterscbeiden. So kann ein Elementarereignis ein einzelnes Objekt oder ein n-Tupel
von Objekten sein (vgl. dazu Beispiel II 1-1).

Beispiel 11 1-1

Endliche Ergebnisraume

Einmaliger Wurf einer Mnze:


Bezeichnen wir das Elementarereignis, dass die Munze nach dem Werfen "KoP/"
zeigt, mit K, und dass sie "Zahl" zeigt, mit Z, ergibt sich der Ergebnisraum

o ={K,Z}.

Zweimaliger Wurf einer Munze:


Hier sind die Elementarereignisse geordnete Paare (i,D, wobei i das Resultat des ersten und j das Resultat des zweiten Mnzwurfs darstellt. Der Ergebnisraum ist damit

o = {KK,KZ,ZK,ZZ).

Einmaliger Wurf eines Wurfeis:


Da die Elementarereignisse durch die Zahl der Augen auf der oben liegenden Flache
des Wurfeis gekennzeichnet sind, ergibt sich folgendes Bild des Ergebnisraumes:
0= {1,2,3,4,5,6}

Zweimaliger Wurf eines Wurfeis:


Auch hier sind die Elementarereignisse geordnete Paare (i,D, wobei i das Ergebnis
des ersten und j das Ergebnis des zweiten Wurfelwurfs bezeichnet. Bei i = 1,2, ... ,6
und j = 1,2.... ,6 ergeben sich insgesamt 101 = 6 . 6 = 36 Elementarereignisse und der
folgende Ergebnisraum:

(1,1),
(2,1),
(3,1),
0=
(4,1),
(5,1),
(6,1),

(1,2),
(2,2),
(3,2),
(4,2),
(5,2),
(6,2),

(1,3),
(2,3),
(3,3),
(4,3),
(5,3),
(6,3),

(1,4),
(2,4),
(3,4),
(4,4),
(5,4),
(6,4),

(1,5),
(2,5),
(3,5),
(4,5),
(5,5),
(6,5),

(1,6),
(2,6),
(3,6),
(4,6),
(5,6),
(6,6)

Alternativ lsst sich dieser Ergebnisraum auch folgendermaen darstellen:


0= {(x"x,): x, E {1,2,3,4,5,6}

fUr i = 1,2}

1. Grundlagen der Wahrscheinlichkeitstheorie

151

Ziehung der Lottozahlen:


Beim Mittwochs- und Samstagslotto werden aus 49 von 1 bis 49 durchnummerierten
Kugeln genau 6 Kugeln zufllig gezogen und die jeweiligen Nummern registriert. Die
dabei auftretenden Nummern sind die Gewinnzahlen und werden nach der Ziehung
der Gr Be nach geordnet, da es keine Rolle spielt, in welcher Reihenfolge sie gezogen werden. Ein Lottospieler tippt also auf ein Elementarereignis der allgemeinen
Form Ol = {x""",JC:!,,..,Xs,Xs}. Da die Nummern ohne ZurOcklegen einer vorher gezogenen Kugel ermittelt werden, ist es wichtig zu beachten, dass keine Kugel mehrmals gezogen werden kann. Der Ergebnisraum zeigt sich damit wie folgt:
n = {(X"X"x"x"X"X,): x; E {1,2,3, ... ,49}

und x1 < x2 < xa < x4 < x5 < xe

Beispiel 11 1-2

Abzahlbar unendlicher Ergebnisraum

Eine MOnze wird so lange geworfen bis Zahl erscheint. Der Ergebnisraum hat hier unendlich viele Elementarereignisse, ist jedoch abzhlbar.
n = {Z,KZ,KKZ,KKKZ,KKKKZ, ...}

Beispiel 11 1-3

Unendlicher Ergebnisraum

Mittels einer Zufallsstichprobe soll die in Kilometer gemessene Laufleistung x von PkwMotoren gemessen werden, die diese bis zu ihrem "Ausfall" erbringen. Der Ergebnisraum
eines solchen Zufallsexperiments kann wie folgt dargestellt werden:
n={x :x~O; x reell}

1.2 Ereignisse und ihre Darstellung


Unter einem sog. Ereignis A verstehen wir jede beliebige Teilmenge des Ergebnisraumes n, d.h. A c n. Dies bedeutet, dass sich jedes Ereignis aus einem oder mehreren Elementarereignissen zusammensetzt. Die einzige Ausnahme stellt hierbei das
sog. unmgliche Ereignis dar, welches aus Null Elementarereignissen besteht. Ein
Ereignis tritt allgemein dann ein, wenn ein in ihm enthaltenes Elementarereignis
Cl)

A eintrin.

Beispiel 11 1-4

Endliche Ereignisse

Beim Zufallsexperiment "Einmaliger Wrfelwurf" sind beispielsweise folgende Ereignisse denkbar:


A,: "Es ergeben sich nur gerade Augenzahlen."

-+

A, = {2,4,6}

A,: "Die 6 wird gewOrfelt."

-+

A, = {6}

Einige Ereignisse beim Zufallsexperiment "Zweimaliger Wrfelwurf":


A,: "Die Summe der Augenzahlen ist mindestens 10."

--> A, = {(x" x,) : x, + x,

~ 1O} = {(4, 6),(6,4),(5,5),(5,6), (6,5),(6, 6n

152

11 Wahrscheinlichkeitsrechnung
A,.: "Die Summe der Augenzahlen ist hchstens 4."

--> A, = {(x" x,) : x, + x, ,; 4) = W' 1),(1,2),(2, 1),(2,2),(1,3),(3, 1


Aa: "Die Summe der Augenzahlen ist grer als 10."
--> A, =((x"x,): x, +x, > 10) ={(5,6),(6,5),(6,6

A.: "Es werden zwei gleiche Zahlen gewiirfelt."


--> A, = ((x"x,): x, = x,) = W,I),(2,2),(3,3),(4,4),(5,5),(6,6
As: "Die zuerst gewOrfelte Zahl ist eine 6."
--> A, ={(x"x,): x, = 6; x, E {1,2,3,4,5,6J} ={(6,1),(6,2),(6,3),(6,4),(6,5),(6,6
As: "Es wird zweimal die 6 gewOrfelt."
--> A, = {(6,6
Beispiel 11 1-5

Unendliches Ereignis

Fr das im vorangegangenen Abschnitt aufgeliihrte Beispiel 11 1-3 lsst sich das folgende
Ereignis betrachten:
A: "Die Motorlaufleistung ist grer als 150.000 km."

--> A ={x: x > 150.000; x reell)


Fr Ereignisse, die Ld.R. mit Grobuchstaben A,

~, ~,

B, C usw. bezeichnet wer-

den, Beziehungen zwischen Ereignissen sowie Ereignisoperationen, mit denen sich


aus Ereignissen neue Ereignisse bilden lassen, existieren eine Reihe wichtiger
Schreibweisen, die in der folgenden Schematik im berblick dargestellt und im
Anschluss daran im Detail behandelt werden. Da Ereignisse in ihrer einfachsten
Form als Mengen definiert sind, werden wir im Folgenden sehen, dass wir die in
der Mengenlehre verwendeten Notationen und Operationen auch auf Ereignisse
bertragen knnen.

Bezeichnung
A ist ein sicheres Ereignis.

Darstellung

A ist ein unmgIiches Ereignis.

3
4

A ist ein TellereJgnis von B.

AcB

A und B sind quivalente Ereignisse.

A=B

A ist die Verclnlgung der A,.

A=A, uA, u ... uAn = UA j

A ist der Durchschuitt der A,.

A=A, nA, n ... nAn = nA j

A und B sind dlsjunkte Ereignisse.

AnB=0

A und B sind komplementre Ereignisse.

C ist die Dlfferenz aus A und B CA ohne B).

B=A
C=A \B

A=!l
A=0={)

I"
n

I"

1. Grundlagen der Wahrscheinlichkeitstheorie

153

1. Sicheres Ereignis

Ein Ereignis A wird als sicheres Ereignis bezeichnet, wenn das Ereignis der Er-

gebnisraum n selbst ist und damit alle Elementarereignisse Ol enthlt. Ein solches Ereignis A tritt sicher bei jedem Ausfhren des Zufallsexperimentes ein.
Formal schreiben wir daher
A = n = {m"m"m"

... ,Oln}'

(I1l: 2)

2. Unmgliches Ereignis
Ein Ereignis A tritt sicher nicht bzw. niemals ein und gilt als unmglich, wenn
es gleich der sog. leeren Menge 0 ist. Diese enthlt per Definition kein Element
und somit auch kein Elementarereignis aus n. Es gilt
(I1l: 3)

A=0={ }.

3. Teilereignisse
Sind alle Elementarereignisse eines Ereignisses A auch in einem Ereignis B enthalten, bezeichnet man das Ereignis A als Teilereignis von Ereignis B. Tritt das
Ereignis A ein, so tritt automatisch auch das Ereignis B ein. Wir sagen auch,

dass das Ereignis A das Ereignis B impliziert, und schreiben


AcB.

(I1l: 4)

Ereignisse und Ergebnisraum lassen sich im sog. Venn-Diagramm anschaulich


darstellen. Die Ereignisse werden dabei als Flchen dargestellt, die sich mglicherweise berlappen. Abbildung II 1 (links) zeigt das Venn-Diagramm fr
den Fall eines Teilereignisses.

4. Aqulvalente Ereignisse
Zwei Ereignisse A und B werden als quivalent bezeichnet, wenn die Elemente

beider Ereignisse identisch sind. Genau dann, wenn A eintritt, tritt auch Bein.
Wir schreiben
(I1l: 5)

A=B.

Das dazugehrige Venn-Diagramm ist in Abbildung II 1 (rechts) zu sehen. Wir


erkennen daran, dass hier lediglich ein spezieller Fall eines Teilereignisses vorliegt. Alle Elemente von A sind auch in B enthalten und umgekehrt.
Teilereignis: A c B

.....
.
(9
.. A .
......
.......

quivalente Ereignisse: A = B

. ...............
......
B.A-.......
. ..... .

Abbildung II 1: Teilereignis und quivalente Ereignisse

11 Wahrscheinlichkeitsrechnung

154

5. Vereinigung
Die Vereinigung V zweier Ereignisse A und B ist definiert als die Menge aller
Elementarereignisse, die entweder ZU A allein oder ZU B allein oder sowohl ZU
A als auch zu B gemeinsam gehren. Wir schreiben
(I1l: 6)
V=AuB.
Das neue Ereignis V tritt also genau dann ein, wenn entweder A oder Ballein
oder beide Ereignisse gemeinsam eintreten.' Wir sprechen kurz: "A oder B". Die
Vereinigung stellt sich im Venn-Diagramm wie in Abbildung II 2 (links) dar.

6. Durchschnitt
Der Durchschnitt D zweier Ereignisse A und B ist defmiert als die Menge aller
Elementarereignisse, die sowohl zu A als auch zu B gehren.
(I1l: 7)
D=AnB
Das neue Ereignis D tritt somit genau dann ein, wenn Ereignis A und Ereignis B
gemeinsam eintreten. 2 Wir sprechen kurz: "A und B". Es ergibt sich damit das
Venn-Diagramm in Abbildung II 2 (rechts). Auf die darin enthaltenen Differenzen A\B und B\A werden wir in Krze ZU sprechen kommen.
Vereinigung: V = A u B

Durchschoitt: D = A n B

Abbildung II 2: Vereinigung und Durchschnitt

7. Disjunkte Ereignisse
Zwei Ereignisse A und B heien disjunkt oder unvereinbar, wenn

AnB=0

(I1l: 8)

gilt, sie also kein Elementarereignis gemeinsam haben (sich nicht "schneiden").

Damit gilt immer, dass zwei beliebige Elementarereignisse selbst paarweise disjunkt sind.
Disjunkte Ereignisse schlieen sich gegenseitig aus. Dies bedeutet, dass sie

nicht zugleich eintreten knnen. Wenn also A eintritt, tritt B nicht ein. Wenn A
1 In der vorhergehenden Schematik wurde die Vereinigung mehrerer Ereignisse Aj beschrieben. Fr diesen Fall gilt: Genau dann, wenn mindestens ein ~ eintritt, tritt A ein.
2 Fr den in der Schematik beschriebenen Fall gilt: Genau dann, wenn alle ~ eintreten, tritt
Aein.

1. Grundlagen der Wahrscheinlichkeitstheorie

155

nicht eintritt, bedeutet dies aber nicht automatisch, dass B eintritt. Dies ist auch

im Venn-Diagramm in Abbildung II 3 Oinks) zu sehen.

8. Komplementre Ereignisse
Unter dem Komplementrereignis oder Komplement A eines Ereignisses A
verstehen wir die Menge smtlicher Elementarereignisse des Ergebnisraumes n,
die nicht in Ereignis A enthalten sind. Das Ereignis A tritt also immer dann ein,
wenn das Ereignis A nicht eintritt. Genau dann, wenn A eintritt, tritt A nicht
ein.

Komplementre Ereignisse sind nach (I1l: 9) stets disjunkt und ergnzen sich
nach (I1l: 10) zum sicheren Ereignis.
AnA=0

(I1l: 9)

(I1l: 10)
AuA=n
Es zeigt sich das Venn-Diagramm in Abbildung II 3 (rechts). Zudem ist festzuhalten, dass das komplementre Ereignis zu A wieder das ursprngliche Ereignis A ergibt, also

A=A

(I1l: 11)

gilt, und das Komplementrereignis zum sicheren Ereignis das unmgliche Ereignis ist (I1l: 12) und umgekehrt (I1l: 13):
n=0

(I1l: 12)

i2hn

(I1l: 13)

Disjunkte Ereignisse A und B

()

Komplementrereignis

........................0
...........
............. .

............ x
...........

.......................

. .

Abbildung II 3: Disjunkte und komplementre Ereignisse

9. Differenz
Ein Ereignis C, welches sich dadurch ergibt, dass die Elemente, die die Ereignisse A und B gemeinsam haben (d.h. A n B), von den Elementen des Ereignisses A abgezogen werden, bezeichnen wir als Differenz. Das Ereignis C be-

schreiben wir formal als


C=A \B
und sprechen "C ist A ohne B

I1

(I1l: 14)

Das Ereignis C tritt genau dann ein, wenn zwar

A, aber nicht B eintritt. Es resultiert das Venn-Diagramm in Abbildung II 4.

11 Wahrscheinlichkeitsrechnung

156

Das Komplement A eines Ereignisses A knnen wir als spezielle Differenz betrachten. Es gilt nmlich
A=Q\A.

(II1: 15)

AnB
Differenz: A\ B

Abbildung II 4: Differenz

Beispiel 11 1-6

Ereignisbeziehungen

Ein Glcksspiel bestehe aus dem Drehen der beiden folgenden GIOcksrder. Der Spielteilnehmer soll dabei das Produkt der zwei sich ergebenden Zahlen als Gewinn erhalten.

10

20

30

40

Der Ergebnisraum (43 = 12 Elemente) dieses Zufallsexperiments kann wie folgt dargestellt werden:

n=

(IO,I), (20,1), (30,1), (40,1),}


(10,2), (20,2), (30,2), (40,2),
{
(10,0), (20,0), (30,0), (40,0)

Gegeben seien auerdem die folgenden ausgewhlten Ereignisse:


E,: "Der Spieler macht keinen Gewinn."

--> E, = {(tO,O), (20,0), (30,0), (40,0))


E2: "Der Spieler macht einen Gewinn. 1I

-->E, ={(tO,I), (20,1), (30,1), (40,1), (10,2), (20,2), (30,2), (40,2))


E3: "Der Spieler gewinnt mindestens 60 Euro."

--> E, = {(30,2), (40,2))


E.: "Der Spieler gewinnt genau 10 Euro."

--> E, = {(t 0,1))

157

1. Grundlagen der Wahrscheinlichkeitstheorie

Zur Veranschaulichung der vorhergehend behandelten Notationen, Beziehungen und Operationen wollen wir nun anhand dieser Angaben einige Sachverhalte darstellen:

Sicheres Ereignis:
U,: "Der Spieler gewinnt hchstens 80 Euro." .... U, = n

Unmgliches Ereignis:
U2: "Der Spieler gewinnt 200 Euro." .... U, = 0

Teilereignis:
Es gilt E. c E2, da alle Elemente von E. auch in E2 enthalten sind.

Disjunkte Ereignisse:
Es gilt E, n E2 = 0, E, n E:. = 0 und E, n E. = 0, da die betreffenden Ereignisse je
weils keine Elemente gemeinsam haben.

Komplementre Ereignisse:
Das Ereignis E, ist das komplementre Ereignis zu E2 (E, = E, ), da E, u E, = n und
E,nE,=0.

Differenz:
E, \ Es = {(10,1), (20,1), (30,1), (40,1), (10,2), (20,2}j

Vereinigung:
Es uE, ={(30,2), (40,2), (10,1}j

Durchschnitt:
E,nE, = {(30,2), (40,2}j
Diese Mengen lassen sich auch in Tabellenform darstellen. So entspricht beispielsweise die Differenz E2 I E3 den im Folgenden eingekreisten Punkten. Alle anderen
Mengen lassen sich analog skizzieren.
GIOcksrad 1
10

Glcksrad 2

II~

20

EI

40

30
E,
E2

I-

E3

I
-I

1.3 Wahrscheinlichkeitsregeln und -definitionen


Das Ergebnis eines Zufallsexperimentes ist nicht vorhersehbar. Es ist hchstens
mglich den Ereignissen gewisse "Wahrscheinlichkeiten" zuzuordnen. Whrend es
sich bei den Ereignissen um Mengen handelt, sind Wahrscheinlichkeiten reelle
Zahlen. Eine Wahrscheinlichkeit ist also nichts anderes als ein Ma zur Quantifizierung des Grades der Sicherheit oder Unsicherheit des Eintretens eines bestinunten Ereignisses im Rahmen eines Zufallsexperimentes. Welche Voraussetzungen ein
solches Ma erfllen muss, wollen wir im Folgenden nher betrachten.

11 Wahrscheinlichkeitsrechnung

158

1.3.1

Axiome der Wahrscheinlichkeitsrechnung

Jede Funktion P, die einem Ereignis A eine Wahrscheinlichkeit P(A) zuordnet, wird
als Wahrschelnllchkeitsfunktion und P(A) als Wahrscheinlichkeit von A bezeichnet. wenn sie die drei folgenden. von A. N. Kolmogorov (1933) formulierten
Axiome (keiner Beweise bedrfenden Grundstze) etfllt:
Axiom 1
Die Wahrscheinlichkeit P(A) des Eintretens eines betrachteten Ereignisses A eines
Zufallsexperimentes ist eine eindeutig bestimmbare, nichtnegative reelle Zahl, die
zudem kleiner oder gleich Eins sein muss. 3 Dies muss fr alle A c n etfllt sein.
0";P(A)";1

(I1l: 16)

Axiom 2
Die Wahrscheinlichkeit P(A) eines Ereignisses, welches alle Elementarereignisse
enthlt (sicheres Ereignis A = n). ist gleich Eins.
P(Q) = 1

(I1l: 17)

Axiom 3
Schlieen sich zwei Ereignisse A und B gegenseitig aus (disjunkte Ereignisse). so
gilt die Additionsregel
P(A u B) = P(A) + P(B)

falls

AnB=0.

(II1: 18)

Verallgemeinern wir diese Regel fr eine beliebige Anzahl paarweise disjunkter Ereignisse, so ergibt sich Folgendes:

P(A, u A, u ... u An) = P(A, ) + P(A,) + ... + P(An)


falls
A, n AI = 0 fr alle ;,< j mit i.j = 1.2... n

(I1l: 19)

Aus diesen Axiomen lassen sich ohne groe Schwierigkeiten weitere wichtige
WahrschelnUcbkeitsstze ableiten. die in der Wahrscheinlichkeitsrechnung von
groer Bedeutung sind:
Satz 1 - Wahrscheinlichkeit von komplementren Ereignissen
Die Wahrscheinlichkeit eines zu einem Ereignis A komplementren Ereignisses A
ergibt sich stets als
P(A) = 1 - P(A) .
Dieser Zusammenhang lsst sich relativ einfach beweisen: Da A und

(II1: 20)

A komplemen-

tre Ereignisse sind, ergibt die Vereinigung dieser Ereignisse den Ergebnisraum n.
d.h. es gilt Au A = n (vgl. Abbildung II 3, rechts). Die Wahrscheinlichkeit des
Eintretens des sicheren Ereignisses n ist nach dem Axiom 2 gleich Eins:
3 Genau genommen lautet Axiom 1 nur P(A) > O. In der Literatur wird jedoch meist bereits

die Nonnierungsfunktion von Axiom 2 in Axiom 1 bercksichtigt, was zu (111: 16) fhrt.

1. Grundlagen der Wahrscheinlichkeitstheorie


P(n) = 1

159
-7

P(A u ) = 1

Unter Umstellung von Axiom 3 kann daraus aufgrund der Disjunktheit der beiden
Ereignisse der Zusammenhang
P(A u )

= P(A) + P() = 1

-7

P() = 1 - P(A)

hergeleitet werden.
Satz 2 - Wahrscheinlichkeit des unmglichen Ereignisses
Das unmgliche Ereignis hat die wahrscheinlichkeit Null.
p(e!) = 0

(I1l: 21)

Auch der Beweis hierfr ist nicht schwer zu erbringen: n und e! sind komplemenn). Die Wahrscheinlichkeit des Eintretens von n ist nach
Axiom 2 gleich Eins. Unter Anwendung von Satz 1 und Axiom 1 ergibt sich damit

tre Ereignisse (0 =

P(e!) = I-P(0) = I-P(n) = 1-1 = O.

Satz 3 - Wahrscheinlichkeit einer Differenz A\B


Fr die Wahrscheinlichkeit einer Differenz A \B gilt stets
P(A \ B) = P(A) - P(A n B) .

(I1l: 22)

Erklren lsst sich dieser Zusammenhang dadurch, dass sich das Ereignis A aus den
beiden disjunkten Ereignissen A\ Bund A n B (vgl. Abbildung II 4) zusammensetzt
und somit nach Axiom 3
P(A) = P(A \ B) + P(A n B)

gilt. Durch Umformung lsst sich daraus Satz 3 herleiten.


Satz 4 - Additionssatz fr beliebige Ereignisse
Fr zwei beliebige Ereignisse A und Baus

n gilt stets

P(A u B) = P(A) + P(B) - P(A n B) .

(I1l: 23)

Zur Erklrung dieser Formel werfen wir zunchst einen Blick auf Abbildung II 2.
Aus dieser lsst sich ablesen, dass sich ein Ereignis Au Baus 3 disjunkten Ereignissen zusammensetzt} also
A uB = (A \ B)u (A nB) u(B \A)
gilt. Nach Satz 3 gilt dann
P(A \ B) = P(A) - P(A n B)
P(B \ A) = P(B) - P(A n B) .
Unter Anwendung der Verallgemeinerung von Axiom 3 bzw. (Ill: 19) und Zusammenfhrung dieser Erkennmisse ergibt sich schlielich
P(AuB) = P(A \B)+P(AnB)+P(B \A)
= P(A) - P(A n B) + P(A n B) + P(B) - P(A n B)
= P(A) + P(B) - P(A n B).

An dieser Stelle sei noch erwhnt, dass Axiom 3 (disjunkte Ereignisse) nichts anderes als ein Spezialfall dieses Satz 4 fr A n B = e! bzw. P(A n B) = 0 ist.

11 Wahrscheinlichkeitsrechnung

160

Fr den Fall dreier beliebiger Ereignisse A, Bund C lautet die Beziehung


P(A u B u C) = P(A) + P(A n B) + P(A n B n C)
oder alternativ
P(A u B u C)= P(A) + P(B) + P(C)
-P(A nB)-P(A nC) -P(BnC)+P(A nB nC) .

(m: 24)

Wir knnen uns die Bedeutung von (I1l: 24) relativ schnell klar machen: Wrden
wir einfach nur P(A), P(B) und P(C) addieren, kme es dazu, dass wir die Wahrscheinlichkeiten gemeinsamer Elementarereignisse mehrfach bercksichtigen. So
wrden wir im Venn-Diagranun

die Elemente in den Bereichen I, 2 und 3 doppelt und jene im Bereich 4 dreifach
erfassen. Deswegen subtrahieren wir die Wahrscheinlichkeit jener Ereignisse, die
die Elementarereignisse jeweils paarweise gemeinsam haben. Der Bereich 4, der
die Elemente enthlt, die A, Bund C gemeinsam haben, bleibt dadurch jedoch unbercksichtigt, sodass die Wahrscheinlichkeit P(A n B n C) wieder addiert werden
muss.
Satz 5 - Monotonieeigenschaft des wahrscheinlichkeitsmaes
Ist ein Ereignis A eine Teilmenge eines Ereignisses B, d.h. impliziert das Ereignis A
das Ereignis B, dann ist die Wahrscheinlichkeit von A niemals grer als die von B.
Ac B

--+

P(A) S P(B)

(I1l: 25)

Ein formaler Beweis dieser Beziehung erbrigt sich, da ihre Gltigkeit unmittelbar
durch einen Blick auf Abbildung II 1 (links) klar wird 4
Satz 6 - Durchschnitte bei einer Zerlegung
Betrachten wir Abbildung II 5, so erkennen wir, dass hier ein Ergebnisraum n vorliegt, der sich aus drei paaI"W"eise disjunkten Ereignissen A,., ~ und A3 zusammensetzt. Resultiert aus der Vereinigung von m Ereignissen A,., ~, ... , ~ der Ergebnis-

raum C, d.h. Al U A 2 U ... U Am = n, und sind diese m Ereignisse paarweise disjunkt, d.h. Ai n A j = 0 fr i,j = 1,2, ... ,m mit i
j, sagen wir, dass die Aj eine

Zerlegung von

n bilden.

'*

Es ist im Zusammenhang mit (IIl: 25) anzumerken, dass zwar A - B --> P(A) - P(B) gilt,
jedoch nicbt P(A) P(B) --> A B.

1. Grundlagen der Wahrscheinlichkeitstheorie

161

Bilden die A, eine Zerlegung von 0, so gilt fr jedes Ereignis B c 0


P(B) = !P(B n A,)

falls

(JA , =0,

.ml:~

A, nA, =0 fr alle i,j=1,2, ... ,m mit h'j

j=1

Betrachten wir zur Verdeutlichung von (Ill: 26) nochmals Abbildung II 5, so erkennen wir, dass sich das Ereignis B aus den disjunkten Ereignissen X, Y und Z zusammensetzt. Fr diese gilt
X=BnA Y=BnA" Z=BnA,.
"
Die wahrscheinlichkeit des Ereignisses B lsst sich daher wie folgt ermitteln:

P(B) = P(X) + P(Y) +P(Z) = P(B n A,) + P(B n A,) + P(B n A,) = ~)(B n AJ)
j_ 1

Zerlegungseigenschaften:
A,

A,

IX

\..Z

O=A, uA, uA,


A,

A, nA, =0
A, nA, =0
A, nA, =0

Abbildung II 5: Durchschnitte bei der Zerlegung


Die bisher vorgestellten Axiome und die daraus abgeleiteten Stze liefern keinen

Beitrag zur Ermittlung der Zahl P(A). Sie legen lediglich fonnale Eigenschaften
fr Wahrscheinlichkeiten fest, dienen dazu, weitere Rechenregeln abzuleiten und

die Wahrscheinlichkeiten komplexer Ereignisse zu berechnen. Sie bilden die Basis


der Wahrscheinlichkeitstheorie. Wie sich die eigentlichen Wahrscheinlichkeiten
messen oder angeben lassen, werden wir im Rahmen der folgenden Wahrscheinlichkeitsbegriffe nher betrachten.

1.3.2

Klassische Wahrscheinlichkeitsdefinition

Nach der sog. klassischen oder Laplaceschen Definition der Wahrscheinlichkeit ergibt sich die Wahrscheinlichkeit P(A), dass bei einem bestimmten Zufallsexperiment ein Ereignis A eintritt, als der Quotient aus der Anzahl der fr A gnstigen
Elementarereignisse und der Anzahl aller mglichen Elementarereignisse.
P(A) = ~ = Anzahl der fr A gnstigen Elementarereignisse
I0 I
Anzahl aller mglichen Elementarereignisse

(I1l: 27)

Diese Fonnel gilt nur fr Zufallsexperimente mit endlich vielen Elementarereignissen, bei denen aufgrund der Ausgangssituation und der sonstigen Bedingungen,
unter denen das Geschehen abluft, als sicher gelten kann, dass die einzelnen Ele-

162

11 Wahrscheinlichkeitsrechnung

mentarereignisse dieselbe Chance des Eintretens besitzen, also gleicbwabrscbeinlieb sind. Zufallsexperimente dieser Art heien Laplace-Experimente.
Eigentlich sollte diese klassische Wahrscheinlichkeitsdefinition in der Praxis nur
auf Glcksspiele (wie z.B. Mnzwurf, Wrfeln oder Rouletre) und auf recht einfacb
konstituierte Zufallsexperlmenle angewendet werden, da wir hier wohl am ehesten
von gleichwahrscheinlichen Elementarereignissen ausgehen knnenS Trotzdem
wird sie aber hufig auch auf komplexere Sachverhalte angewendet. Das Resultat
sind zwar quantifizierte Wahrscheinlichkeitsaussagen, doch sind diese vielleicht nur
annhernd richtig oder zu ungenau, um als Entscheidungsgrundlage zu dienen.

Beispiel 11 1-7

Laplace-Wahrscheinlichkeit

In einer Schachtel befinden sich insgesamt 10 Zndkerzen, wovon genau 2 defekt sind.
Gesucht ist nun die Wahrscheinlichkeit P(A) eines Ereignisses A, dass eine zufllig ausgewhlte ZOndkerze funktionstOchtig ist.
Da der Ergebnisraum hier insgesamt 10 Elementarereignisse und das Ereignis A genau 8
(gnstige) Elementarereignisse umfasst, lsst sich P(A) nach (111: 27) als
P(A) =

1~ = 0,80

ermitteln.

Gehen wir von einem Zufallsexperiment mit einem Ergebnisraum mit n gleichwahrscheinlichen Elementarereignissen aus, ergibt sich die Wahrscheinlichkeit dieser einzelnen Elementarereignisse als
1
P(co,) = P(co,) = ... = P(co,) = ... = P(ron ) =n'

(II1: 28)

da aufgrund von Axiom 3


(I1l: 29)

:tP(ro) = 1
i=l

gilt.

Beispiel 11 1-8

Laplace-Experimente

Einmaliges Werfen eines WOrfels


Da der Ergebnisraum Cl = {1,2,3,4,5,6} dieses Zufallsexperimentes genau sechs
Elemente aufweist, gilt fOr die Wahrscheinlichkeiten der einzelnen gleichwahrscheinlichen Elementarereignisse

P({I}) = P({2}) = ... = P({6}) = f'i[ = Ei .

5 Sicherlich knnten wir behaupten, dass Z.B. eine Mnze nicht "perfekt" oder ein Wtfel
nicht "fair" ist und somit der Gleichwahrscheinlichkeit der Elementarereignisse widersprechen, doch stellen solche Manipulationen die Ausnarune dar.

1. Grundlagen der Wahrscheinlichkeitstheorie

lS3

Die Tatsache, dass die Summe der Wahrscheinlichkeiten der Elementarereignise


gleich 1 ist, ist hier relativ leicht zu zeigen:

i_1

LP(O\} = P({l}} + P({2}} + ... + P({S}} = S- = 1


Berechnen wir nun fOr dieses Zufallsexperiment die Wahrscheinlichkeiten einiger Ereignisse (auch unter Zuhilfenahme der bisher behandelten Axiome und Stze):
A,: "gerade Augenzahl"

--> P(A } = ~ = !! = ~

A2: "Augenzahl 5"

--> P(A, } -Iq


- ~- ~
-S

A,: "Augenzahl 5 oder gerade"

--> P(A,} = P(A, u A,} = P(A,} + P(A,} - P(A, n A,}

Inl

=~+~-O=~
2

Zuflliges Ziehen einer Karte aus einem Skatspiel (32 Karten)


Ereignis: "Man erhlt ein Ass (A) oder ein Karo (B)."

--> P(A u B} = P(A} + P(B} - P(A n B}


lAI IBI IAnBI
4
8
1
11
=-+----=-+---=Inl

Inl

Inl

32

32

32

32

Hierbei ist zu beachten, dass das KaroAss sowohl in A als auch in B enthalten und
daher 1/32 abzuziehen ist, um eine Doppelerfassung zu verhindern.

Zweimaliges Werfen eines Wrfels


Betrachten wir die beiden Ereignisse A, = {(x" x,) : x, +x, > 1O} = {(5,S), (S,5), (S,S)]
und A, ={(x"x,): x, + x, ,;; 1O}. Fr die Wahrscheinlichkeit von Ereignis A, gilt

P(A}-~-~-~
, -l l-S.S-12
n

Da zwischen den Ereignissen A, und A, die komplementre Beziehung A, = A, besteht, knnen wir die Wahrscheinlichkeit von A, bestimmen als
1
11
P(A,} =l-P(A,} =1- 12 = 12

Ist bekannt, dass bestimmte Elementarereignisse wahrscheinlicher sind als andere,


liefert der klassische Wahrscheinlichkeitsbegriff meist keine korrekten Aussagen zur
Wahrscheinlichkeit von Ereignissen. Auch bei Fragestellungen wie

Wie gro ist die Wahrscheinlichkeit, dass eine in einer Brauerei abgefllte
Flasche ihre Fllmenge um mehr als 10 ml berschreitet?

Wie ermittelt eine Versicherungsgesellschaft die Wahrscheinlichkeit dafr,


dass ein Versicherungsnehmer (Kfz-Haftpflicht) im nchsten Jahr einen Unfall
verursacht und damit eine Versicherungsleistung rallig wird?

stt die klassische Wahrscheinlichkeitsdefinition an ihre Grenzen, sodass wir uns


im Folgenden noch weiteren Definitionen widmen mssen.

11 Wahrscheinlichkeitsrechnung

164

1.3.3 Statistische Wahrscheinlichkeitsdefinition


Hufigkeitstheoretiker wie J. Venn oder R. von Mises sind der Ansicht, dass die
einzige zulssige Methode zur Bestimmung von Eintrittswaluscheinlichkeiten ein
Experiment sei. Gehen wir zur Begrndung dieser Behauptung von einem beliebig
oft wiederbolbaren Zufallsvorgang aus, d.h. seine Ausgangssituation lasse sich immer wieder von neuem herstellen, sodass jedes Ereignis A bei jeder Durchfhrung
dieselbe Chance des Eintretens hat. Das Welfen einer Mnze ist etwa ein solcher
Zufallsvorgang, und auch beim Ziehen mit Zurcklegen stellt jede einzelne Entnahme eine derartige Wiederholung dar. Bei n-maliger Durchfhrung eines solchen
wiederholbaren Zufallsvorganges, bei dem die n Dutchfhrungen nach den selben
Wahrscheinlichkeitsgesetzen und ohne gegenseitige Beeinflussung ablaufen, ergibt
sich eine Anzahl h,.W von Durchfhrungen, bei denen A eingetreten ist. Die relative Hufigkeit fJA) des Eintretens von A ergibt sich damit zu
1
f.(A)=-h.(A).

(In, 30)

Fr ein fortlaufendes n, d.h. fr eine gegen unendlich strebende Anzahl von Wiederholungen, ist nun zu "erwarten", dass sich die Folge der ((A) "nahe P(A) stabilisiert". Anders ausgedrckt, sollten sich fJA) und P(A) bei einer hinreichend groen
Zahl an Versuchen immer mehr annhern. Ein solches Verhalten wird auch durch
die "Etfahrung" besttigt. So knnen wir beispielsweise bei sehr hufIgem Welfen
einer Mnze erwarten, dass die Kopfseite ungefhr mit einer relativen HufIgkeit
von 0,5 auftritt und finden diese Erwartung nachtrglich fast immer besttigt. In
seinem Buch "Introduction to Statistics" beschrieb Noether, G. E. (1971) etwa folgende Versuchsreihe fr die Hufigkeit des Ereignisses "Kopf" beim Zufa11sexperiment "Welfen einer Mnze":
n Versuche
10
20
40
60
80
100
200
400
600
800
1.000
2.000
3.000
4.000
5.000

~ -mal

"KopP'
7
11
17
24
34
47
92
204
348
404
492
1.010
1.530
2.043
2.515

f. "Kopf"
0,700
0,550
0,425
0,400
0,425
0,470
0,460
0,510
0,580
0,505
0,492
0,505
0,510
0,508
0,503

....

.. 1'
~
~
~

,~

---

Wie unschwer zu erkennen ist, gibt es bei den relativen Hufigkeiten eine Konvergenz gegen den Wert 0,5. Dies ist genau der Wert, den man fr das Ereignis "Kopf"
auch nach der klassischen Wabrscheinlichkeitsdefinition erwarten wrde. Das WlS-

1. Grundlagen der Wahrscheinlichkeitstheorie

165

sen um eine tlstarke ll Abweichung davon (trotz zunelunenden n) wre wohl fr jeden Betrachter ein Anlass, die Mnze als manipuliert zu betrachten, obgleich selbst
das Ereignis, dass bei sehr hufiger Durchfhrung stets nur "Zahl" auftritt, auch bei
Gleichwahrscheinlichkeit von "Kopf' und "Zahl" nicht vllig uttmglich ist.

Der Zusammenhang zwischen Wahrscheinlichkeiten und relativen Hufigkeiten


wurde von J. Bemoulli durch das "Gesetz der groen Zahlen" przisiert. 6 Dieses
besagt, dass die Wahrscheinlichkeit dafr, dass f.(A) von P(A) mindestens um einen
beliebigen positiven Betrag E abweicht, ntit wachsendem n gegen Null konvergiert:
limP(1 f.(A) -P(A) I ~ E) = 0
H_

(I1l: 31)

Das "Gesetz der groen Zahlen" kann, wie wir bereits beim besprochenen Mnzwurfexperiment gesehen haben, zur "Besttigung" von Laplace-Wahrscheinlichkeiten herangezogen werden. Es ist insbesondere dazu geeignet, Aufschluss ber
unbekannte Wahrscheinlichkeiten zu erhalten; darauf beruhen viele Methoden der
induktiven Statistik. Dabei nimmt die Aussagekraft, die f.(A) ber P(A) hat, natrlich ntit wachsendem n zu. Wir sprechen in diesem Zusammenhang bei dem Wert,
bei dem sich die relative Hufigkeit f.(A) bei wachsender Zahl von Versuchswiederholungen "stabilisiert" von der statistischen Wahrscheinlichkeit fr das Eintreten eines Ereignisses A. Es ist jedoch klar, dass der statistische Wahrscheinlichkeitsbegriff keine exakten Wahrscheinlichkeiten, sondern nur Nherungswerte dafr liefern kann. In der Praxis wird Ld.R. fr eine groe, endliche Anzahl n von
Versuchen die beobachtete relative Hufigkeit als Nherungs- oder Schtzwert
P(A) fr die gesuchte Wahrscheinlichkeit P(A) herangezogen:
P(A) = f.(A)

(I1l: 32)

Dabei wird gem (I1l: 31) das Abweichen der relativen Hufigkeit f.(A) von der
Wahrscheinlichkeit P(A) um mehr als den Wert E ntit zunehmendem n immer unwahrscheinlicher.
Abschlieend sei noch erwhnt, dass sich aufgrund der hier beschriebenen Zusammenhnge die bisher behandelten Regeln fr Wahrscheinlichkeiten auch auf relative Hufigkeiten bertragen lassen. So gilt etwa fr zwei disjunkte Ereignisse A
und B VA u B) = f. (A) + f. (B), fr komplementre Ereignisse VA) = 1- fn (A) ,
fr Teilereignisse f. (A) ~ fn (B) , wenn Ac B, usw.

1.3.4

Subjektive Wahrscheinlichkeitsdefinition

In vielen Entscheidungssituationen im Wirtschaftsleben lassen sich wahrscheinlichkeiten weder durch die klassische noch durch die statistische Wahrscheinlichkeitsdefmition objektiv bestimmen. Die objektiven Wahrscheinlichkeitsbegriffe versagen
hufig besonders dann, wenn es darum geht, die Wahrscheinlichkeit einmaliger
Ereignisse zu bestimmen. Fragen wie "Wie gro war am Tag davor die Wahrscheinlichkeit fr einen Reaktorunfall in Tschernobyl?" knnen wir hchstens da-

6 Zur Unterscheidung von einer anderen Form des "Gesetzes der groen Zahlen", das wir im
Rahmen der induktiven Statistik noch kennenlemen werden, wird (I1l: 31) auch hufig als
!lBemoullis Gesetz der groen Zahlen" bezeichnet.

166

11 Wahrscheinlichkeitsrechnung

durch beantworten, indem wir die Wahrscheinlichkeit des Zusanunentreffens der


Ereignisse angeben, die einen Reaktorunfall auslsen knnen. Aber wie sollen wir
die Wahrscheinlichkeit dafr angeben, dass ein bestimmtes Pferd ein Rennen gewinnt oder eine bestimmte Fuballmannschaft deutscher Meister wird? Wir knnen
hier nur auf sog. subjektive Wahrscheinllchkeiten zurckgreifen.
Der Begriff der subjektiven Wahrscheinlichkeit wurde vor allem von B. Oe Finetti
und 1. J. Savage geprgt. Sie und andere Subjektivisten waren der Meinung, dass
alle Bemhungen zur Objektivierung von Wahrscheinlichkeiten zum Scheitern verurteilt sind und letztendlich Wertangaben fr Wahrscheinlichkeiten doch nur vernnftige Glaubensaussagen sein knnten. Anders ausgedrckt, ist die Wahrscheinlichkeit nach dieser Theorie ein Ma fr das persnliche Vertrauen, das ein
Individuum in das Eintreten eines bestimmten Ereignisses setzt.
Beispiel 11 1-9

Subjektive Wahrscheinlichkeit

Zu Beginn eines Wrfelspiels hlt ein Spieler den verwendeten Wrfel fr "fair". Er ordnet
dem Ereignis "Eine Sechs wird gewrfelt." deshalb die subjektive Wahrscheinlichkeit 1/6
zu. Nach mehreren Spieldurchlufen knnte er nun aber seine Meinung ndern und aufgrund seiner Beobachtungen zu der berzeugung kommen, der Wrfel sei ungleichmig.
In diesem Fall wrde er demselben Ereignis nun eine entsprechend hhere oder geringere
subjektive Wahrscheinlichkeit zuordnen. Ist sich der Spieler absolut sicher, dass beim
nchsten Wurf die Sechs fllt, wrde er die Wahrscheinlichkeit sogar als Eins ansehen.

Als praktisches Verfahren, die subjektive Wahrscheinlichkeit eines Individuums fr


das Eintreten eines bestimmten Ereignisses herauszufmden, wollen wir im Folgen-

den zwei Mglichkeiten vorstellen: Die Auswertung alternativer Risikosituationen


und die Analyse von Wettquotienten. Beide Verfahren setzen allerdings Risikoneutralitt des betrachteten Individuums voraus. Zum besseren Verstndnis dieser Voraussetzung betrachten wir zunchst folgendes einfaches Gewinnspie!:
Mit einer Wahrscheinlichkeit von jeweils 50 % gewinnt oder verliert man 100 Euro,
d.h. im Durchschnitt wrde man weder gewinnen noch verlieren. Eine Person, die
sich nun im Hinblick auf die Teilnahme an diesem Gewinnspie! als indifferent erweist, ist rjsikoneutral. Wer bereit ist, fr die Teilnahme am Spiel einen Einsatz Zu
zahlen, ist rjsikofreudig. Wer nicht bereit ist, gegen Zahlung eines Einsatzes teilzunehmen, ist risikoavers.
Ein erstes Verfahren besteht nun darin, einem Individuum alternative Rlslkosituationen anzubieten. So wren etwa die folgenden denkbar:
Situation A: Man erhlt mit einer Wahrscheinlichkeit p den Betrag 100 Euro
oder mit einer Wahrscheinlichkeit 1 - P den Betrag 0 Euro.
Situation B: Man erhlt 100 Euro, wenn der DAX innerhalb des nchsten Monats um 100 Punkte fallt. Andernfalls erhlt man 0 Euro.
Die subjektive Wahrscheinlichkeit dafr, dass der DAX im nchsten Monat um 100
Punkte fllt, erhalten wir nun dadurch, dass wir p so lange variieren, bis das Individuum zwischen beiden Risikosituationen indifferent ist.

1. Grundlagen der Wahrscheinlichkeitstheorie

167

Eine weitere interessante Mglichkeit der Ableitung subjektiver Wahrscheinlichkeiten, besteht in der Analyse von Wettquotienten (Quoten). Betrachten wir dazu
zunchst, wie in der Praxis fr eine Fuballwette Wettquotienten festgelegt werden:
In einem ersten Schritt legt der Buchmacher zunchst fr jedes der mglichen Er-

eignisse "Sieg", "Unentschieden" und "Niederlage" eine (subjektive) Wahrschein-

lichkeit fest, wobei die Summe der drei Wahrscheinlichkeiten natrlich bei Eins liegen muss. Fr ein Spiel Fe Bayern gegen Schalke 04 knnte sich z.B.
Sieg Bayern:

0,60

Unentschieden:

0,25

Sieg Schalke:

0,15

ergeben. Aus diesen Wahrscheinlichkeiten werden dann sog. faire Quoten nach der
Formel Q' - 1 ! P (mit Q' - faire Quote und P - Wahrscheinlichkeit) festgelegt:
Sieg Bayem:

1 / 0,60 - 1,67

Unentschieden:

1 / 0,25 - 4,00

Sieg Schalke:

1 /0,15 - 6,67

Dies sind jedoch nicht die realen Quoten, da der Buchmacher bei den fairen Quoten das gesamte Geld der Verlierer an die Gewinner auszahlen msste. Die realen
Quoten sind daher niedriger. Sie werden durch Multiplikation mit (1 - b) bestimmt,
wobei b der Anteil der Einstze ist, der vom Buchmacher als Gewinn einbehalten
wird. Es gilt also QR - Q' . (1 - b). Im Fall b - 0,10 erhielten wir fr das obige Beispiel folgende reale Quoten:
Sieg Bayem:

1.67 . 0.90 - 1,5

Unentschieden:

4,00 . 0,90 - 3,6

Sieg Schalke:

6.67 . 0.90 - 6,0

Diese Quoten knnen nun in verschiedenen Formaten angegeben werden:


EU-Format
UK-Format
US-Format
Sieg Bayern:

1,5

1/2

- 200

Unentschieden:

3,6

13/5

+ 260

Sieg Schalke:

6,0

5/ 1

+ 500

Beim EU-Format gibt die Quote das Verhltnis von mglicher Auszahlung zum Einsatz an. Der auszuzahlende Betrag ergibt sich im Gewinnfall aus der Multiplikation
des Wetteinsatzes mit der Quote. Setzen wir 100 Euro erfolgreich auf Bayern, wrden wir also hier 100 Euro 1,5 - 150 Euro, d.h. einen Gewinn von 50 Euro, erhalten, den wir auch ber 100 Euro (1,5 - 1) - 50 Euro bestimmen knnen.
Beim UK-Format geben die Quoten das Verhltnis von mglichem Gewinn zum
Einsatz an. Den mglichen Gewinn erhalten wir daher durch Multiplikation des
Einsatzes mit der Quote. Beim Sieg von Bayern lge der Gewinn in unserem Beispiel also bei 100 Euro 1 ! 2 - 50 Euro.
Beim US-Format werden die Quoten im Plus- und Minusformat angegeben, wobei
die Vorzeichen jedoch keine mathematische Bedeutung haben. Minusquoten zeigen den bentigten Einsatz fr einen Gewinn von 100 Einheiten an. Plusquoten
den Gewinn bei einem Einsatz von 100 Einheiten. Bei einem Sieg von Bayern er-

168

11 Wahrscheinlichkeitsrechnung

halten wir also bei einem Einsatz von 100 Euro einen Gewinn von 100 Euro .
100/200 = 50 Euro. Bei einem erfolgreichen Tip auf den Sieg von Schalke erhalten
wir hingegen einen Gewinn von 500 Euro.
Da wir nun wissen, wie Wettquotienten festgelegt und interpretiert werden, sind
wir im Umkehrschluss auch in der Lage von gegebenen Wettquotienten auf die

Wahrscheinlichkeiten Zu schlieen, die das Individuum bei der Aufstellung der


Wettquotienten unterstellt hat. Bietet also der Buchmacher in unserem Beispiel eine
Quote von 1,5 fr den Sieg von Bayern an und wissen wir, dass er stets 10 % der
Einstze einbehlt, so knnen wir die von ihm angenommene wahrscheinlichkeit
als 1 / (1,5 / 0,90) = 0,6 (d.h. l/(QR/(1 - b)) = lIQ' = p) ermitteln.
Auerdem knnen wir eine Person hinsichtlich der Quote befragen, zu der sie ge-

rade noch bereit ist, auf das Eintreten eines Ereignisses A ZU wetten, und daraus
subjektive Wahrscheinlichkeiten ableiten. Wir wollen dies am nachfolgenden Beispiel veranschaulichen.

Beispiel 11 1-10

Wetlquotienten

Jemand ist gerade noch bereit mit der Quote 5 (EU-Format) darauf zu wetten, dass
Deutschland im Jahr 2014 Fuballweltmeister wird. Dies bedeutet, dass er pro eingesetzten Euro eine Auszahlung von 5 Euro bzw. einen Gewinn von 4 Euro fordert. Eine zahlenmige Vorstellung von der subjektiven Wahrscheinlichkeit der Ereignisse A: "Deutschland
wird Weltmeister" und : "Deutschland wird nicht Weltmeister" ergibt sich daraus als
Kehrwert der EU-Quote bzw. Komplementrwahrscheinlichkeit zu
P(A) =

51 = 0,2

P(A) = 1-P(A) = 0,8.

Da sich fOr solche Ereignisse wohl keine objektiven Wahrscheinlichkeiten bestimmen lassen, sind diese Werte die einzig sinnvollen Wahrscheinlichkeitsmae.

Bei Betrachrung von Beispiel II 1-10 wird der kritische Leser feststellen, dass es
wohl kein effIZientes Verfahren ist, die Wahrscheinlichkeit eines Ereignisses aus der
Wettbereitschaft nur einer einzigen Person abzuleiten. Diese hngt nmlich davon
ab, welche Informationen die Person nutzt und wie sie diese verarbeitet, und ist
daher allein oft wenig aussagekrftig. In der Praxis wird daher hufig versucht subjektive Wahrscheinlichkeiten durch die mehrmalige Befragung einer Gruppe von
Experten zu objektivieren.

1.4 Zufallsauswahl und Kombinatorik


Im Rahmen des klassischen Wahrscheinlichkeitsbegriffes wurde die Wahrschein-

lichkeit eines Ereignisses A als Quotient aus der Anzahl der fr A gnstigen Elementarereignisse und der Anzahl aller mglichen Elementarereignisse definiert. Bei

einfachen Zufallsexperimenten wie etwa dem Wrfeln lassen sich diese Flle auch
recht einfach ermitteln. Bei komplexeren Experimenten ist dies jedoch etwas komplizierter. In der Vergangenheit wurden daher eine Reihe von Methoden entwickelt, die bei der Ermittlung dieser Flle hilfreiche Dienste leisten. Genau mit diesen Verfahren wollen wir uns nun nher befassen.

1. Grundlagen der Wahrscheinlichkeitstheorie

1.4.1

169

Zufallsauswahl und Urnenmodell

Unter einer Zufallsauswahl verstehen wir allgemein das zufallige Ziehen von n
Objekten (Stichprobe) aus einer endlichen Menge von N Objekten (Grundgesamtheil). Typische Beispiele hierfr sind etwa die Befragung von 1.000 Personen aus
der deutschen Bevlkerung im Rahmen einer Meinungsumfrage oder die Entnahme
von 50 Produkten aus der laufenden Fertigung. Zur Veranschaulichung dieses
Auswahlprozesses und seiner verschiedenen Varianten wird in der Wahrscheinlich-

keitstheorie das sog. urnenmodell herangezogen. Dabei befmden sich in einer


Urne N gleichartige Kugeln, die durchnummeriert sind und von denen zufallig
(blind) n Kugeln mit oder ohne anschlieendes Zurcklegen herausgegriffen und
mit oder ohne Bercksichtigung der Reihenfolge (Anordnung) notiert werden (vgl.
Abbildung II 6). Gerade von der Reihenfolge und dem Zurcklegen hngt letztendlich die Anzahl der mglichen Elementarereignisse (Auswahlen, Stichproben)
des Zufallsexperimentes ab.
Ziehen

,/"

'-

........,
./

000
...
'- 0

Anordnung

mit

Zurckleg.m

ohne

ja

nein

IV

./

Abbildung II 6: Urnenmodell
Die in Abbildung II 6 auftauchenden rmischen Ziffern sind lediglich als Platzhalter
zu betrachten, die im Abschnitt II 1.4.2.2 nher behandelt werden.

1.4.2

Kombinatorik

Die Kombinatorik befasst sich allgemein mit der Bildung von Zusanunenstellungen
von Elementen aus einer vorgegebenen endlichen Menge. Verschiedene kombinatorische Modelle stellen dabei die Anzahl der mglichen Zusammenstellungen fest.
Um diese unter II 1.4.2.2 nher erlutern und bersichtlich darstellen zu knnen,
fhren wir im Abschnitt II 1.4.2.1 zunchst einige wichtige Begrifflichkeiten ein.
1.4.2.1

n-Fakultt und Binomialkoeffizient

Unter der n-Fakultt versteht man das Produkt der natrlichen Zahlen von 1 bis n:
n!:= 123 ... (n-1)n

(I1l: 33)

Fr sie gelten die folgenden Zusammenhnge:


O!

:=

(n+1)! := n! '(n+1)

(I1l: 34)
(I1l: 35)

170

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-11

Fakultten

Bestimmen wir einige einfache Fakultten:


11 = 1
21=12=2
31=123=6
Unter Anwendung von (111: 35) lsst sich 4-Fakultt wie folgt ermitteln:
41=314=24
Da bereits 101 den Wert 3.628.800 liefert, knnen wir festhalten, dass Fakultten enorm
schnell ansteigen.
Der sog. Binomialkoeffizient ("N ber n") ist allgemein definiert als

(N)
n

:=

NI

nl (N-n)1

mit

(II1: 36)

N>O,n~O,N~n,

wobei N und n nicht nur positiv, sondern auch ganzzablig sein mssen. Fr die
Sonderfalle n = 0, n = N, n = 1 und n = N - 1 gilt fr diesen

Auerdem gilt
(I1l: 37)

Beispiel 11 1-12

Binomialkoeffizient

Berechnen wir den Binomialkoeffizienten "7 ber 3":


7)
71
( 3 = 31(7-3)1

71
7654321
3141 = 321 . 4321

765
--=35
321

Wie wir hier deutlich erkennen knnen, ist ein Teil der Faktoren des Nenners, nmlich
(N - n)l, auch im Zhler enthalten, sodass sich dieser Teil wegkrzen lsst und sich die
Berechnung des Binomialkoeffizienten erheblich vereinfacht. Besonders fOr groe N wird
daher auch hufig auf die Formel

(~) =

N(N-l) (N-2) .... (N-n +1)


nl

zurckgegriffen.

7 Weitere wesentliche Eigenschaften von Binomialkoeffizienten werden beschrieben in Auer,


B.R., Seitz, F. (2009), KapitelL

1. Grundlagen der Wahrscheinlichkeitstheorie

171

Bei Berechnungen mit Binomialkoeffizienten kann sich insbesondere

(~)+ (7)+ (~)+ . . +(:) = ZN

(I1l: 38)

als ntzlich erweisen. Das Ergebnis dieser Formel kann nmlich fr den Fall, dass
ein Ergebnisraum n genau N Elementarereignisse umfasst, als die Anzahl aller
mglichen Teilmengen von D interpretiert werden.
Beispiel 11 1-13

Teilmengen

Berechnen wir (111: 38) fOr N = 4, so erhalten wir

bzw.
2'=16.
Enthlt also ein Ergebnisraum genau 4 Elementarereignisse, so knnen wir daraus genau
16 Teilmengen bilden. Nehmen wir etwa an, die Elementarereignisse sind A, B, C und 0,
so erhalten wir die folgenden mglichen Teilmengen:

{A}

{AB}

{ABC}

{ABCO}

{B}

{AC}

{ABO}

{CI

{AO}

{ACO}

{O}

{BC}

{BCO}

{}

{BO}
{CO}

1.4.2.2

Prinzipien der Kombinatorik

Werden aus einer Grundgesamtheit (z.B. einer Urne) mit N Elementen (z.B. Kugeln), welche von 1 bis N "durchnummeriert" sind, n Elemente zufallig entnommen, so hngen die Anzahlen In I der mglichen Stichprobenergebnisse von der
Art der Entnahme ab. Diese Entnahmearten haben wir bereits in Abbildung II 6
mittels der Ziffern I bis IV klassifiziert und wollen sie nun im Detail bettachten:
Situation I
Ziehen mit Zurcklegen und mit Bercksichtigung der Anordnung

Da im Urnenfall aufgrund des Zurcklegens bei jedem Zug erneut auf N sich in der
Urne befindliche Kugeln zugegriffen und die Reihenfolge des Ziehens bercksichtigt wird, ist die Anzahl der Mglichkeiten In I definiert durch
InI I =NN ... N=N"

(I1l: 39)

172

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-14

Anwendungsbeispiele Situation I

1. Fuballtoto
Beim sog. Fuballtoto (lI-er Wette) tippt ein Spieler bei 11 Begegnungen jeweils auf "Sieg
der Heimmannschaft", "Sieg des Gastes" oder "Unentschieden". Somit gilt in diesem Fall
N = 3 und n = 11. Damit hat er insgesamt 10'1 = 3" = 177.147 Mglichkeiten seinen Tippschein auszutOllen.
2. Bits und Bytes
Ein Byte besteht aus 8 Bit, wobei jedes Bit mit 0 oder 1 besetzt werden kann. In diesem
Fall ist also N = 2 und n = 8. Es ergeben sich daraus genau 10'1 = 28 = 256 verschiedene
Byte-Muster.
3. Zahlenschlsser
Wie gro ist die Wahrscheinlichkeit P, dass ein Dieb durch Raten die Kombination eines
Zahlenschlosses mit 3 Ringen Oeweils Ziffern von 0 bis 9) herausfindet?

10' I= 10' = 1.000 -->

P = 1.~00 = 0,001

Liegen k Urnen mit unterschiedlichen Kugelanzahlen N, Ci = 1,2, ... ,k) vor, wobei
aus jeder eine Kugel gezogen wird, lsst sich die Anzahl der Mglichkeiten In I als
I n' I = N, . N, ..... Nk

(I1l: 40)

bestimmen.

Beispiel 11 1-15

Weiteres Anwendungsbeispiel Situation I

Stellenbesetzung
Ein Unternehmen beabsichtigt jeweils einen neuen Mitarbeiter in den Bereichen Controlling, Finanzen und Personal einzusetzen. Beworben haben sich 3 Controller, 5 Personaler
und 2 ehemalige Banker, sodass das Unternehmen 10'1 = 3 . 5 . 2 = 30 Mglichkeiten hat
die Stellen zu besetzen.

SituationD

Ziehen ohne Zurcklegen und mit Bercksichtigung der Anordnung


Durch die Tatsache, dass die Kugeln nach dem Ziehen nicht mehr zurckgelegt
werden, reduziert sich die Anzahl der Kugeln, die fr einen zweiten, dritten, usw.
Zug zur Verfgung stehen. Dementsprechend ergibt sich die Anzahl der Mglichkeiten unter Bercksichtigung der Reihenfolge folgendermaen:
Inn I =N.(N-1).(N-2) ..... (N-n+1)=

N!
(N -n)!

(I1l: 41)

Es ergeben sich also N Mglichkeiten den ersten Platz der Zusammensetzung zu


besetzen. Danach bleiben fr die Besetzung des zweiten Platzes noch N-l Elemente, fr den dritten Platz noch N-2 Elemente usw.

173

1. Grundlagen der Wahrscheinlichkeitstheorie

Beispiel 11 1-16

Anwendungsbeispiele Situation 11

1. Urnenspiel

In einer Urne befinden sich 4 Kugeln, die von 1 bis 4 durchnummeriert und daher unter
scheidbar sind. Es werden nacheinander bzw. unter Bercksichtigung der Reihenfolge
zwei Kugeln entnommen, wobei eine vorher gezogene Kugel nicht mehr in die Urne zurckgelegt wird. Die mglichen Ausgnge dieses Auswahlvorganges knnen wie folgt dargestellt werden:

1~!
Zug 1

Zug 2

2~!
Zug 1

Zug 2

3~:
ZUg 1

Zug 2

4~:
Zug 1

ZUg 2

Dabei ist die erste Zahl jeweils das Ergebnis des ersten und die zweite das Ergebnis des
zweiten Zuges. Es ergeben sich insgesamt In"l = 4 . 3 = 12 mgliche Ziehungsergebnisse.
2. Pferderennen
Wie viele Tippreihen gibt es, wenn bei einem Pferderennen insgesamt 20 Pferde antreten
und die 3 schnellsten Pferde der Reihe nach zu tippen sind?

In" I =

201 =20.19.18=6.840
(20-3)1

Werden alle N Elemente der Grundgesamtheit gezogen, ergeben sich die mglichen Anordnungen der Elemente gem
I an I = N (N -1). (N - 2) ... 321 = N! .

(I1l: 42)

Man spricht hier in der Literatur auch hufig von sog. Permutationen (Anzahl der
unterschiedlichen Anordnungen von N unterschiedlichen Objekten).
Beispiel 11 1-17

Permutation

Wieviele MOglichkeiten (verschiedene Reihenfolgen) hat ein Bibliothekar 12 verschiedene


Bcher nebeneinander ins Regal zu stellen?

I n" I =12! = 479.001.600


In der Permutationsdefinition (I1l: 42) wird davon ausgegangen, dass die betrachteten N Elemente alle voneinander verschieden sind. Sind nun aber nicht alle N Elemente unterschiedlich, werden aus ihnen k Gruppen gleicher Elemente gebildet
und jeweils die Anzahl darin enthaltener Elemente N, Ci = 1,2, ... ,k) festgestellt. Die-

se Gruppen reduzieren die Anzahl der unterscheidbaren Pennutationen, da sich


gleiche Elemente nicht unterscheiden lassen und deswegen bei ihnen auch keine

Reihenfolge beim Ziehen festgestellt werden kann. Die Anzahl der unterscheidbaren Pennutationen ergibt sich in einem solchen Fall als
mit

N,

+ N, + ... + N. = N

N, ;:, 1 fr i = 1,2, ... ,k

(I1l: 43)

17.

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-18

Permutation - Sonderfall

Wie groB ist die Anzahl der unterschiedlichen PermuBlionen der N '" 11 Buchstaben des
Wortes "Abrakadabra-?

1011_

111

51-2121-11-11

-83.160

Wie aus diesem letzten Beispiel gut abgeleitet werden kann, tauchen fr den Fall,
dass alle N Elemente verschieden sind, im Nenner von (TI1: 43) nur Einsen auf. Es
erg.be sich also dann die Formel on: 42),
Sltuatlonm
Ziehen obne Zurcklegen und obne Bercksichtigung der Anordnung
Im Gegensatz zu den bereits behandelten Kombinationen in Situation I und II werden bei Kombinationen der Situationen m und IV die Anordnungen auer Acht gelassen. Dies bedeutet, dass beispielsweise Nabe" und "bca" gleichwertig sind. Es
muss also zwangslufig weniger Kombinationen ohne Bercksichtigung der Anordnung als Kombinationen mit Bercksichtigung der Anordnung geben.
Werden gezogene Elemente nicht mehr in die Utsprungsmenge N eingelegt und ist
bei den Ergebnissen die Reihenfolge nicht von belang, knnen die mglichen
Kombinationen anhand des in Abschnitt II 1.4.2.1 behandelten Binomialkoeffizienten berechnet werden:

Inml=(N)_
NI
n
n! (N -n)!

Oll,44)

Vergleichen wir dies mit der Situation II bzw. 011: 41), so erkennen wir den Zusammenhang
11

IOml =10. 1.
n!

Oll,45)

Es gibt nmlich jeweils n! Mglichkeiten die n gezogenen verschiedenartigen Elemente anzuordnen.

Beispiel 11 1-19

Anwendungsbeispiele Situation 111

1. Urnenspiel
Betrachten wir eine Urne mit N '" 3 Kugeln A, Bund C, aus der n '" 2 Kugeln gezogen
werden. Wieviele Kombinationen sind bei Situation 111 mglich (a) und wie lauten diese (b)?
a)

Ifillll _ [3J _ a'2 _ a


2

21

b) AB,AC,BC

2. Sechs Richtige beim Lotto


Wie gro ist die Chance sechs Richtige im LolID zu haben (n '" 6 aus N '" 49)? Dabei ist zu
beachten, dass beim Lotto die Reihenfolge der gezogenen Zahlen nicht wichtig ist und
einmal gezogene Zahlen nicht erneut gezogen werden knnen. Es gibt insgesamt

175

1. Grundlagen der Wahrscheinlichkeitstheorie

In'" I =[~)=13.983.816
mgliche Ziehungsergebnisse. Da die Gewinnkombination aber nur eine dieser vielen
Mglichkeiten ist, gilt fOr die gesuchte Gewinnwahrscheinlichkeit

13.98~.816

0,0000000715.

3. Vier Richtige beim Lotto


Wie gro ist die Wahrscheinlichkeit im Lotto mindestens vier Richtige zu haben? FOr einen
"Viere(' im Lotto bentigen wir 4 von den 6 Richtigen und 2 beliebige von den 43 Falschen.
Es gibt damit folgende Anzahl von Viererkombinationen:

[:}[~) = 15903 =13.545


Zudem sind in diesem Fall auch die FOnfer- und Sechserkombinationen zu bercksichtigen
(da "mindestens vier Richtige").

~3) = 6.43 = 258

FOnferkombinationen:

[:){

Sechserkombinationen:

[:){:3) = 1.1 = 1

Es gilt daher fr die gesuchte Wahrscheinlichkeit

13.545+258+1
13.983.816

0,000987.

Eine Addition der Wahrscheinlichkeiten ist hier zulssig, da sich die einzelnen Ereignisse
gegenseitig ausschlieen bzw. keine Elemente gemeinsam haben.

Situation IV

Ziehen mit Zurcklegen und ohne Bercksichtigung der Anordnung


Beim Ziehen von n aus N Elementen mit Zurcklegen und ohne Bercksichtigung
der Reihenfolge gilt fr die Anzahl der mglichen Kombinationen
I n lV I = (N + n -1) = ~(Nc-+--=-:n_--c1)cc!
n
n!(N-1)!

Beispiel 11 1-20

(I1l: 46)

Anwendungsbeispiel Situation IV

In einem Topf befinden sich N = 3 Kugeln A, Bund C. Es werden n = 2 Kugeln ohne Beachtung der Reihenfolge und mit anschlieendem Zurcklegen gezogen. Wieviele Kombinationen sind mglich (a) und wie lauten diese (b)?

a) In'v I =[3+2-1)= (3+2-1)1


2

2!(3-1)!

4321 =6
22

11 Wahrscheinlichkeitsrechnung

176

b) AA,BB,CC,AB,AC,BC
Im Vergleich zu Beispiel 11 1-19 (Nr. 1) erkennen wir deutlich, dass sich durch das Zurucklegen drei zustzliche Kombinationen ergeben.

Die im Beispiel II 21 aufgefhrten Anwendungsbeispiele stellen mgliche Mischungen der vier beschriebenen Situationen dar. Sie sollen die Vielfalt Kombinatorischer
berlegungen veranschaulichen.

Beispiel 11 1-21

Zusammenfassende Anwendungsbeispiele

1. Kfz-Kennzeichen
Wieviele Kfz-Kennzeichen kann die Stadt Weiden unter Bercksichtigung folgender Bedingungen ausgeben?

Zwei unterschiedliche Buchstaben, wobei die Kombinationen AH, SA, HJ und KZ


verboten sind

Drei unterschiedliche und von Null verschiedene Ziffern

Fr den ersten Buchstaben bestehen 26 Mglichkeiten, fUr den zweiten eine weniger, da
die Buchstaben voneinander verschieden sein sollen. Von den damit mglichen Buchstabenkombinationen 26 . 25 sind schlielich noch die 4 verbotenen zu subtrahieren. Fr die
erste Ziffer des Kennzeichens bestehen 9 Besetzungsmglichkeiten (1, ... ,9). Diese sind
fr die beiden nachfolgenden Ziffern jeweils um eins geringer, da eine bereits verwendete
Ziffer nicht noch einmal benutzt werden darf. Fur die mglichen Kennzeichen gilt daher

In'l =(2625-4)987=325.584.
2. Doppelgeburtstage
Wie gro ist die Wahrscheinlichkeit, dass in einer zufllig zusammengestellten Gruppe von
10 Personen mindestens 2 Personen am sei ben Tag Geburtstag haben?
Beschreiben wir die Tatsache, dass 2 Personen am selben Tag Geburtstag haben, mit
dem Begriff "Doppelgeburtstag", so gilt
P(mindestens ein Doppelgeburtstag) = 1- P(kein Doppelgeburtstag)
mit
P(kein Doppelgeburtstag)

I kein Doppelgeburtstag I
Inl

bzw. konkret
P(kein Doppelgeburtstag) = 365'364'363'362'3~~:'~0'359'358'357'356

0,8831.

Daraus folgt
P(mindestens ein Doppelgeburtstag) = 1-0,8831 = 0,1169.
1.4.2.3

Zusammenfassung und Vergleich

Zum besseren Verstndnis stellen wir nun einen direkten Vergleich der von uns
behandelten Situationen I bis IV an. Wir gehen dabei von einer Urne mit drei Kugeln 1, 2 und 3 aus, aus der wir zwei Kugeln zufallig entnehmen. Betrachten wir
zunchst das Ziehen ohne Zurcklegen:

1. Grundlagen der Wahrscheinlichkeitstheorie

177

Mit Bercksichtigung der Anordnung erhalten wir aus dem Urnenspiel die folgenden 6 mglichen Ergebnisse (Wahrscheinlichkeiten in Klammem):
1-2

(1/6)

2-1

(1/6)

1-3

(1/6)

3-1

(1/6)

2-3

(1/6)

3-2

(1/6)

Die Wahrscheinlichkeit fr jedes Elementarereignis betrgt also 1/6, sodass eine


GleichwahrscheinlIchkeit selbiger gegeben ist.

Ohne Bercksichtigung der Anordnung reduziert sich die Anzahl der Elementarereignisse auf 3, da die oben in einer Zeile dargestellten Ergebnisse jeweils als gleichwertig betrachtet werden:
1-2

(1/3)

1-3

(1/3)

2-3

(1/3)

Wir erkennen, dass sich beim Ziehen ohne Zurcklegen durch Vernachlssigung

der Reihenfolge lediglich die Anzahl der Elementarereignisse und damit auch ihre
Wahrscheinlichkeit halbiert haben. Ihre Gleichwahrscheinlichkeit ist jedoch weiterhin gegeben.

Ziehen wir mit Zurcklegen unter Bercksichtigung der Reihenfolge, erhalten wir
folgende 9 mgliche Zweierkombinationen:
1-1

(1/9)

2-1

(1/9)

3-1

(1/9)

1-2

(1/9)

2-2

(1/9)

3-2

(1/9)

1-3

(1/9)

2-3

(1/9)

3-3

(1/9)

Auch hier ist eine GleichwahrscheinlIchkeit der Elementarereignisse gegeben, die


stets bei 1/9 liegt.

Vernachlssigen wir nun beim Ziehen mit Zurcklegen hingegen die Reihenfolge,
so reduziert sich die Zahl der Elementarereignisse zunchst auf 6, d.h. es liegen
konkret die Ausprgungen
1-1

(1/9)

1-2

(219)

2-2

(1/9)

1-3

(219)

2-3

(219)

3-3

(1/9)

vor. Eine Glelchwahrscheinlichkeit der Elementarereignisse ist nun aber nicht


mehr gegeben. whrend Kombinationen gleicher Zahlen eine Wahrscheinlichkeit
von 1/9 besitzen, weisen verschiedenartige Kombinationen eine wahrscheinlichkeit
von 2/9 auf.
In der Statistik sind daher vor allem das Ziehen ohne Zurcklegen und ohne Bercksichtigung der Anordnung (Situation III) und das Ziehen mit Zurcklegen und
mit Bercksichtigung der Reihenfolge (Situation I) und manchmal auch Situation II
von Bedeutung. Der Fall IV ist wenig relevant, da hier eine Gleichwahrscheinlichkeit der Elementarereignisse nicht gegeben ist und deswegen die Laplace-Formel
nicht angewendet werden kann.

11 Wahrscheinlichkeitsrechnung

178

Die folgende Abbildung soll zum Abschluss die wichtigsten Zusammenhnge der
Kombinatorik noch einmal bersichtlich darstellen.
Bercksichtigung der Reihenfolge
nein

ja
I

IV

Nn

ja

Zurcklegen

11

nein

N+n-lJ= (N+n-l)!
n
n!(N-l)!

NJ
( n n!=

N!
n! (N-n)!

N'

(N-~)!

Abbildung II 7: berblick Kombinatorik

1.5 Bedingte Wahrscheinlichkeiten


1.5.1

Definition und Interpretation

Oftmals hngt bei einem Zufallsexperiment die Wahrscheinlichkeit fr das Eintreten


eines bestimmten Ereignisses A vom Eintreten eines anderen Ereignisses B ab. Die
Wahrscheinlichkeit fr A unter der Voraussetzung (Annahme, Bedingung oder sogar mit dem Wissen), dass ein anderes Ereignis B bereits eingetreten ist oder
gleichzeitig mit A eintritt, wird als bedingte Wahrscheinlichkeit des Ereignisses
A unter der Bedingung B bezeichnet. Sie ist formal definiert als

P(A I B) = P(A n B)
P(B)

mit

P(B) > 0 .

(II1: 47)

Analog ergibt sich die bedingte Wahrscheinlichkeit des Ereignisses B unter der Bedingung Aals
P(B I A) = P(A n B) mit P(A) > 0 .
P(A)

(II1: 48)

Bedingte Wabrscheinlichkeiten werden hufig von unbedingten verschieden sein,


da sie zustzliche Informationen ber den Zufallsvorgang nutzen.
Beispiel 11 1-22

Bedingte Wahrscheinlichkeiten

Fr das Zufallsexperiment "ZWeimaliges Werfen eines Wrfels" wollen wir die folgenden
beiden Ereignisse
A: "Augensumme

4"

B: "erster Wurf = 111

nher betrachten. Grafisch lassen sich diese folgendermaen veranschaulichen:

179

1. Grundlagen der Wahrscheinlichkeitstheorie

6
5
Erster Wurf

3
2

A
A
AB

A
AB

AB

Zweiter Wurf
Es ergibt sich daraus
6
P(A)=:6' P(B) = 3 6 und p(AnB)=;6'
Die Wahrscheinlichkeit dafOr, dass die Augensumme hchstens 4 ist, wobei der erste Wurf
eine 1 ergab, ergibt sich nun nach (111 : 47) als
P(A I B)

P(A n B) = ~ = ~ = ~
P(B)
,,6 2

Es gilt also hier, dass die unbedingte Wahrscheinlichkeit kleiner als die bedingte ist.

Wie dieses Beispiel sehr schn zeigt, fhren Bedingungen stets zu einer Reduzierung des relevanten Ergebnlsraumes. Eine Bedingung stellt nmlich eine Beschrnkung auf Ereignisse dar, die auftreten, whrend ein anderes Ereignis vorher,
gleichzeitig oder hypothetisch aufgetreten ist. Aufgrund der Bedingung bernimmt
jetzt eine Teilmenge der Elementarereignisse die Rolle des sicheren Ereignisses.
Bedingte Wahrscheinlichkeiten gehorchen ebenso den Axiomen von Kolmogorov.
Es gilt fr alle Ben also P(A IB) ~ 0 fr jedes mgliche A c n, P(Q I B) = 1 und
falls A, n A, = 0 auch P(A, u A, I B) = P(A, I B) + P(A, I B). Zudem lassen sich
die unter II 1.3.1 definierten Stze auf bedingte Wahrscheinlichkeiten bertragen.

1.5.2

Multiplikationssatz

Der Multiplikationssatz ergibt sich durch einfache Umformung der Definition der
bedingten wahrscheinlichkeit. Er besagt, dass die wahrschelnllchkelt dafr,
dass zwei Ereignisse A und B glelchzeltig eintreten, bei P(A) > 0 als
P(A n B) = P(A) P(B IA)
ermittelt werden kann. Es gilt natrlich bei P(B) > 0 auch
P(A n B) = P(B) . P(A I B) .

Beispiel 11 1-23

(I1l: 49)
(I1l: 50)
Multiplikationssatz

In einer Urne befinden sich 2 rote und 3 schwarze Kugeln. Es werden nacheinander ohne
Zurucklegen zwei Kugeln gezogen. Betrachten wir in diesem Zusammenhang die folgenden beiden Ereignisse:
A: "Die erste gezogene Kugel ist rot."
B: "Die zweite gezogene Kugel ist rot."

11 Wahrscheinlichkeitsrechnung

180

Die Ergebnisse bzw. der Ablauf dieses zweistufigen Zufallsexperimentes lassen sich in
einem sog. Baumdiagramm (vgl. nachfolgende Grafik) anschaulich darstellen. Die Wahrscheinlichkeiten der auf jeder Stufe mglichen Ereignisse werden darin an den entsprechenden sten abgetragen. Auf der ersten Verzweigung finden sich so die Wahrscheinlichkeit von A und die seines Komplementrereignisses:
2
2 3
P(A)=S
--> P(A)=1-P(A)=1- =S
S
Die Wahrscheinlichkeit des Ereignisses B hngt nun vom Ausgang des ersten Zuges ab
und nimmt daher, wie wir im Baurndiagramm erkennen knnen, bedingte Werte an. Die
bedingte Wahrscheinlichkeit P(B IAl beschreibt z.B. die Wahrscheinlichkeit, beim zweiten
ZUg eine rote Kugel zu erwischen, wenn bereits beim ersten Zug eine rote Kugel entnommen wurde. Da sowohl die Zahl der roten Kugeln und damit auch die Gesamtkugelzahl in
der Urne durch das Ziehen einer roten Kugel beim ersten Zug um Eins abnimmt (Ziehen
ohne ZurOcklegen), gilt
P(BIA)= 2-1

5-1

=~.
4

Analoges gilt tOr die weiteren bedingten Wahrscheinlich kelten Im Diagramm.


MiHels dieser Daten lisst sich nun z.B. die Wahrscheinlichkeit, zweimal hintereinander
eine rote Kugel zu ziehen, folgendennaen angeben:
P(AnB) = P(A).P(BI A) = ~.~ = 1~
Diese nach dem Mulliplikationssatz entstehenden Wahrscheinlichkeiten geben die Wahrscheinlichkeiten der vier Elementarereignisse dieses Zufallsexperimentes an und warden
an den Endpunkten des Baumdiagrammes abgetragen:
P{BIA)",~

P{AnB) = P{A)P(B I A) =f~ =i

P(AnB) = P(A) .P(B I A) = ~t =~

P(nB) = P()P{B I ) =~i = ~

P(nB) - P() .P(B I ) - tt - ~

P{A) "'~
P(8IA) - ~
P{BI)=~
P()=~
P(BI) - ~

Zug 1

Zug 2

Ob die Berechnung der Werte des Baumdiagrammes korrekt durchgefOhrt wurde, kann
ganz einfach geprOft werden. Es muss nAmlich
P(AnB)+P(A nB)+P(nB)+P(nB) - 1
gelten.

1. Grundlagen der Wahrscheinlichkeitstheorie

181

Fr den Fall von drei Ereignissen A, Bund C kann der Multiplikationssatz folgendennaen dargestellt werden:
peC n Bn A) =peC I Bn A) peB I A) peA)

(I1l: 51)

Diesen Zusammenhang knnen wir recht einfach beweisen: Bezeichnen wir zur
einfacheren Darstellung zunchst den Durchschnitt B n A mit D, d.h.
D=BnA.
Es ergibt sich damit
pec nBn A) = pecn D) = pec I D) peD).
Ersetzen wir nun D wieder durch den Durchschnitt B n A , erhalten wir
peC nB nA) = peC I B nA) peBn A).
Fr peB n A) kann dann schlielich das Ergebnis des Multiplikationssatzes fr
zwei Ereignisse A und B eingesetzt werden:
peCn Bn A) =peC I B nA) peB I A) peA)
Beispiel 11 1-24

Multiplikationssatz fOr drei Ereignisse

Ein Fertigungslos umfasst genau 100 Bauteile. Davon sind in der Regel 10 % fehlerhaft.
Wie gro ist nun die Wahrscheinlichkeit, beim Ziehen (ohne Zurcklegen) einer Stichprobe
von 3 Stck genau 3 einwandfreie Bauleile zu erhaHen?
Zur Beantwortung dieser Frage definieren wir die folgenden drei Ereignisse:
A: "Erstes Bauteil fehlerfrei."
B: "Zweites Bauteil fehlerfrei."
C: "Drittes Bauteil fehlerfrei."
Es gilt fr die Wahrscheinlichkeit beim ersten Zug ein einwandfreies Bauteil zu erhalten

P(A)=~.
100

Die Wahrscheinlichkeit beim zweiten Zug ein einwandfreies Bauteil zu erhalten, unter der
Bedingung, dass bereits beim ersten Zug ein fehlerfreies Stck entnommen wurde, ergibt
sich als
P(B IA)= : : '
da durch die Entnahme sowohl die Gesamtzahl der Bauleile als auch die Anzahl der fehlerfreien Stcke um Eins abnimmt. Entsprechend ergibt sich die bedingte Wahrscheinlichkeit des Ereignisses C unter der Bedingung, dass vorher die Ereignisse A und B eingetre
len sind als
P(CI AnB) = 88.
98
Die Wahrscheinlichkeit, dass alle drei Bauteile in Ordnung sind, ergibt sich damit als
88 89 90
178
P(CnBnA)= P(CIBnA)P(B IA)-P(A) = 98 -99 -100 = 245 =0,7265_

182

11 Wahrscheinlichkeitsrechnung
Alternativ knnte hier auch mit der Laplace-Formel gerechnet werden. Sie liefert
0
P(CnBnA)

Anzahl der gnstigen Elementarereignisse = (93 ) = 07265.


Anzahl der mglichen Elementarereignisse C~O)

Zusatz:
Wie gro wre die Wahrscheinlichkeit im obigen Beispiel beim Ziehen mit Zurcklegen?

P(CnBnA)=~.~.~=
100 100 100

90' =09'=0729
100"

Fr eine beliebige Anzabl m von Ereignissen A,.A, ... ,A m c


ganges gilt der allgemeine Multiplikationssatz

eines Zufallsvor-

P(A, n ... n Am) = P(A , )' P(A, I A,)' .... P(Am I A, n ... n Am_l )

(II1: 52)

wobei P(A, n ... n Am_l ) > 0 gelten muss.

1.5_3

Unabhngigkeit von Ereignissen

Zwei Ereignisse A und Beines Zufallsvorganges werden als unabhngig bezeichnet, wenn das Eintreten des einen keine Infonnationen ber die Wahrscheinlichkei-

ten des Eintretens des anderen liefert bzw. die Wahrscheinlichkeit des Eintretens
des einen vollkommen unbeeinflusst davon ist, ob das Ereignis B eingetreten ist

oder nicht. Man spricht hier auch hufig von stochastischer Unabhngigkeit.
Ist das Ereignis A von Ereignis B unabhngig. so gilt (sofern P(A) > 0)
P(A I B) = P(A I B) = P(A) .

(II1: 53)

Damit ist natrlich auch das Ereignis B von A unabhngig und es gilt (bei P(B) > 0)
P(B I A) = P(B I A) = P(B) .

(II1: 54)

Aus diesen Zusammenhngen und dem bereits unter 1.5.2 behandelten Multiplikationssatz fr zwei Ereignisse A und B lsst sich durch einfaches Einsetzen der sog.
Multipllkationssatz fr unabhngige Ereignisse ableiten. Dieser ergibt sich als
P(A n B) = P(A) . P(B) .

(II1: 55)

Dieser Satz ist in zweierlei Hinsicht hilfreich. Er kann Zum einen dazu verwendet
werden Wahrscheinlichkeiten Zu bestimmen. wenn vorn Sachverhalt her klar ist,
dass zwei Ereignisse unabhngig sind. Zum anderen kann er dazu angewendet
werden. zu prfen. ob zwei Ereignisse A und B bei gegebenen Werten von P(A).
P(B) und P(A n B) unabhngig sind.
In diesem Zusammenhang wird in der Literatur hufig die sog. Vierfe1dertafe1

aufgefhrt. mit der sich fr zweistufige Zufallsexperimente Wahrscheinlichkeiten


anschaulich beschreiben bzw. darstellen lassen. Das typische Aussehen einer solchen Tafel ist in Abbildung II 8 dargestellt. Ihre Anwendung wird in Beispiel II 1-25
veranschaulicht.

1. Grundlagen der Wahrscheinlichkeitstheorie

183

Ereignis B

Ereignis B

Ereignis A

P(AnB)

P(AnB)

P(A)

EreignisA

P(AnB)

P(AnB)

P(A)

P(B)

P(B)

P(Q)

=1

Abbildung II 8: Vierfeldertafel

Beispiel 11 1-25

UnabhngigkeitsprOfung

Von den Kunden eines Supermarktes ist bekannt, ob sie mit der Parkplatzsituation (P) und
dem Service (S) zufrieden sind. 22 % der Kunden sind mit der Parkplatzsituation und 50 %
mit dem Service unzufrieden. Insgesamt 48 % der Kunden waren sowohl mit dem Service
als auch mit der Parkplatzsituation zufrieden. Es ergibt sich daraus die Vierfeldertafel:

I
I

P
P

0,48

0,30

0,78

0,02

0,20

0,22

0,50

0,50

1,00

I
I

Anhand dieses Zahlenmaterials wollen wir nun prOfen, ob die Ereignisse Sund P voneinander unabhngig sind. Im Unabhngigkeitsfall mOsste P(S n P) = P(S) P(P) gelten. FOr
die vorliegenden Befragungsresultate ergibt sich nun aber P(S) P(P) = 0,500,78 = 0,39.
Da dieser Wert nicht mit 0,48 bereinstimmt, sind die beiden Ereignisse Sund P nicht stochastisch unabhngig bzw. stochastisch abhngig.

Beispiel 11 1-26

Wahrscheinlichkeitsermittlung

Wie gro ist beim zweimaligen Werfen einer idealen Mnze die Wahrscheinlichkeit, zweimal "Kopf" zu erhalten?
Bei jeder einzelnen DurchfOhrung dieses Zufallsexperimentes ist die Wahrscheinlichkeit
"Kopf" zu werfen gleich 0,50. Die beiden Wrfe sind eindeutig voneinander unabhngig.
Fr die beiden Ereignisse
A: "Der erste Wurf zeigt Kopf"
B: "Der zweite Wurf zeigt Kopf"
liefert der Multiplikationssatz fOr unabhngige Ereignisse daher
P(AnB) = P(A)P(B) =0,500,50 = 0,25.

184

11 Wahrscheinlichkeitsrechnung

Fr den Fall von drei unabhngigen Ereignissen A, Bund C stellt sich der Multiplikationssatz fr unabhngige Ereignisse wie folgt dar:
P(A n B n C) = P(A) P(B) P(C)

(I1l: 56)

Die Ereignisse A, Bund C sind also nur dann voneinander unabhngig, wenn
P(A) = P(A I B)=P(A I C) =P(A I BnC)
P(B) = P(B I A)=P(B I C) =P(B I AnC) .
P(C) = P(C I A)=P(C I B) =P(C I A nB)
Beispiel 11 1-27

(II1: 57)

Drei unabhngige Ereignisse

Wie gro ist die Wahrscheinlichkeit beim dreimaligen Wrfeln dreimal hintereinander die

"6" zu erhalten?
Fr die im Falle eines fairen Wrfels eindeutig unabhngigen Ereignisse
A: "Erster Wurf = 6"
B: "Zweiter Wurf = 6"
C: "Dritter Wurf = 6"
gilt
1 1 1
1
P(AnBnC) = P(A)P(B)P(C) =-.-.- = - .

6 6 6

216

Fr eine beliebige Anzahl m unabhngiger Ereignisse A, gilt analog


P(A, n ... n Am) = P(A,)' .... P(A m ) .
Beispiel 11 1-28

(II1: 58)
m unabhngige Ereignisse

Wie gro ist die Wahrscheinlichkeit, dass beim europischen Roulette (Glcksrad mit 18
roten, 18 schwarzen und einem grnen Feld) 10-mal in Folge "rar erscheint?
Bezeichnen wir mit A; das Ereignis, dass das Rouletterad beim i-ten Drehen "rot" zeigt,
dann gilt fr die gesuchte Wahrscheinlichkeit
P(A,n ... nA,,)=P(A,) ... P(A,,)= 18)"
37
=0,00074.
(

In Abschnitt 1.5.2 dieses Kapitels wurde im Zusatz zu Beispiel II 1-24 eine Stichprobenentnahme mit Zurcklegen behandelt. Nur beim Ziehen mit Zurcklegen
erfolgen die Entnahmen unabhngig voneinander. Deswegen konnten wir im Beispiel einfach 0,9 . 0,9 . 0,9 rechnen und knnen bei derartigen Stichprobenentnabmen stets den Multiplikationssatz fr unabhngige Ereignisse heranziehen.
Abschlieend ist noch zu erwhnen, dass unabhngige Ereignisse nicht mit disjunkten Ereignissen verwechselt werden drfen. Fr zwei disjunkte Ereignisse A und B
gilt nmlich immer P(A n B) = O. Zwei disjunkte Ereignisse sind also nur dann un-

185

1. Grundlagen der Wahrscheinlichkeitstheorie

abhngig, wenn mindestens eines der Ereignisse die Wahrscheinlichkeit Null besitzt. Disjunkte Ereignisse mit positiver Wahrscheinlichkeit sind In hchstem Mae
abhngige Ereignisse, denn wenn eines von ihnen eintritt, dann kann das andere
gar nicht mehr eintreten.

1.5.4

Satz der totalen Wahrscheinlichkeit

Hinter dem Begriff der totalen Wahrscheinlichkeit verbirgt sich nichts anderes als
eine einfache Wahrscheinlichkeit. Der Zusatz "total" dient nur als Abgrenzung zur
bedingten Wahrscheinlichkeit, die sich nur auf eine Teilmenge von n bezieht.
Die einfache bzw. totale wahrscheinlichkeit eines Ereignisses B knnen wir berechnen, wenn wir seine bedingten Wahrscheinlichkeiten und die Wahrscheinlichkeilen der Bedingungen kennen. Sie ergibt sich dann als
P(B) = P(B I A) . P(A) + P(B I ) . P() .

(I1l: 59)

Den Beweis dieses Zusammenhangs wollen wir im Folgenden unter Nutzung von
Abbildung II 9 erbringen. Der Ergebnisraum n teilt sich hier auf in die disjunkten
Ereignisse A und A. Das Ereignis B setzt sich zusanunen aus den disjunkten Ereignissen B n A und B n . Nach dem Multiplikationssatz ist die Wahrscheinlichkeit
dieser Ereignisse durch
P(B n A) = P(B I A) . P(A)
und
P(B n ) = P(B I ) . P()
defmiert. Nach Axiom 3 folgt dann schlielich
P(B)

= P(B I A) . P(A) + P(B I ) . P() .

Abbildung II 9: Herleitung der totalen wahrscheinlichkeit I

Beispiel 11 1-29

Satz der totalen Wahrscheinlichkeit

An einer Fachhochschule lesen zwei Professoren die Fcher Mathematik und Statistik.
Aus Erfahrungswerten ergaben sich folgende Wahrscheinlichkeiten (M: "Mathematikklausur bestanden", S: "Statistikklausur bestanden"):
P(M} = 0,65, P(S I M} = 0,75, P(S I M} = 0,30

186

11 Wahrscheinlichkeitsrechnung
Wie hoch ist nun die Wahrscheinlichkeit die Statistikklausur zu bestehen?
P(S) = P(S I M) P(M) + P(S I M). P(M)

= 0,750,65+0,30 (1-0,65)
=0,5925
Analog zur obigen Herleitung kann die totale Wahrscheinlichkeit auch ennittelt
werden, wenn eine Aufteilung des Ergebnisraumes in mebr als zwei Teile vorliegt.
Besteht eine vollstndige Zerlegung des Ergebnisraumes in m Ereignisse A"A" ... ,A,.,

= 1,2, ... ,m mit i" p,


aber zusammen den Ergebnisraum ganz auffllen (A, uA, ... u Am = n),
die sich gegenseitig ausschlieen (A, n Aj

=0

fr alle j,i

und ist zustzlich P(A,) > 0 fr alle j = 1,2, ... ,m, so gilt fr ein jedes Ereignis Ben
folgender allgemeiner Satz der totalen Wahrscheinlichkeit:
m

P(B) = LP(B I A)' P(A j )

(I1l: 60)

1_'

Zur Veranschaulichung dieses Zusammenhangs betrachten wir auch hier zunchst


eine einfache grafische Darstellung, und zwar Abbildung II 10. Wie wir erkennen,
ergibt sich das Ereignis B als Vereinigung der disjunkten Ereignisse B n A" B n A"
... , B n A,.. Nach dem MultiplikationssalZ (I1l: 52) gilt fr die Wahrscheinlichkeiten
dieser Ereignisse aber gerade P(B n AI) = P(B I AI)' P(AI), sodass ihre Summe den
allgemeinen SalZ der totalen Wahrscheinlichkeit in (I1l: 60) ergibt.

Abbildung II 10: Herleitung der totalen Wahrscheinlichkeit II

Beispiel 11 1-30

Verallgemeinerter Satz der totalen Wahrscheinlichkeit

Ein Unternehmen stellt tglich 1.000 Konsumartikel auf drei Maschinen unterschiedlicher
Kapazitten und Ausschusswahrscheinlichkeiten her. Die Daten je Maschine sind in folgender Tabelle enthalten:
Maschine
Tagesproduktion
Ausschusswahrscheinlichkeit

200 SI.

100 SI.

2%

4%

700 SI.
1%

187

1. Grundlagen der Wahrscheinlichkeitstheorie

Wie gro ist die Wahrscheinlichkeit, dass ein zufllig ausgewhltes StOck aus der Tagesproduktion fehlerhaft ist?
Bezeichnen wir mit A, (i = 1,2,3) das Ereignis, dass ein ausgewhltes Stck auf der Maschine M, hergestellt wurde und mit B, dass es fehlerhaft ist, so lassen sich folgende
Wahrscheinlichkeiten angeben:

P(A)= 200 =020


, 1.000
'

P(BI A,) =0,02

)=~=010
1.000
'

P(B I A,) = 0,04

P(A)= 700 =070


,
1.000
'

P(B I A,) = 0,01

P(A

Nach dem Satz der totalen Wahrscheinlichkeit kann nun die gesuchte Wahrscheinlichkeit
P(B) damit wie folgt ermittelt werden:

P(B)= P(B I A,)' P(A,) +P(B I A,)' P(A,) + P(B I A,) P(A,)
= 0,020,20 +0,040,10 +0,010,70
= 0,015

1.5.5

Formel von Bayes

Die sog. Formel von Bayes bildet die Brcke zwischen zwei bedingten Wahrscheinlichkeiten, bei denen die Rollen von Bedingung und Ereignis vertauscht sind,
also beispielsweise zwischen P(A I B) und P(B I A) . Der bereits behandelte Multiplikationssatz fr zwei Ereignisse A und B stellt einen ersten Schritt zur Herleitung
dieser Fonnel dar. Er besagte folgendes:
P(A n B) = P(A I B) . P(B)
P(A n B) = P(B I A) . P(A)
Setzen wir die beiden rechten Seiten dieser Gleichungen gleich und nehmen anschlieend eine einfache Urnfonnung vor, so ergibt sich

P(A I B) . P(B) = P(B I A) . P(A)


bzw.
P(A I B) = P(B I A) . P(A) .
P(B)

(I1l: 61)

Nach dem Satz der totalen wahrscheinlichkeit knnen wir fr den Fall, dass sich
der Ergebnisraum n aus nur zwei Ereignissen A und A zusammensetzt, fr P(B)
P(B) = P(B I A) . P(A) + P(B I A) . P(A)
schreiben und in (111: 61) einsetzen. Das Resultat davon ist die Formel von Bayes,
bei der aber zu beachten ist, dass neben P(A) > 0 und P( A) > 0 auch P(B) > 0 gelten muss:
P(A I B) =

P(B I A) . P(A)
P(B I A) . P(A) + P(B I A) . P(A)

(I1l: 62)

188

11 Wahrscheinlichkeitsrechnung

Analog gilt natrlich auch


P(. I B) =

P(B I .) . P(.)
.
P(B I A) . P(A) + P(B I A) . P(A)

(II1: 63)

Bei Berechnungen mit der Formel von Bayes sind oft die komplementren Beziehungen P(A I B) + P(. I B) = 1 und P(A I B) + P(. I B) = 1 wertvoll. Es gilt jedoch
nicht P(A I B) + P(A I B) = 1 oder P(. I B) + P(. I B) = 1 .

Die Fonnel von Bayes ist besonders bei einer Situation interessant, bei der zwei
sich gegenseitig ausschlieende Ereignisse A und . als mglich erachtet werden
und ber die Chancen der einzelnen Zustnde (nmlich "wahrl! zu sein) Vermutungen bestehen, welche sich in Gestalt von Wahrscheinlichkeiten beschreiben lassen.
Die Werte P(A) und P(.) bezeichnen wir in diesem Zusammenhang auch als
a-priori-Wahrscheinlichkeiten der Ereignisse A und .. Wird nun ein Zufallsvorgang realisiert, wobei fr mgliche Ereignisse B dieses Zufallsvorganges die bedingten wahrscheinlichkeiten P(B I A) bzw. P(B I .) bestimmbar sind, so knnen
fr das tatschlich eintretende Ereignis B gem der Formel von Bayes die bedingten Wahrscheinlichkeiten P(A I B) und P(. I B) berechnet werden. Diese werden
auch als a-posteriori-Wahrscheinlichkeit der Ereignisse A und . bezeichnet
und als "Verbesserung" gegenber der a-priori-Wahrscheinlichkeit interpretiert, da
sie auf mehr Informationen ber das Eintreten von A und . fuen (gegeben durch
das Eintreten oder Nichteintreten von B) als P(A) und P(.). Wir knnen also sagen, dass die Formel von Bayes der Informationsverarbeitung dient.

Beispiel 11 1-31

Formel von Bayes

Bei der Herstellung eines Produktes ergibt sich aus Erfahrungswerten ein Anteil einwandfreier Teile von P(E) = 0,97. Nachdem die Erzeugnisse die Fertigungsstrae durchlaufen
haben, werden sie alle auf Funktionsfhigkeit getestet, wobei das dabei verwendete Testverfahren die Eigenschaften P(F I E) = 0,02 und P(F I E) = 0,999 aufweist. Dabei gilt F:
"Prfverfahren zeigt Defekt an".
Wie gro ist nun die Wahrscheinlichkeit dafr, dass ein Erzeugnis defekt ist, obwohl bei
der Qualittsprfung kein Mangel festgestellt wurde?
- P(E I F)

P(FIE)P(E)
P(F I E). P(E) + P(F I E). P(E)

(1-0,999)(1-0,97)
(1- 0,999) (1- 0,97) + 0,980,97

0,00003

Wie gro ist hingegen die Wahrscheinlichkeit dafr, dass ein Erzeugnis einwandfrei ist,
wenn bei der Kontrolle kein Mangel festgestellt wurde?
P(E I F) = 1-P(E I F) = 1-0,00003 = 0,99997
Whrend die a-priori-Wahrscheinlichkeit fOr ein einwandfreies Produkt bei 0,97 lag, ist die
a-posteriori Wahrscheinlichkeit, die zustzliche Informationen aus dem PrOfverfahren nutzt,
mit 0,99997 hier hher und verbessert die anfnglichen Erfahrungswerte. Die Wahrscheinlichkeit dafr, dass ein defektes Produkt an einen Kunden verkauft wird, sinkt somit drastisch.

189

1. Grundlagen der Wahrscheinlichkeitstheorie

In der Praxis wird die Fonnel von Bayes hufig zur Berechnung der Wahrscheinlichkeiten von Hypothesen (Annahmen) benutzt. Hier korrunt der Infonnations-

verarbeitungsgedanke der Fonnel von Bayes besonders zum Tragen. Veranschau-

lichen wollen wir dies direkt anhand eines hufig in der Literarur zu findenden Beispiels zum Zufallsvorgang Mnzwurf.

Beispiel 11 1-32

Hypothesen und Formel von Bayes

Beim Glcksspiel Mnzwurf vermutet ein Mitspieler, dass die Mnze zwei Zahlseiten besitzt. Dieser Annahme bzw. Hypothese, nmlich dem Ereignis A: "Mnze besitzt zwei Zahlseiten", rumt er die subjektive Wahrscheinlichkeit P(A) = 0,70 ein. Der Gegenannahme
bzw. AIte",-ativhypothese, es handle sich um eine faire Mnze, wird daher die Wahrscheinlichkeit P(A) = 0,30 zugeordnet.
Fllt nun beim ersten Wurf tatschlich "Zahl" (Ereignis B), sieht sich der Spieler in seiner
Beliirchtung besttigt und bestimmt unter Verwendung dieser neuen Information erneut die
Wahrscheinlichkeit daliir, dass es sich tatschlich um eine Mnze mit zwei Zahlseiten
handelt. Da fr eine Mnze mit zwei Zahlseiten P(BIA) = 1 und eine faire Mnze P(BI ) =
0,5 gilt, wird er daher die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass
vorher das Ereignis B eingetreten ist, wie folgt berechnen:
P(A I B) _

P(B I A) P(A)
P(B I A) P(A) + P(B I A) P(A)

10,70
10,70+0,50,30

0,8235

Wir knnen also sagen, dass sich durch den ersten Wurf die Wahrscheinlichkeit der Hypothese, es liege eine falsche Mnze mit zwei Zahlseiten vor, von 0,70 auf 0,8235 erhht.

Die oben definierte Formel von Bayes gilt nicht nur fr den Fall, dass sich der Ergebnisraum n in zwei disjunkte Mengen A und zerlegt, sondern entsprechend
auch fr allgemeinere Zerlegungen von n. Bilden die m Ereignisse A" A" ... Am eine
vollstndige Zerlegung des Ergebnisraumes n, liegt P(A) > 0 vor und ist B ein Ereignis mit P(B) > 0, dann gilt fr jedes A,
P(A, IB) = !(B I A) P(A,)

(I1l: 64)

LP(BIAj)'P(A j)
1_1

Zur Herleirung dieser allgemeinen Fonnel mssen wir lediglich den verallgemeinerten Satz der totalen Wahrscheinlichkeit (I1l: 60) in (I1l: 61) einsetzen und das Ereignis A entsprechend indizieren.

Beispiel 11 1-33

Verallgemeinerte Formel von Bayes

Auf drei verschiedenen Fertigungsanlagen F" F2 und F3 wird der gleiche DVD-Player-Typ
produziert. Fr diese Fertigungsanlagen liegt folgendes Datenmaterial vor:
Fertigungsanlage
Anteil an der Produktion
Ausschussanteil

F3

0,30
0,05

0,30
0,03

0,40
0,07

190

11 Wahrscheinlichkeitsrechnung
Aus der Gesamtproduktion wird nun zufllig ein DVD-Player entnommen. Wie gro ist die
Wahrscheinlichkeit, dass dieser auf F" F. bzw. Fa gefertigt wurde, wenn festgestellt wird,
dass er von einwandfreier Qualitt (al bzw. defekt (b) ist?
Aus dieser AufgabensteIlung lsst sich zunchst
P{F,) = 0,30, P{D I F,) = 0,05 -->

P{D I F,) = 1-0,05 = 0,95

P{F2 ) = 0,30, P{D I F2 ) = 0,03 -->

P{D I F2 ) = 1-0,03 = 0,97

P{F,)=0,40, P{D I F,) = 0,07 -->

P{DIF,)=1-0,07=0,93

ableiten, womit wir beide Fragestellungen beantworten knnen:


a) FOr die Berechnung der gesuchten Wahrscheinlichkeiten empfiehlt es sich zunchst
die totale Wahrscheinlichkeit P{D) zu ermitteln:
P{D) = P{D I F,). P{F,) +P{D I F2 ) P{F2 ) + P{D I F,) P{F,)
= 0,950,30+0,97 0,30 +0,930,40 = 0,948
Die bedingten Wahrscheinlichkeiten ergeben sich damit als
P{F 10)= P{D I F,)P{F,)
,
P{D)

0,950,30
0,948

0,3006

P{f I 0)= P{D I F2 ) P{F2 )


2
P{D)

0,97 0,30
0,948

0,3070

P{f 10)= P{D I F,)P{F,)


,
P{D)

0,930,40
0,948

0,3924

und ergeben in der Summe natOrlich Eins.


b) Die hier zu berechnenden bedingten Wahrscheinlichkeiten erfordern zunchst die Bestimmung von P{D). Der Wert dafr ergibt sich als
P{D) = P{D I F,) P{F,)+P{D I F2 ) P{F2 )+P{D I F,)' P{F,)
oder
P(D) = l-P(D) = 1-0,948 = 0,052.
Die gesuchten bedingten Wahrscheinlichkeiten, die auch hier in der Summe wieder
Eins ergeben massen (ggf. Rundungsungenauigkeiten), ergeben sich damit zu:
P{f ID)=P{DIF,).P{F,)
,
P{D)

0,050,30 02885
0,052'

P(f ID)=P{DIF2 )P{F2 )


2
P{D)

0,03.0,3=01731
0,052'

P{f I D)= P{D I F,)P{F,)


,
P{D)

0,070,40 05385
0,052'

Diese Teilaufgabe knnen wir dazu verwenden eine wichtige Interpretationsmglichkeit


der Formel von Bayes zu beschreiben: "Betrachten wir die Ereignisse F, als Ursachen,
die eine gewisse Wirkung, nmlich das Ereignis D, auslsen, liefert die Formel von
Bayes die Mglichkeit, die Wahrscheinlichkeit dafr auszurechnen, dass der beobachteten Wirkung eine der Ursachen F; zugrunde liegt." So ist beispielsweise die Wahrscheinlichkeit dafOr, dass das gefundene defekte Stack (Wirkung) von Fa stammt (Ursache), mit 0,5385 am grOten.

191

1. Grundlagen der Wahrscheinlichkeitstheorie

Beispiel 11 1-34

Dreitorespiel

Die frher sehr beliebte Gameshow "Geh aufs Ganze" mit Moderator Jrg Drger endete
gewhnlich mit dem sog. "Superdeal". Dabei konnte ein Spieler seinen in der Show gewonnenen Preis setzen und hatte dadurch die Mglichkeit in einem "Drei-Tore-Spiel" ein
Auto zu gewinnen. Dem Spieler standen dabei drei Tore zur Auswahl. In einem befand
sich ein Auto und in den beiden anderen ein "Zonk" (Stoffpuppe). Nachdem sich der Spieler fOr ein Tor entschieden hatte, ffnete der Showmaster eines, das der Spieler nicht gewhlt hatte. Anschlieend hatte der Spieler erneut die Gelegenheit sich fr ein anderes Tor
zu entscheiden oder bei dem bereits gewhlten zu bleiben.
Nehmen wir an, dass sich der Spieler fOr das Tor 1 entschieden hat und betrachten dazu
folgende drei Flle. Das x kennzeichnet dabei jeweils die Position des Autos.
Tor 1
x

Fall 1
Fall 2
Fall 3

Tor 2

Tor 3

x
x

Welche Strategie sollte dieser Spieler, der sich anfnglich fOr Tor 1 entschieden hat, nun
nach ffnung eines Tores durch den Showmaster verfolgen? Bei einer B/eibestrategie gewinnt der Spieler nur im Fall 1. Im Fall 2 und 3 wrde er das Auto nicht gewinnen, falls er
weiterhin Tor 1 whlt. Deswegen fhrt die Wechse/strategie in den Fllen 2 und 3 zum
Gewinn des Autos. Dies gilt, da der Showmaster grundstzlich ein "leeres Tor" (Tor ohne
Auto bzw. mit "Zonk") ffnet bzw. aus dem Spiel nimmt. Die nachfolgenden Berechnungen
sollen diese Strategien nun noch nher beleuchten. Wir verwenden dabei die Ereignisse
S,: "Der Showmaster ffnet Tor L" und T,: "Das Auto befindet sich hinter Tor L":
Die Wahrscheinlichkeit, das Tor mit dem Auto bei der ersten Auswahl eines Tores zu erwischen, liegt bei

P(T,) = P(T,) = P(T,) = 3'


Hat sich der Spieler fr Tor 1 entschieden, bleiben dem Showmaster nur noch zwei Tore,
die er ffnen kann. Berechnen wir nun die unbedingte Wahrscheinlichkeit dafOr, dass der
Showmaster Tor 3 ffnet. Wir erhalten sie ber den Satz der totalen Wahrscheinlichkeit zu
P(S,) = P(S, I T,)P(T,)+ P(S,I T,)P(T,) +P(S, I T,)P(T,)
1 1
1
1 1
=--+1-+0-=-.

2 3

Die darin verwendeten bedingten Wahrscheinlichkeiten ergeben sich wie folgt: Die Wahrscheinlichkeit dafr, dass der Showmaster Tor 3 ffnet, wenn das Auto in Tor 1 ist, liegt bei
P(S,IT,) = 0,5, da es in diesem Fall egal ist, welches der Tore 2 oder 3 er aus dem Spiel
nimmt. Ist das Auto in Tor 2, liegt die Wahrscheinlichkeit dafr, dass er Tor 3 ffnet, bei
P(S,IT,) = 1, da er das Auto nicht fruhzeitig aus dem Spiel nimmt und naturlich auch nicht
das Tor des Spielers ffnen kann. Aus den gleichen Grunden wird er nicht Tor 3 Offnen,
wenn das Auto in Tor 3 ist, sodass P(S,IT,) = 0 gilt.
Nach den gleichen berlegungen knnen wir auch die unbedingte Wahrscheinlichkeit
P(S,) = 0,5 bestimmen.

192

11 Wahrscheinlichkeitsrechnung
Es gilt nun nach der Formel von Bayes

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 2 befindet, nachdem der Showmaster Tor 3 geffnet hat
P(T IS )=P(S,IT2)P(T2)
2'
P(S,)

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 3 befindet, nachdem der Showmaster Tor 2 geffnet hat
P(T IS )=P(S2I T,).P(T,)
'2
P(S2)

q=~.
t 3

!:.L~.

fiir die Wahrscheinlichkeit, dass sich das Auto in Tor 1 befindet, nachdem der Showmaster Tor 3 geffnet hat
P(T IS)= P(S, IT,)P(T,) = H =.1..
"
P(S,)
t 3

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 1 befindet, nachdem der Showmaster Tor 2 geffnet hat
P(T 1S ) = P(S21 T,)P(T,) =U =.1..
, 2
P(S2)
t 3

Die Wahrscheinlichkeitsrechnung empfiehlt dem Spieler also einen Wechsel des Tores,
nachdem der Showmaster eines der beiden anderen Tore geffnet hat, da die Gewinnwahrscheinlichkeit der Wechselstrategie bei 2/3 und nicht wie bei der Bleibestrategie bei
1/3 liegt. Auch hieran ist die Bedeutung der Formel von Bayes wieder sehr schn erkennbar. Es wird nmlich die zustzliche Information berucksichtigt, die sich durch die ffnung
des Tores durch den Showmaster ergibt.
Diese Berechnungen knnen analog fr die Flle, in denen sich der Spieler anfnglich fr
Tor 2 oder 3 entscheidet, durchgefiihrt werden. Auch hier zeigt sich, dass der Spieler mit
einer Wechse/strategie die bessere Chance zum Gewinnen des Autos hat.

2.

Zufallsvariablen

Ein wichtiges Thema der Wahrscheinlichkeitsrechnung stellen Zufallsvariablen dar, da sie


die praktische Anwendung von stochastischen Modellen erheblich erleichtern. Wir widmen uns zunchst zwei Klassen von eindimensionalen Zufallsvariablen (stetigen und
diskreten). FOr beide Klassen beschftigen wir uns nher mit der dazugehrigen Wahrscheinlichkeits- und Verteilungsfunktion sowie der Berechnung von Erwartungswert und
Varianz. Des Weiteren gehen wir ausfOhrlich auf mehrdimensionale Zufallsvariablen ein
und legen hier den Schwerpunkt insbesondere auf die Korrelation und Linearkombination
von Zufallsvariablen.

2.1

Begriff der Zufallsvariable


Im vorhergehenden Kapitel wurden den Elementarereignissen und anderen Ereig-

nissen eines Zufallsexperimentes Wahrscheinlichkeiten zugeordnet. Bei der Betrachtung eines Zufallsexperimentes treten nun aber hufig Situationen auf, die es

erforderlich machen, den Elementarereignissen zunchst reelle Zahlen und erst diesen reellen Zahlen Wahrscheinlichkeiten zuzuordnen. Typische Flle dafr sind:

Als Elementarereignisse werden qualitative Gren beobachtet (z.B. "Mann",

"Frau l1 oder "Europer", ItAmerikaner", "Afrikaner") fr die man eine Codierung


in ein Zahlensystem wnscht.
Es interessiert nicht die gesamte Vielfalt der mglichen Versuchsausgnge,

sondern nur bestinunte Merkmale (z.B. die Anzahl defekter Gerte aus einer
Lieferung oder die Augensumme beim dreimaligen Wrfeln).

Nicht bei allen Zufallsexperimenten ist eine Codierung (Zuordnung reeller Zahlen
zu den Elementarereignissen) erforderlich. Bei manchen Zufallsexperimenten sind
die Ergebnisse bereits reelle Zahlen.
Beispiel 11 2-1

Codierung

Ergebnisse sind bereits reelle Zahlen:


Einmaliger WOrfelwurf (Augenzahl), Stichprobe aus der laufenden Produktion (Anzahl
fehlerhafter StOcke), Rendite eines Wertpapiers in einer Periode

Beispiele fOr Codierung:


Europisches Roulette: "grn" --+ 0, "schwarz" --+ 1, "rot"
Befragung nach Geschlecht: "Mann" -+ 0, "Frau" -+ 1

---+

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_7, Springer Fachmedien Wiesbaden 2015

194

11 Wahrscheinlichkeitsrechnung

Eine Funktion X, die jedem Elementarereignis 00 E n genau eine reelle Zahl X(oo)
R zuordnet, wird als ZufalJsvariable oder stochastische Variable bezeichnet.
Anders ausgedrckt, bildet also die Zufallsvariable X die Elemente von n auf die
reelle Zahlengerade ab (vgl. Abbildung II 11). Zufallsvariablen werden im Allgemeinen mit groen lateinischen Buchstaben bezeichnet. Man verwendet dabei bevorzugt jene am Ende des Alphabets, d.h .... , X, Y, Z. Die einzelnen Werte, die eine Zufallsvariable X bei Durchfhrung des Zufallsexperimentes annimmt, heien
Reallsationen (Ausprgungen) der Zufallsvariablen und werden mit den entsprechenden kleinen lateinischen Buchstaben x" x" ... bezeichnet. Wir knnen daber
E

X(ooj) =

(II2: 1)

Xi

schreiben. Den Ergebnisraum n nennen wir Deftnitionsberetch der Funktion X. Die


Menge der reellen Zablen ist ihr Wertebereich. Der Wertebereich muss jedoch nicht
zwangslufig alle reellen Zablen umfassen.
Defmitionsbereich

---------~)

Wertebereich

00
n

- -- - --- - --- - -- - --- - -- - --- - --- - -- - --- - --- - -- - ---

-:

-- - --- - -- - --- - -- - --- - --- - -- - --- - --- - --

--,,

:,

v
~E~-+--r-~-+-~-r~-r--)~x

-1

Abbildung II 11: Zufallsvariablen als Abbildung von n auf die reelle Achse
Beispiel 11 2-2

Definitions- und Wertebereich

Beim Zufallsexperiment "Zweimaliges Werfen einer Mnze" wollen wir die Frage untersuchen, wie oft "Kopf" erscheint. Wir definieren dazu die Zufallsvariable X: "Anzahl Kopf",
die drei mgliche Realisationen x, = 0, X:! = 1 und"" = 2 besitzt. Der Wertebereich der Zufallsvariable X ergibt sich dabei durch folgende Zuordnung:
Definitionsbereich

X(ID;) = x;

-----'--'-----;)~

Wertebereich

- --- - --- - -- - --- - -- - - -- - --- - -- - - --- - -- - --- - -- -

----,

,,
,,

CD, =KZ

--------------------1___________________

ro, = KK

(ll.

,,

___________ : ___________
___________ J

,,

= ZK

:
E

'IV

Xl

---:::

=0

,,
'

:
:

2. Zufallsvariablen

195

Beispiel 11 2-3

Weitere Zufallsvariablen

Wird ein fairer Wurfel zweimal geworfen, ergibt sich ein Ergebnisraum mit 36 Elementarereignissen der Form n = {(i,i): i = 1,2, ... ,6 und j = 1,2, ... ,6}. Typische Zufallsvariablen fUr
ein solches Zufallsexperiment sind z.B.
o
X: "Augensumme" mit den 11 Ausprgungen x = 2,3, ... ,12 und
o
Y: "Absolutbetrag der Augendifferenz" mit den 6 Ausprgungen y = 0,1,2, ... ,5.

Unsere bisherigen Ausfhrungen lassen erkennen, dass bei der Definition einer Zufallsvariable, Wahrscheinlichkeiten keine Rolle spielen. Weder ist die Zuordnung
der X(ro) zu den ro E n zufllig, noch ordnen Zufallsvariablen Wahrscheinlichkeiten zu. Den mglichen Realisationen einer Zufallsvariable werden hingegen
Wahrscheinlichkeiten zugeordnet. Wie dies geschieht, werden wir im Folgeabschnitt II 2.2 im Detail behandeln.
Die meisten in der Praxis vorkommenden Zufallsvariablen knnen in zwei Typen
aufgeteilt werden. Es ist zu unterscheiden zwischen stetigen und diskreten Zufallsvariablen. Kriterium fr die Aufteilung sind die Ergebnisrume, ber die die jeweiligen Zufallsvariablen definiert sind.
o
Diskrete Zufallsvariablen
Wird eine Zufallsvariable ber einem endlichen Ergebnisraum definiert, umfasst sie auch nur endlich viele Realisationen. Solche Zufallsvariablen, deren

Wertevorrat nur endlich oder abzhlbar unendltch viele Ausprgungen besitzen, werden als diskrete Zufallsvariablen bezeichnet.! Ihre Ausprgungen
werden ber einen Zhlvorgang ermittelt. Es gilt also
W={X1,X 2,X"",} mit WeR.

Typische Beispiele fr diskrete Zufallsvariablen sind etwa X: "Anzahl Kopf


beim dreimaligen Mnzwurf' oder Y: "Anzahl defekter Glhbirnen in einer
Stichprobe von 10 Stck".
Stetige (kontinuierliche) Zufallsvariablen
Diese Zufallsvariablen knnen zumindest in einem bestimmten Bereich der
reellen Zahlen jeden belteblgen Wert annehmen. Ihre Ausprgungen werden
ber einen Messvorgang bestimmt. Es gilt
W={xlaSxSb} mit WeR.
Theoretisch kann der Wertevorrat auch aus der ganzen reellen Achse bestehen. Es gilt dann W = R. Als typische Beispiele fr stetige Zufallsvariablen
sind z.B. X: t'Zeitaufwand zur Produktion eines Werkstcks lt oder Y: IIGewicht
einer zufllig aus einer Abfllanlage entnommenen lL-Flasche ll ZU nennen.

Wie diese Beispiele erkennen lassen, knnen wir jedes Zufallsexperiment mit reellwertigen Elementarereignissen (z.B. Aktienrenditen) automatisch als Zufallsvariable
auffassen, indem wir X(ro) = ro fr jedes roE n setzen. Es soll auch nicht unerwhnt bleiben, dass sich stetige Zu[allsvariablen aufgrund nicht beliebig erhhbarer
Messgenauigkeit in der Praxis streng genommen hufig nur diskret et!assen lassen.
1 Eine Menge wird dann abzhlbar unendlich genannt, wenn sie zwar unendlich viele Elemente besitzt, sich aber jedem einzelnen Element eine natrliche Zahl zuordnen lsst.

196

11 Wahrscheinlichkeitsrechnung

Die Ntzlichkeit von Zufallsvariablen begrndet sich zum einen dadurch, dass
durch sie das umstndliche Rechnen mit Elementarereignissen und Ereignissen
weitgehend entI:illt. Zum anderen knnen mit ihrer Hilfe bestinunte Ereignisse statt
als Teilmengen von Cl krzer dargestellt werden. Typische Beispiele dafr sind:
"X nimmt (genau, mindestens oder hchstens) den Wert x an."
Neue Darstellung: X = x, X ~ x, X S x

"X nimmt Werte zwischen a und ban."


Neue Darstellung: a'" X ,., b

Besonders bei der Berechnung von Wahrscheinlichkeiten wird sich diese neue
Schreibweise im Folgenden noch als sehr vorteilbaft erweisen.

2.2 Diskrete Zufallsvariablen


2.2.1

Wahrscheinlichkeitsfunktion

Ist X eine diskrete Zufallsvariable, die endlich viele Werte

X 1 ,X 2J ... ,xn

annehmen

kann, so ergibt sich die Wahrscheinlichkeit, dass X eine spezielle Ausprgung Xi


annimmt, d.h. p(X = x), durch Addition der Wahrscheinlichkeiten detjenigen
Elementarereignisse ~, denen die Realisation X, zugeordnet ist. Es gilt also formal
p(x = x) =

X(Olj)=Xj

Beispiel 11 2-4

P(coJ).

(112: 2)

Wahrscheinlichkeiten und Zufallsvariablen

Ein idealer Wrfel werde zweimal geworfen. Die betrachtete Zufallsvariable X sei die Au
gensumme. Der Ergebnisraum und die einzelnen Realisationen der Zufallsvariablen (hoch
gestellte Zahlen) sind durch folgende Tabelle beschrieben:

4
5

(1,1)

(1,2)

(2,1)

(2,2)

(3,1)

(3,2)

(4,1)

(5,1)

(6,1)

(1,3)
(2,3)
(3,3)

(4,2)

(4,3)

(5,2)

(5,3)

(6,2)

(6,3)

1.

(1,4)
(2,4)
(3,4)
(4,4)
(5,4)
(6,4)

(1,5)

(2,5)

(3,5)

(4,5)

1.

(5,5)

11

(6,5)

1.
11

"

(1,6)
(2,6)
(3,6)
(4,6)
(5,6)
(6,6)

Jedem dieser 36 gleichwahrscheinlichen Elementarereignisse wird nach der klassischen


Wahrscheinlichkeitsdefinition die Wahrscheinlichkeit 1/36 zugeordnet. Die Wahrscheinlichkeiten der unterschiedlichen Ausprgungen der Zufallsvariablen X ergeben sich durch
Addition der Wahrscheinlichkeiten der dazugehrigen Elementarereignisse wie folgt:

P(X= x;)

1/36

2/36

456
3/36

4/36

5/36

10

11

12

6/36

5/36

4/36

3/36

2/36

1/36

2. Zufallsvariablen

197

Mit diesem Beispiel knnen wir sehr schn veranschaulichen, warum wir in Formel (112: 2)
zwei Indizes i und j bentigen. Fr das Zufallsexperiment, das wir hier betrachten, existieren nmlich genau 36 Elementarereignisse ~ mit j = 1, ... ,36. Fr die Augensumme gibt es
jedoch nur 11 mgliche Werte x; mit i = 1, ... ,11. Jedem i wird also mehr als ein j zugeordnet, sodass wir nicht allein mit einem Index auskommen.

Eine Funktion fex), die jeder reellen Zahl x die Wahrscheinlichkeit zuordnet, mit
der sie bei dieser diskreten Zufallsvariablen X auftritt, heit Wahrschelnllchkeitsfunktion der Zufallsvariablen. Fr sie gilt
fex) = {

P(X = x) falls x =

sonst

Xi

(112: 3)

Die Wahrscheinlichkeitsfunktion ist auf der gesamten reellen Achse ~ < x < ~
definiert und hat nur an den Stellen x = x" die zum Wertevorrat der Zufallsvariablen gehren, nichtnegative Werte p(x = x,). Dazwischen ist sie Null.
Jede Wahrscheinlichkeitsfunktion muss die Eigenschaften

o~ fex) ~ 1 und

~)(x) = 1 fr jeweils i = 1,2, ...

(112: 4)

etfllen. Wie aus diesen Eigenschaften zu erkennen ist, haben die Wahrscheinlichkeiten fex,) die gleichen Eigenschaften wie die im Rahmen der deskriptiven Statistik
behandelten relativen Hufigkeiten. Die Wahrscheinlichkeitsverteilung ist damit ein
Analogon zur Verteilung der relativen Hufigkeiten. Auch die grafische Darstellung
der Verteilung in Fonm eines Stahdiagrammes ist hnlich.

Beispiel 11 2-5

Wahrscheinlichkeilsfunktion

Fr eine Zufallsvariable X: "Anzahl defekter Zndkerzen in einer 3er-Box" ergaben sich


folgende Realisationen und zugehrige Wahrscheinlichkeiten:

o
f(x;)

0,125

0,375

0,375

0,125

1,000

Grafisch l!isst sich diese Wahrscheinlichkeitsfunktion wie folgt skizzieren:


f(x)
0,375
0,250
0,125
0,000

198

11 Wahrscheinlichkeitsrechnung

Mit Hilfe der Wahrscheinlichkeitsfunktion kann natrlich auch angegeben werden,


wie gro die Wahrscheinlichkeit dafr ist, dass die Zufallsvariable einen Wert in
einem Intervall [a, bl annimmt. Es gilt nmlich
P(aSXSb)=

P(X=x)=

aS:x. S:b

fex).

(H2: 5)

aS:x. S:b

Beispiel 11 2-6

Anwendung von (112: 5)

Stellen wir im Zusammenhang mit Beispiel 11 2-5 die Frage, wie gro die Wahrscheinlichkeit dafr ist, dass 1 oder 2 defekte Stcke auftreten, so kann diese folgendennaen beantwortet werden:

P(I'; X,; 2) =

f(x,) =0,375+0,375 =0,75

1:S:xl S:2

Die einfache Addition lsst sich damit begrnden, dass die beiden Ereignisse X = 1 und
X = 2 disjunkt sind.

2.2.2

VerteIlungsfunktion

Eine Funktion, die die Wahrscheinlichkeit dafr angibt, dass eine Zufallsvariable X
hchstens den Wert x annimmt, bezeichnet man als Vertellungsfunktion F(x) der
Zufallsvariablen X. Die Werte der Verteilungsfunktion lassen sich durch Aufsummieren derjenigen Funktionswerte der Wahrscheinlichkeitsfunktion ermitteln, die
zu den Ausprgungen Xi S x gehren.
F(x) = p(X S x) =

L fex)

(112: 6)

",.>

Wie wir hieraus gut erkennen knnen, ist die Verteilungsfunktion ein Analogon zur
Summenhufigkeitsfunktion aus der deskriptiven Statistik. Das Bild der Verteilungsfunktion einer diskreten Zufallsvariable ist daher auch das einer Treppen/unktion.
Fr eine Verteilungsfunktion ergeben sich aus ihrer Definition die Eigenschaften:

1. Der niedrigste Wert von F(x) ist Null, der hchste Eins. F(x) nimmt also nur
Werte zwischen F(-) = und FC+oo) = 1 an, d.h. es gilt

OSF(x)Sl

fr alle

XE

IR.

Die Funktion F(x) besitzt also die beiden Grenzwerte F(x)


F(x) ~ 1 fr X ~ +~.

0 fr x

~ ~

und

2. F(x) steigt fr wachsendes x monoton an oder bleibt zumindest auf gleicher


Hhe. Dies bedeutet, dass fr alle - S a S b S +00 Folgendes gilt:
F(a) S F(b)
3. Die Verteilungsfunktionen diskreter Zufallsvariablen weisen eine typische Treppen/arm auf. Ihr Funktionswert verharrt auf dem gleichen Niveau und springt
an den Stellen", um den Betrag der Wahrscheinlichkeit P(X = x) nach oben.
An den Sprungstellen selbst gilt der "obere" Wert.

2. Zufallsvariablen

199

Beispiel 11 2-7

Verteilungsfunktion

Betrachten wir die Zufallsvariable X: "Anzahl der Kpfe beim einmaligen MOnzwurf". Da die
Wahrscheinlichkeit Kopf zu werfen 0,5 betrgt, beschreibt die folgende Tabelle die Wahrscheinlichkeits- und Verteilungsfunktion dieser Zufallsvariablen.

x,
f(x,)

0,5

F(x,)

0,5

0,5
1,0

Die Werte F(x,) entstehen, einfach ausgedruckt, immer durch Addition von f(x,) und aller
"vorhergehenden" Werte der Wahrscheinlichkeitsfunktion (Beispiel: F(I) = f(l) + f(O) = 0,5
+ 0,5 = 1,0). Die Verteilungsfunktion ist hier konkret durch die folgende Grafik und Funktion gegeben:
F(x)
1,0
fr

x<O

F(x) = E5 fr OSx<1
1,; x
fr

0,5

Unter Zuhilfenahme der Verteilungsfunktion Fex) lsst sich die Wahrscheinlichkeit,


dass eine diskrete Zufallsvariable X einen Wert im Intervallla,bl annimmt, einfach
berechnen. Es gilt nmlich fr alle a,b mit ~,; a'; b,; +00 stets die Beziehung
pea < X'; b) = Feb) - Fea).2

012: 7)

Allgemein erleichtert die Verwendung von Fex) die Berechnung von Wahrscheinlichkeiten spezieller Ereignisse erheblich, was folgendes Beispiel verdeutlichen soll.

Beispiel 11 2-8

Wahrscheinlichkeitsberechnung und Verteilungsfunktion

Die Anzahl der in einer Reparaturwerkstatt pro Stunde abgefertigten Pkw besitzt folgende
Verteilungsfunktion. Wie sich damit zunchst zeigen lsst, knnen wir aus der jeweiligen
SprunghOhe von F(x) die Werte f(Xi) ermitteln:
x,

F(x,)

0,7

0,9

1,0

f(x,)

0,4

::

0,4
0,3
0,2
0,1

2 Es gilt auch pex>a)-1- pexSa)-1- Fea), pex<a)-pexSa) - Pex-a)-Fea) - pex-a),


pex;, a) = 1- peX < a) = 1- Fea) + peX = a). Daraus folgt pea'; X,; b) = F(b) - Fea) + pex = a),
pea < X < b) - F(b) - pex - b) - Fea) und pea S X < b) - F(b) - pex - b) - Fea) + pex - a).

200

11 Wahrscheinlichkeitsrechnung
Gesucht sind nun die Wahrscheinlichkeiten dafOr, dass
a) genau 1 Pkw abgelertigt wird,
b) weniger als 2 Pkw die Werkstatt verlassen,
c) mindestens 1, aber hchstens 3 Pkw in einer Stunde abgelertigt werden, und
d) die Wahrscheinlichkeit dalr, dass mindestens 2 Pkw repariert werden, sowie
e) die gralische Darstellung der Verteilungslunktion.
Lsungen:

a)

P(X= 1) = P(XS 1)-P(X S 0) = F(I)-F(O) = 0,7-0,4 = 0,3


AHernativ: 1(1) = 0,3

b)

P(X< 2) = P(X ,; 1) = F(I) = 0,7


AHernativ: 1(0)+1(1)=0,4+0,3=0,7

c)

P(1 S XS3) = P(O < X S 3) = F(3)-F(0) = 1,0-0,4 = 0,6


Alternativ: 1(1)+1(2) +1(3) = 0,3+0,2+0,1 = 0,6

d)

P(X:' 2) = 1-P(X'; 1) = 1-F(I) = 1-0,7 = 0,3


Alternativ: 1(2)+1(3)=0,2+0,1=0,3

e) Gralische Darstellung:
F(x)
1,0 - ----- -- ----- ----- -- ----- - - - . , - - - -

0,8
0,6
0,4
0,2

2.2.3

---'
,,

,
----,
,
,

Zusammenfassende Gegenberstellung

Diesen ersten Abschnitt zu diskreten Zufallsvariablen wollen wir mit einer Zusammenfassung der Zusammenhnge zwischen Wahrscheinlichkeits- und Verteilungsfunktion abschlieen (vgl. insbesondere die Abbildung auf der nchsten Seite). Das
Verstndnis dieser Beziehungen ist fr die folgenden Abschnitte besonders wichtig.
Die Verteilungsfunktion F(x) lsst sich leicht aus der Wahrscheinlichkeitsfunktion
f(x) durch Aufsummieren derjenigen Werte von f(x) gewinnen, die zu den Ausprgungen Xi ,; X gehren. Es gilt nmlich nach (112: 6)
F(x) = P(X ,; x) =

L fex,) .

Dieses Vorgehen ist der Grund fr die Sprnge von Verteilungsfunktionen diskreter
Zufallsvariablen an den Stellen x = x,.

2. ZUfallsvariablen

201

Aus der Verteilungsfunktion F(x) lsst sich umgekehrt auch wieder die wahrscheinlichkeitsfunktion f(x) ableiten, indem wir an jeder Stelle x von ihrem Funktionswert
den linksseitigen Grenzwert abziehen:
fex) = F(x) - !im F(x - Ax)

(II2, 8)

h~

Da diese Differenz bzw. f(x) nur an den Sprungstellen


denen Wert annimmt, knnen wir alternativ auch

einen von Null verschie(II2, 9)

schreiben. Um die Wahrscheinlichkeit der Realisation X, zu bestimmen, mssen wir


also lediglich vom Funktionswert der Verteilungsfunktion an der Stelle X, ihren
Funktionswert fr die nchstkleinere Realisationsmglichkeit abziehen. Diese Vorgehensweise ist uns bereits im Beispiel 11 2-8 begegnet.
F(x)

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~'
}

!
,

....._ . .ir''''')

f~) - F(x.;)-F(J:,)

, x

fex)

fex.)
f(x 5 )

~ ~~~~~~~~~~~~~~~~~~~~

I
X,

1I I
x,

x,

x,

x,

Abbildung n 12: Zusammenhang Wahrscheinlichkeits- und Verteilungsfunktion

202

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-9

Abschlieendes Beispiel zu diskreten Zulallsvariablen

Fr eine diskrete Zulallsvariable X ergab sich folgende lckenhafte Wahrscheinlichkeitsund Verteilungslunktion. Es gilt nun die lehlenden Werte a, b, c und d zu ermitteln, wobei
bekannt ist, dass P(3 < X ,; 5) = 0,5 gilt.

2
0,1
0,1

0,2

3
b
d

0,2
1,0

0,8

1,0

Die gesuchten Werte ergeben sich wie lolgt:


a = F(2) = 1(2)+1(1) = 0,2+0,1 =0,3
d = F(3) ..... P(3 < X,; 5) = F(5) -F(3) = 0,5 ..... F(3) = 1,0-0,5 = 0,5
b = 1(3) = F(3)-F(2) = 0,5 -0,3 = 0,2
O,I+0,2+0,2+c+O,2 = 1 ..... c =0,3
Der Wert von c liee sich auch schneller uber den lolgenden Zusammenhang emnitteln:
P(3 < X,; 5) = 1(4)+1(5) = 0,5 ..... c = 1(4) = 0,3

2,3 Stetige Zufallsvariablen


2,3_1

Verteilungsfunktion

Ist eine Zufallsvariable X stetig, so kann sie in einem bestimmten Intervall jeden beliebigen Wert annehmen. Dies hat zur Folge, dass ihre Vertellungsfunktion F(x)
=
x) keioe Treppenfunktion mehr ist, sondern eioe stetige Funktion (vgl. Abbildung II 13) darstellt.

pex ,;
F(x)
1

F(x) -

Abbildung II 13: Verteilungsfunktion einer stetigen Zufallsvariable


Die Eigenschaften der Verteilungsfunktionen stetiger Zufallsvariablen siod denen
diskreter Zufallsvatiablen sehr hnlich und weichen nur io eioem Aspekt voneioander ab. Die Verteilungsfunktion F(x) stetiger Zufallsvariablen hat im Allgemeioen
folgende Eigenschaften:

203

2. Zufallsvariablen
1.
2.

3.

Die Funktionswerte liegen im Intervall 0 S F(x) SI.


F(x) besitzt die Grenzwerte F(x) -7 0 fr x -7 - und F(x) -7 1 fr x -7 +=.
F(x) ist monoton wachsend, d.h. fr a < b gilt F(a) S F(b). Wir knnen alternativ auch F(x) S F(x + c) fr c > 0 schreiben.

Im Gegensatz Zu diskreten Zufallsvariablen kommt folgende Eigenschaft hinzu:

4.

F(x) ist keine Treppenfunkrion, sondern berall stetig.

Ein typisches Beispiel fr eine stetige Zufallsvariable, deren Verteilungsfunktion einen verlauf wie in Abbildung II 13 zeigt, ist die Lebensdauer eines Gertes. Die
Verteilungsfunktion gibt hier die Wahrscheinlichkeit dafr an, dass ein Gert eine
Lebensdauer von hchstens x Zeiteinheiten besitzt.

2.3.2

Dichtefunktion

Die erste Ableitung der Verteilungsfunktion F(x) nach x wird als WahrscheinIlchkeitsdichte oder Dichtefunktion fex) bezeichnet. Sie ist bis auf hchstens endlich
viele Stellen ebenfalls eine stetige Funktion und entspricht formal (nicht jedoch in
ihrer Interpretation) der Wahrscheinlichkeitsfunktion im diskreten Fall.
fex) = d F(x) = F'(x)
dx

(II2: 10)

Umgekehrt lsst sich aus der Dichtefunktion durch Integration CI - Integrationsvariable) wieder die Verteilungsfunktion bestimmen.
F(x) =

f(t) dt

(II2: 11)

Die Dichtefunktion fex) besitzt folgende wichtige Eigenschaften:


1. Die Dichtefunktion verluft stets oberhalb oder auf der reellen Zahlengeraden
(x-Achse). Dies folgt unmittelbar aus der Tatsache, dass die Verteilungsfunktion
monoton steigend ist, also nirgends eine negative Ableitung haben kann.
(II2: 12)
fex) :<: 0
2. Die gesamte Flche, die zwischen x-Achse und Dichtefunktion eingeschlossen

wird, besitzt den Flcheninhalt Eins .

....

Jfex) dx=1

([[2: 13)

Wie bereits erwhnt wurde, sind Dichte- und Wahrscheinlichkeitsfunktion miteinander verwandt. Es ist aber ZU beachten, dass die Dichtefunktion im Gegensatz zur
Wahrscheinlichkeitsfunktion auch ohne weiteres Funktionswerte annehmen kann,

die grer als 1 sind. Sie gibt nmlich keine Wahrscheinlichkeiten an. Dichtefunktionen geben Wahrscheinllchkeiten nur mittelbar an. Wahrscheinlichkeiten sind
lediglich als Flchen unter der DichteJunktIon und fr bestimmte Intervalle zu
finden. 3 Wie Z.B. Abbildung II 14 zeigt, kann die Wahrscheinlichkeit p(X S x)
bzw. F(x,) als Flche unter der Kurve f(x) dargestellt werden:
3 Diese Eigenschaft ist vergleichbar mit der von Histogrammen aus der deskriptiven Statistik.
In diesen geben nicht Sulenhhen, sondern -flchen Auskunft ber Hufigkeiten.

204

11 Wahrscheinlichkeitsrechnung

P(X S x.) = F(x,) =

f(1) dt

(H2: 14)

Auerdem lsst sich die Wahrscheinlichkeit dafr, dass die stetige Zufallsvariable X
einen Wert im Intervall [a,bl mit ~ S a S b :5: +00 annimmt, als Flche unter der
Dichtefunktion in den Grenzen a und b interpretieren. Es gilt
b

P(a:5:X:5:b)= !f(x) dx.

(II2: 15)

fex)
P(a

P(X s x)

b) =F(b)-F(a)

= F(x)

p(X ~ e) = I-F(e)

Abbildung H 14: Dichtefunktion einer stetigen Zufallsvariable


Besonders wichtig ist bei stetigen Zufallsvariablen, dass die Wahrscheinlichkeit dafr, dass ein spezieller Wert x angenommen wird, immer Null ist. 4
P(X=x)=O

frallexER

(H2: 16)

Dies knnen wir wie folgt beweisen:


P(X = x) = 1f(1) dt = F(x)-F(x) = 0
Aus diesem Grund ist es bei der Bestimmung von P(a :5: X :5: b) unerheblich, ob die
beiden Grenzen a und b in das Intervall eingeschlossen werden oder nicht. Es gilt
also bei stetigen im Gegensatz zu diskreten Zufallsvariablen immer
P(a S X S b) = P(a < X S b) = P(a S X < b) = P(a < X < b) .

(H2: 17)

4 Trotzdem ist das Ereignis X "" x nicht fr alle x urunglich. Diese auf den ersten Blick verwirrend scheinende Aussage wird verstndlich, wenn wir uns klar machen, dass irgendeine der Realisationen x zwangslufig angenorrunen werden muss und in der Praxis oft
nicht zwischen der Realisation x (z.B. x - 0,5) selbst und einem je nach Messgenauigkeit

mehr oder weniger kleinem Intervall um x (z.B. 10,45; 0,55]) unterschieden wird. Sofern
ein Intervall im Wertebereich liegt, fllt ein stetiges X bereits mit positiver Wahrscheinlichkeit in dieses Intervall, auch wenn das Intervall noch so klein ist.

2. Zufallsvariablen

205

Dies schliet natrlich auch die Gltigkeit ein von


P(X

x) = P(X < x) .

(HZ: 18)

Neben der Integration der Dichtefunktion fex) bietet die Verteilungsfunktion F(x)
eine weitere Mglichkeit zur Berechnung der Wahrscheinlichkeit P(a ~ X:S: b). Da
P(a :s: X:S: b) = P(X :s: b) - P(X:S: a), P(X:S: b) = F(b) und P(X:S: a) = F(a) gilt, kann
P(a ~ X ~ b) = F(b) - F(a)

(HZ: 19)

geschrieben werden.

Beispiel 11 2-10

Charakterisierung stetiger Zufallsvariablen

Fr eine stetige Zufallsvariable X, die die Versptung einer Straenbahn an einer bestimmten Hallestelle {in Minulen} beschreibt, sei die vermeintliche Dichtefunktion

f{X}={0,4-0,08X fr 0:S:x:S:5
sonst
gegeben. Wir wollen zunchst prfen, ob es sich dabei tatschlich um eine Dichtefunktion
handeln kann. Dazu mssen die beiden Voraussetzungen {1I2: 12} und {1I2: 13} erfOlit sein.
1. f{x};'

fOr alle x

Diese Voraussetzung iSI klar erfllt, was ein Blick auf die grafische Darstellung der
Funktion {grobe Skizze} besttigt:
f{x}
0,4
:s: X:S:4}

2. Die Flche unter der Funktion muss gleich 1 sein.


+-

+-

f f{x} dx = f {O,4-0,08x} dx =f {Q,4-0,08x} dx =[ O,4x -0,04x'], = {2-1}-{O-O} = 1


o
Es handelt sich also hier klar um eine echte Dichtefunktion. Die dazugehrige Verteilungsfunktion ergibt sich zu
F{x} =

bzw.

Jf{l} dt = Jo {Q,4-0,08I} dt = [0,41-0,041']; = 0,4x -0,04x'

fOr
x<
F{x}= 0,4x-O,04x' fOr 0:s:x:S:5.
fOr
x>5
1

Wir berechnen nun die Wahrscheinlichkeit dafOr, dass die Zufallsvariable X einen Wert
zwischen 2 und 4 annimmt, d.h. die Versptung zwischen 2 und 4 Minuten betrgt. Uns
stehen dazu die beiden folgenden MOglichkeiten zur VerfOgung:

11 Wahrscheinlichkeitsrechnung

206
1.

Mglichkeit (Integral):

"

P(2 S X S 4) = [I(x) dx = [(0,4-0,08x) dx = [Q,4x-O,04x'], = 0,98-0,84 = 0,32


2.

Mglichkeit (Verteilungsfunktion):

P(2 S X S 4) = F(4)-F(2) = (0,4.4-0,04.4')-(0,4.2-0,04.2') = 0,96-0,64 = 0,32


Skizziert zeigt sich die Lsung anhand der Verteilungsfunktion folgendermaen:
F(x)

-------

1,00
:::::::::::::::::::::::::::::::::~::::~---~----~-0,96
,

0,64 -----------------

,,
,,
,

F(4)-F(2)

------------------~-

~----------~----------~----------+x
Bel.plel ff 2-11

Bestimmung der Dichtefunktion

Gegeben sei folgende Verteilungsfunktion einer stetigen Zufallsvariable X:


x<O
0 ru,
F(x)= i-x fOr Q:S:x:S:20
{

rur

x>20

Die Dichtefunktion kann daraus durch AbleibJng aller drei TeilstOcke ermittelt werden:

o fur

fex) -

i- fur_

x<O

{-.L

0 S x S 20 bzw. fex) _ 20
{ o 'Or x > 20
0

rur O:SxS20

fOr

sonst

Wie diese Beispiele zeigen, sind beim Umgang mit stetigen ZufaUsvariablen Kenntnisse der Differenzial- und der Integralrechnung hilfreich. Wir haben daher die
Formelsammlung in unserem Online-Service auch um die wichtigsten Regeln aus
diesem Gebiet ergnzt.

2,3,3

Zusammenlassende Gegenberstellung

Da der Zusanunenhang zwischen Verteilungs- und Dichtefunktion bei stetigen Zufallsvariablen ebenfalls sehr wichtig fr die folgenden Kapitel ist, wollen wir ihn
zum. Abschluss dieses Abschnitts wie bereits bei diskreten Zufallsvariab1en noch
einmal bersichtlich grafisch darstellen.

2. Zufallsvariablen

207

F(x)

1,0
F(b) .

F(a)

P(a':; X':; b)

Abbildung II 15: Zusammenhang Verteilungs- und Dichtefunktion

2.4 Kennzahlen von Wahrscheinlichkeitsverteilungen


Wie auch bei den Hufigkeitsverteilungen der deskriptiven Statistik lassen sich fr
die Charakterisierung von Wahrschetnltchkeitsverteilungen von Zufallsvariablen
Mazahlen (Verteilungsparameter) berechnen. Es knnen Lage- und Streuungsparameter sowie weitere auf Momenten basierende Parameter bei eindimensionalen und Kovarianzen und Korrelationskoeffizienten bei mehrdimensionalen Zufallsvariablen (vgl. Abschnitt II 2.7) ennittelt werden.

2.4.1

Erwartungswert

2.4.1.1

Definition

Der wohl wichtigste Lageparameter der Wahrscheinlichkeitsverteilung einer Zufallsvariablen X ist der analog zum arithmetischen Mittel einer Hufigkeitsverteilung
gebildete Erwartungswert E(X). Dieser dient insbesondere dazu, den zu erwartenden Wert zu bestimmen, den eine Zufallsvariable bei einem Zufallsexperiment
annimmt. Prziser formuliert: Der Parameter beschreibt den Durchschnitt/Mittelwert, den eine Zufallsvariable bei unendlich vielen Durchfhrungen eines Zufallsexperimentes annimmt. Der Erwartungswert charakerisiert damit den Schwerpunkt

208

11 Wahrscheinlichkeitsrechnung
der Wahrscheinlichkeitsverteilung (z.B. erwartete Lebensdauer eines Produktes,

erwarteter Gewinn bei einem Glcksspiel).5


Der Erwartungswert ist fr eine diskrete ZufallsvarIable X mit der Wahrscbeinlichkeitsfunktion fex) als
(H2: 20)
definiert. Diese Formel zeigt deutlich die Verwandtschaft zum arithmetischen Mittel
einer Hufigkeitsverteilung. Der einzige Unterschied besteht darin, dass die Gewicbtung der einzelnen Werte X, mit der wahrscheinlicbkeit erfolgt, mit der die Zufallsvariable diese Werte annimmt. Die Wahrscheinlicbkeiten fex,) treten also an die
Stelle der relativen Hufigkeiten.
Sind fr alle Werte X, einer diskreten Zufallsvariablen X die dazugehrigen Wahrscbeinlicbkeiten p(x = x,) gleich, so kann E(X) vereinfacht als
1
1
1 1
1
E(X)=x, _+x, -+ ... +xn _=_(x, +x, + ... +xn )=_
n

LX,
n

(H2: 21)

i_I

berechnet werden. n ist hierbei die Anzahl der Realisationsmglicbkeiten der Zufallsvariablen X. E(X) ist also interpretierbar als der Mittelwert einer endlicben
Grundgesamtheit.
Fr eine stetige ZufallsvarIable X mit der Dichtefunktion fex) kann der Erwartungswert folgendennaen ermittelt werden:
E(X) =

-J

x fex) dx

(H2: 22)

Sollte die Dichtefunktion nur in einem Intervall X u ~ x ~ X o positive Werte annehmen, mssen wir nur ber diesem Intervall die Integration ausfhren.

Jx fex) dx

x"

E(X) =

(H2: 23)

'.

Der Erwartungswert E(X) oder dessen Zahlenwert wird in der Literatur auch hufig
mit dem griechischen Buchstaben 11 (gesprochen: m) bezeichnet. Um konkret
auszudrcken, zu welcher Zufallsvariable der Erwartungswert gehrt, ist dann
narrlich eine Form wie Il. erforderlich.

Beispiel 11 2-12

Erwartungswert diskreter Zufallsvariablen

Die folgende Tabelle zeigt die Wahrscheinlichkeit dafr, dass ein Notebook einer bestimmten Marke nach X Jahren funktionsuntchtig wird.
Jahr X;

P(X = x;) = f(x;)

X; f(x;)

0,02

0,18

0,30

0,28

0,10

0,02

0,06

0,72

1,50

1,68

0,70

0,16

5 Betrachtet man Krper an den Orten ~ mit den Massen l'I\ - f(x) oder eine Massenver-

teilung mit der Massendichte fex), dann ist der Erwartungswert tatschlich der physikalische Schwerpunkt der Massenverteilung.

2. Zufallsvariablen

209

Wie hoch ist die erwartete Lebensdauer eines Notebooks dieser Marke?
E(X} =

LX,
, f(x;} =0+0+0,06+0,72+1,50+1,68+0,70+0,16 = 4,82 Jahre

Beispiel 11 2-13

Erwartungswert diskreter Zufallsvariablen

Eine Frau schliet eine Risiko-Lebensversicherung ber eine Summe von 100.000 Euro
und einer Laufzeit von einem Jahr ab. Die Prmie hierfr betrgt 800 Euro. Wie hoch ist
der "durchschnittliche Reingewinn" fr die Versicherung, wenn die Sterbewahrscheinlichkeit der Frau mit 5 Promille kalkuliert wird?
Gesucht ist hier der Erwartungswert der Zufallsvariablen X = "Reingewinn der Versicherung". Die Wahrscheinlichkeitsfunktion von X lsst sich wie folgt tabellarisch darstellen:

Reingewinn (x,)

Frau stirbt
-99.200
(= -100.000 + 800)

Frau stirbt nicht

0,005

0,995

P(X = x;} = f(x;}

800

Der erwartete Reingewinn ergibt sich damit als


E(X} = Lx,.f(x,} = -99.2000,005+8000,995 = 300 Euro.
I

Beispiel 11 2-14

Erwartungswert stetiger Zufallsvariablen

In Beispiel 11 2-10 hatten wir eine stetige Zufallsvariable X: "Versptung einer Straenbahn
in Minuten" mit der Dichtefunktion
f(X}={O,4-0,08X fr OSxS5
o
sonst
betrachtet. Zur Berechnung ihres Erwartungswertes gehen wir wie folgt vor:
E(X} =

JXf(x} dx = Jx (O,4-0,08x) dx = J(O,4x -O,08x') dx

XD

..

[0.-4 x2 _ 0,08 X3 J5
2

= 5 _!Q. =.i Minuten


3

Inhaltlich bedeutet dieses Ergebnis, dass bei der Straenbahn im Durchschnitt von einer
Versptung von 100 Sekunden auszugehen ist.

2_4_1.2

Eigenschaften

Fr die Berechnung von Erwartungswerten bzw. den Vergleich von Erwartungswerten verschiedener Zufallsvariablen sind folgende Regeln und Eigenschaften von
EOO sehr ntzlich:
1. Der Erwartungswert der Abweichungen jeder Zufallsvariablen X von ihrem Erwartungswert !Ix ist stets Null.
E(X - !Lx) = 0

(112: 24)

Dies entspricht der im Abschnitt I 2.2.1.3 besprochenen Zentraleigenschaft des


arithmetischen Mittels.

210

11 Wahrscheinlichkeitsrechnung

2. Die Erwartungswertbildung lsst sich auch auf Funktionen von X ausdehnen. Ist
die Funktion g : R --7 Reine reellwertige Funktion, sodass mit X auch Y = g(X)
eine Zufallsvariable ist, so kann der Erwartungswert von Y ohne (direkte)
Kenntnis der Verteilung von Y aus der Verteilung von X emtittelt werden.
Im diskreten Fall gilt
E(Y) = E [g(X)I =

L g(x) . fex) .

(H2: 25)

E(Y) = E [g(X)I =

Jg(x) fex) dx .

(112: 26)

Im stetigen Fall gilt

Beispiel 11 2-15

Veranschaulichung von (1I2: 25)

Bei einer Maschine treten pro Tag X Strfalle auf. Die Wahrscheinlichkeitsfunktion der
Zufallsvariable X: "Anzahl der Strfalle pro Tag" kann durch folgende Tabelle beschrieben werden:

o
f{x,)

0,35

0,50

2
0,10

3
0,05

Die Kosten (in Tausend Euro), die fiir die Behebung dieser Strflle entstehen, werden
durch die folgende Kostenfunktion beschrieben:
5
g{x)=6- x+2
Die Ermittlung der erwarteten Kosten erfolgt unter Zuhilfenahme der folgenden Tabelle:
X;

g{x;)
f{x;)

3,50
0,35

4,33
0,50

2
4,75
0,10

3
5,00
0,05

Da die Kosten eines jeden einzelnen Strfalles mit ihrer Wahrscheinlichkeit bewertet
werden mssen, ware es falsch einfach E{X) = 0,85 in die Kostenfunktion einzusetzen
(g[E{X)] = 4,25). Die korrekte Berechnung der erwarteten Kosten der Strfallbeseitigung pro Tag ergibt stattdessen
E[g{x)] = 3,500,35 +4,33 0,50+ 4,750,10+5,00 0,05 = 4,12.
Der Zusammenhang zwischen E[g{X)] und g[E{X)] wird im Rahmen der Jensenschen

Ungleichung (1I2: 27) bzw. (1I2: 28) noch nher betrachtet.

Fr einige wichtige lineare Transformationen von Zufallsvarlablen sind die


Erwartungswerte in folgender Tabelle zusammengestellt. Die dargestellten Zusammenhnge gelten fr alle a, b ER.

(A)
(B)
(e)

(D)

Ybzw. g(X)

E(Y) bzw. E(g(X))

a
bX
a+X
a+bX

a
b E(X)
a+E(X)
a+bE(X)

2. ZUfallsvariablen

211

Wir erkennen daran sehr schn die gleiche Transformationseigenschaft wie


beim aritlunetischen Mittel (vgl. Abschnitt I 2.2.1.3) und knnen daher auf die
Erbringung eines formalen Beweises verzichten.

Beispiel 112-18

Erwartungswert und Lineartransfonnation

Betrachten wir die Wahrschelnllchkeltsfunktlon einer diskreten ZUfallsvariablen X:


-1
0,10

o
0,30

0,40

0,05

0,10

FQr den Erwartungswert dieser Zufallsvariablen gilt


E(X) = (-2)0,05 + (-1)0,10 +00,30 + 1 0,40 +20,05 +30,10 = 0,6.

Multiplizieren wir nun die ZUfallsvariable X bzw. deren Realisationen mit der Konstanten b '" 2 und addieren die Konstante a '" 1, so ergibt sich der neue Erwartungswert
E(1 + 2 X) = [1 + 2 (-2)]0,05 +[1 + 2 (-1)]. 0, 10 + [1 + 20] 0,30 + [1 +2 .1]. 0,40
+[1 + 2 2]0,05+ [1 + 2 ,3], 0, 10 - 2, 2.

Unter Verwendung des Zusammenhangs E(a + b . X) '" a + b . E(X) lisst sich dieses
Ergebnis natOrlich viel schneller bestimmen:
E(1+2 X) = 1+2E(X) = 1 +2Q,6 = 2,2

IIeloplalll2-17

Beweis der Z&ntralelgenschaft von E(X)

Die Beziehung E(a + X) = a + E(X) er1aubt fUr a = - J1X die Herleilung der Zentraleigenschaft des Erwartungswertes (112: 25). Es gilt nmlich
E(X-.,)=E(X)-., =0.

3. Ist die wahrscheinlichkeits- bzw. Dichtefunktion f(x) von X symmetrisch bezglich eines Punktes x - a, d.h. ist f(a - x) - f(a + :x;) fr alle x, so gilt EOO - a
(falls der Erwartungswert existiert). Abbildung 11 16 veranschaulicht dies.
f(x l ) = f(xn )

fex)

f(x l ) = f(x,,_l)
--t E(X) = a

I ,

I,

I _a

...

I._.

X.

Abbildung n 16: Symmetrie und Erwartungswert (stetige ZV)

212

11 Wahrscheinlichkeitsrechnung

4. Gilt fr jedes Elementarereignis 01 der zugrunde liegenden Zufallsexperimente


zweier Zufallsvariablen X und Y die Ungleichung X(Ol)" Y(Ol) , so folgt auch
fr die Erwartungswerte E(X)" E(Y) .
5. Ist gex) eine konvexe oder konkave Funktion der Zufallsvariablen X, so gilt die
sog. Jensensche Ungleichung. Diese ist definiert als
E[g(X)]:2: g[E(X)]. falls g(X) konvex

(112: 27)

E[g(X)]" g[E(X)]. falls g(X) konkav.

(H2: 28)

bzw.

Beispiel

112-18

Jensensehe Ungleichung

Eine Person nimmt an einem Glcksspiel teil, bei dem sie jeweils mit einer Wahrscheinlichkeit von 50 % entweder 1.000 Euro oder 3.000 Euro gewinnen kann. Die Zufallsvariable X, welche ihren Gewinn beschreiben soll, kann daher nur diese zwei Werte annehmen. Der Erwartungswert des Gewinns liegt bei E{X} = 1.000 . 0,5 + 3.000 .
0,5 = 2.000 Euro. Die konkave Funktion g{X} beschreibe das Nutzenniveau, welches
diese (risikoaverse) Person aus einem Gewinn zieht, und stellt sich wie folgt dar:
g{X)
g(E{X))
E(g{X))
200
150
100

1.000

2.000

3.000

Untersuchen wir nun fr dieses Beispiel die Gltigkeit der Jensenschen Ungleichung
(1I2: 28). Halten wir zunchst fest, dass der Erwartungswert des Nutzens
E(g{X)) = 100 0,5+200 0,5 = 150
und der Nutzen des erwarteten Einkommens offensichtlich
g(E{X)) = g{2.000)
ist. Betrachten wir diese Werte und die obige Grafik, knnen wir klar feststellen, dass
E(g{X)) = 150

<

g(E{X)) = g{2.000).

213

2. Zufallsvariablen

2.4.2

Varianz und Standardabweichung

2.4.2.1

Definition

Wie stark die Verteilung einer Zufallsvariablen X um ihren Mittelwert (Erwartungswert) streut, kann durch ihre Streuungsparameter angegeben werden. Die Streuungsparameter, mit denen wir uns im Folgenden beschftigen, sind die Varianz
Var(X) und die daraus zu gewinnende Standardabweichung.
Ist X eine Zufallsvariable und l1x ihr Erwartungswert, so wird der Erwartungswert
der quadrierten Abweichungen der Zufallsvariablen von ihrem Erwartungswert als
Varianz der Zufallsvariablen X bezeichnet. Es gilt also
Var(X) = E[(X -l1x)'] .

(H2: 29)

An Stelle der Notation Var(X) oder um ihren Zahlenwert zu bezeichnen, verwendet


man hufig das Symbol 0' (gesprochen: sigma quadrat). Um auszudrcken, auf
welche Zufallsvariable sich die Varianz bezieht, schreibt man oft auch

er..

Konkret berechnet wird die Varianz im diskreten Fall mit der Formel
Var(X) = ~)x; - E(X)]' . fex) .

(H2: 30)

Aus dieser Formel ist deutlich zu erkennen, dass die Varianz einer Zufallsvariablen

X in ihrer Konstruktion der mittleren quadratischen Abweichung einer Hufigkeitsverteilung entspricht (vgl. Abschnitt I 2.2.2.3).
Ist X eine diskrete Zufallsvariable, die alle Werte

X 1 ,X 2 , ... ,x n

mit gleicher Wahr-

scheinlichkeit annimmt, so gilt fr die Varianz vereinfacht


1
Var(X) = -. L[x, - E(X)l' .
n

(H2: 31)

Im stetigen Fall errechnet sich die Varianz konkret als

Var(X) =
bzw.

Var(X) =

J[x - E(X)]' . fex) dx

..J

[x - E(X)l' . fex) dx .

(H2: 32)

(H2: 33)

I,.

Beispiel 11 2-19

Varianz diskreter Zufallsvariablen

Die Zufallsvariable X: Anzahl der KOpfe beim zweimaligen Mnzwur!" besitzt folgende
Wahrschainlichkaitsfunktion:

o
0,25

0,50

2
0,25

Wegen der Symmetrie der Verteilung besitzt die Zufallsvariable X den Erwartungswert
E{l<) = I. FOr ihre Varianz gilt
Var{X] = {O -I]' 0,25+ (I_I)' 0,50+ (2-1)'. 0,25 = 0,50.

214

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-20

Varianz stetiger Zufallsvariablen

In Beispiel 11 2-14 hatten wir den Erwartungswert einer stetigen Zufallsvariable X: "Versptung einer Straenbahn in Minuten" mit der Dichtefunktion
f(X)={0.4-0,08X

als E(X) =

Minuten bestimmt. Die zugehrige Varianz erhalten wir wie folgt:

Var(X) =

I (x-E(X))'.f(x) dx= I(x-t)'(O,4-0,08x) dx

...

'.
5

Io (x -1fx+~HO,4-0,08x) dx

J(O.4x
5

-O,08x 3

-t x + 3 x
8

= J(--O,08X3+~X2_Jt-X+~)
o

= [-O,02x +iX3

2.4.2.2

fr O:S;x:S;5
sonst

+~-i x) dx

dx

-~ x2 +~x J: = -12,5+ 2~D - 1: +W = 1,39 Minuten 2

Eigenschaften

Fr die Berechnung und Interpretation der Varianz sind folgende Regeln und
Eigenschaften von besonderem Nutzen:
1. Die Varianz ist abgesehen von dem trivialen Sonderfall einer Zufallsvariablen,

die stets denselben Wert anninunt, positiv. Beim erwhnten Sondetfall ninunt
sie einen Wert von 0 an.
2. Die positive Wurzel aus der Varianz einer Zufallsvariablen X bezeichnet man als
Standardabweichung (Jx der Zufallsvariablen X.
(Jx

= ,JVar(X)

(H2: 34)

An Stelle dieser Notation knnen wir auch kurz


zur Variable X nicht relevant ist.

0'

verwenden, wenn ein Bezug

3. Der fr die mittlere quadratische Abweichung bekannte Verschiebungssatz (vgl.


Abschnitt I 2.2.2.3) gilt auch fr die Varianz von Zufallsvariablen. Er besagt hier
Var(X) = E(X') -11i

(H2: 35)

Konkret bedeutet dies fr diskrete Zufallsvariablen


Var(X) =
bzw. stetige Zufallsvariablen
Var(X) =

L x~ . fex,) - [E(X)],

-J

x' . fex) dx - [E(X)]' .

(H2: 36)

(H2: 37)

2. Zufallsvariablen

215

Beispiel 11 2-21

Vereinfachte Varianzberechnung diskreter ZV

Kurz vor Saisonende hat eine Fu ballmannschaft noch 3 Spiele zu absolvieren. Dem
Trainer und begeisterten Statistiker gelang es, die Wahrscheinlichkeitsfunktion fiir die
Zufallsvariable X: "Anzahl der Siege bis Saisonende" aufzustellen:

X,

f{x;)

0,1

0,2

0,3

0,4

Wie stark streut die Anzahl der Siege um die erwartete Anzahl E{X) = 2?
Var{X) = LX~' f{x,) -[E{X)]' = 0' 0,1 + l' 0,2+2' 0,3 +3' 0,4-2' = 5-4 = 1
I

Beispiel 11 2-22

Vereinfachte Varianzberechnung stetiger ZV

Berechnen wir die Varianz der stetigen Zufallsvariable X: "Versptung einer Straenbahn in Minuten" aus Beispiel 11 2-20 nun mittels der aus dem Verschiebungssatz resultierenden Formel:
~

Var{X) = J x'f{x) dx-[E{X)]' = Jx'.{O,4-0,08x) dx-{~)'


5

= J{O,4x'-O,08x') dX-~=[D;'X'-O,02x'JD-~
o

=~-12,5-~=1,39 Minuten2

Wie zu erwarten war, stimmen die Ergebnisse beider Berechnungsvarianten Oberein.

4. Die Bildung von Varianzen lsst sich auch auf Funktionen von X ausdehnen. Ist
die Funktion g : lR -+ lR eine reellwertige Funktion, sodass mit X auch Y = gOO
eine Zufallsvariable ist, so kann die Varianz von Y ohne Kenntnis der Verteilung von Y aus der Verteilung von X ennittelt werden. Fr einige wichtige lineare Funktionen sind die Varianzen (inklusive Standardabweichungen) in der
folgenden Tabelle zusammengestellt:

(A)
(B)
(e)

(0)

Ybzw. gOO
a
bX
a+X
a+bX

Var(Y) bzw. Var(gOO)


0

b' Var(X)
Var(X)
b' Var(X)

O'y

bzw. (Je

0
I b Iox

I b Iox

Wir erkennen daran die gleiche Transfonnationseigenschaft wie auch bei der
Varianz bzw. der Standardabweichung aus der deskriptiven Statistik (vgl. Abschnitt I 2.2.2.3) und knnen daher auf fonnale Beweise verzichten.
Wir knnen aus obiger Tabelle folgende allgemeine Schlsse ziehen: (1) Eine
Konstante kann unmglich streuen. Ihre Varianz muss daher Null sein. (2) Addieren wir zu jedem Wert x eine Konstante a, dann fhrt dies zu einer Ver-

schiebung der Verteilung nach links (a < 0) oder rechts (a > 0). Die Verscbie-

216

11 Wahrscheinlichkeitsrechnung

hung der Verteilung um den konstanten Betrag a verndert aber ihre Streuung
nicht, da auch der Erwartungswert um a verschoben wird. (3) Wird jeder Wert
x einer Zufallsvariable mit einem konstanten Faktor b multipliziert, so fhrt dies
ZU einer Streckung oder Stauchung der Verteilung. Ist I b I > 1 spricht man von
Streckung, bei I b I < 1 von Stauchung der Verteilung.
Beispiel 11 2-23

Varianz und lineare Transformation

Betrachten wir eine diskrete Zufallsvariable X mit folgender Verteilung:

f(x;)

490

500

510

0,2

0,5

0,3

Um die Varianz von X einfacher berechnen zu knnen, knnte nun X mittels


Y=0,IX-50
transformiert werden. Die neue Zufallsvariable Y htte damit die folgende Verteilung:

y;

-1

f(y;)

0,2

+1

0,5

0,3

Erwartungswert und Varianz knnen wir nun fOr diese neue Verteilung bestimmen als
E(Y) = (-1) 0,2+00,5+ 10,3 = 0,1
Var(Y) = (_I)' 0,2+0' 0,5+1' 0,3-0, I' = 0,49.
Daraus wird schlielich Var(X) durch Riicktransformation ermittelt:
Var(X) = Var(10 Y +500) = 10' Var(Y) = 1000,49 = 49

Ein wichtiger Anwendungsfall dieser linearen Transformation ist die sog. Standardisierung von Zuja/lsvarlahien, auf welche im Abschnitt II 2.4.2.3 noch separat eingegangen wird.

5. Auch fr die Varianz gilt die sog. Minima/eigenschaft, die wir bereits von der
mittleren quadratischen Abweichung kennen. Sie besagt, dass immer

E[(X -l1x)]' < E[(X - h)]'

fr

* l1x

(II2: 38)

gilt, egal ob h grer oder kleiner als l1x ist. Fr h = I1x nimmt E[(X - h)]' also
sein Minimum an.

2.4.2.3

Standardisierung von Zufallsvariablen

Wird eine stetige oder diskrete Zufallsvariable X mit dem Erwartungswert l1x und
der Varianz <J~ bzw. der Standardabweichung <Jx in der Form
Z=a+bX

mit

a=_l1x

und

O'x

b=~
O'x

bzw.
mit

<J x

>0

(II2: 39)

2. ZUfallsvariablen

217

linear transformiert, dann heit die dabei entstehende transformierte Zufallsvariable


Z standardisiert. Die gleiche Art von Standardisierung ist uns bereits in der deskriptiven Statistik begegnet (vgL Abschnitt I 2.2.2.3), wobei wir hier nun x durch J.l. x
und Sx durch O"J: ersetzen. Die besondere Eigenschaft einer standardisierten Zufallsvariable Z ist ein Erwartungswert von Null und eine Varianz bzw. eine Standardabweichung von Eins. Die folgende Tabelle stellt die besonders im Zusammenhang
mit der Normalverteilung (vgL Abschnitt TI 3.2.3) wichtige Standardisierung noch
einmal kompakt dar. Der erste Schritt X --t Y (Verschiebung) dient dabei der Generierung eines Erwartungswertes von Null, whrend der zweite Schritt Y --t Z (Streckung) die Varianz bzw. die Standardabweichung von Eins herbeifhrt.

....

Y=X-J.l.x

Zufallsvariable

Erwartungswert

~.

Varianz

<fx

<fx

[J.

[J.

Standardabweichung

....

Boloplolll 224

X-I'x

Z=-[J.

1
1

Standardisierung von Zufallsvariablen

Betrachten wir die WBhrscheinlichkeitsfunktion der folgenden diskreten Zufallsvariablen X:

10
0,1

(.)

12
0,4

11
0,5

Ihr Erwartungswert !.Lx liegt bei 11,30 und Ihre Standardabweichung O"x bel 0,6403. Wird
nun eine Standardisierung von X mittels
Z= X-H30
0,6403
durchgefOhrt, so ergibt sich folgende neue Verteilung mit !.Lz - 0 und ~ - 1 bzw. O"z _ 1:
'(.)

-2,0303
0,1

-0,4685
0,5

1,0932
0,4

Wie das Beispiel 11 2-24 gezeigt hat, ndert sich im Falle einer diskreten Zufallsvariablen X durch die Standardisierung das Wahrscheinlichkeitsmuster nicht,
d.h. es gilt fr die Wahrscheinlichkeitsfunktion f(z) der standardisierten Zufa11svariablen Z
fez) = fex)

fr

(D2,4O)

alle i .

Handelt es sich bei der zu standardisierenden Zufa11svariablen X nun aber um eine


stetige ZufalJsvariable, so gilt fr deren Dichtefunktion nach der Kettenregel
f(x) = dF(x) = dF(z). dz =f(z).~.

dx

dz

dx

O"x

Die Dicbtefunktton f(z) der neuen Zufa11svariablen Z ergibt sich daher als
fez) = f(x) O"x'

CTI2: 41)

218

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-25

Standardisierung und Dichtefunktion

Die Standardabweichung einer stetigen Zufallsvariablen X sei "x = 4. Wird diese Zufallsvariable nun standardisiert, fOhrt dies dazu, dass die Dichtefunktion in x-Richtung auf ein
Viertel zusammengedruckt wird. Damit die Flache unter der Dichtefunktion gleich Eins bleiben kann, wird f(z) gleichzeitig viermal so hoch sein.

Der Vorteil einer Standardisierung liegt darin, dass die entstehenden Werte

Zi

eine

Reihe ntzlicher Intetpretationen zulassen, die wir bereits aus der deskriptiven
Statistik kennen. Ist z, nmlich positiv, so zeigt dies, dass X, ber dem Erwartungswert l1x liegt, d.h. z, > 0 --+ x, > 11x. Analog gilt auch Z, < 0 --+ x, < 11x. Zudem gibt z,
an, um welches Vielfache der Standardabweichungen Clx die Realisation x, von l1x
abweicht.

2.4.3

Hhere Momente

Ist X eine Zufallsvariable mit einer gegebenen Verteilung und k eine natrliche
Zahl, so heit der Erwartungswert der koten Potenz
E(X)

(H2: 42)

das kote Moment der Verteilung. Der Erwartungswert der koten Potenz der Abweichung vom Erwartungswert
(H2: 43)
heit kotes zentrales Moment. 6 Bei der Charakterisierung von Verteilungen sind vor
allem das erste Moment E(X) und das zweite zentrale Moment E[(X -IL)'] = Var(X)
von Bedeutung. Der Erwartungswert beschreibt die Lage, die Varianz die Streuung
der Verteilung. Hhere Momente messen andere Eigenschaften.
Wie in der deskriptiven Statistik (vg!. Abschnitt I 2.2.3) wollen wir nun auch fr Zufallsvariablen die auf zentralen Momenten basierenden Kennzahlen der Schiefe 'Y
(eng!. skewness) und der Wlbung K (eng!. kurtosis) einfhren:
E[(X -IL)']

'Y

a'

(H2: 44)

(H2: 45)
Das dritte zentrale Moment E[(X - IL)'] lsst erkennen, ob die Verteilung symmetrisch oder schief ist. Wie alle ungeraden zentralen Momente nimmt auch dieses bei
einer symmetrischen Verteilung den Wert Null an. Dies liegt daran, dass durch eine
ungerade Potenz das Vorzeichen einer Abweichung nicht verloren geht und sich
die Abweichungen so gegenseitig aufheben knnen, wenn die Verteilung symmetrisch zu ihrem Mittelwert ist. Das vierte zentrale Moment E[(X - 1L)4] gibt Auskunft
ber den Grad der Wlbung einer Verteilung.
6 Zur konkreten Berechnung von Momenten und zentralen Momenten sind insbesondere die

Formeln (ll2: 25) und (H2: 26) mit gOO - x' bzw. gOO - CX - 11)' relevant.

219

2. ZUfallsvariablen

Da das dritte und vierte zentrale Moment von der Maeinheit, in der eine Zufallsvariable gemessen wird, und ihrer Streuung beeinflusst wird, sind sie allein jedoch
keine sehr geeigneten Mae fr die Asymmetrie und die Wlbung einer Verteilung.
Die zentralen Momente werden daher zur Ausschaltung dieser Einflsse durch die
dritte bzw. vierte Potenz der Standardabweichung dividiert.
Fr symmetrische Verteilungen ist r - 0, fr recht<!schiefe r > 0 und fr linksschiefe
r < 0.1 Fr die besonders in der induktiven Statistik bedeutende Nonnalverteilung,
die wir unter 11 3.2.3 ausfhrlich diskutieren werden, gilt r - 0 und lC - 3. Verteilungen mit greren lC-Werten haben schlankere Dichtefunktionen mit dickeren
(fetten) Enden (eng!. sog. fat tails), solche mit kleineren K-Werten besitzen dnnere
Enden als die Normalverteilung.
Beispiel 11 2-26

Hhere Momente Q .

Betrachten wir die einfache diskrete Zufallsvariable X, die nur die AusprAgungen 0, 1, 2
und 3 annehmen kann und deren Wahrscheinlichkeilsfunktion sich wie folgt darstellt:

f(xl
0,40

0,30
0,20
0,10

Diese Verteilung besitzt einen ErwariungS'N8r1 von 1.1. '" 1,5 und eine Varianz bzw. Standardabweichung von a2 '" 0,65 bzw. (J '" 0,806. Schiefe und WOlbung ergeben sich zu

1Je _

(0 _1,5)3 0,1 + (1-1,5)30,4 + (2-1,5)'0,4 + (3 _1,5)3 0,1

0,806'

(0-1,5t 0,1+(1-1,5t O,4+(2-1,5t 0,4+(3-1,5t .0,1 _ 2,51.


0,806 4

Die Verteilung ist damit symmetrisch und weist eine kleinere WOlbung als die Normalverteilung auf.

2,4,4

Quantile

Neben den aus den Momenten und den zentralen Momenten resultierenden Mazahlen dienen auch Quantile als Kenngren von wahrscheinlichkeitsverteilungen. 8 Als Spezialfall ist hierbei vor allem der Median (50 %-Quantil) interessant.
1 Vgl. dazu insbesondere auch die Ausfhrungen unter 12.2.1.6 und I 2.2.3.
8 Gelegentlich ist auch der Modus x..... einer Zufallsvariable X relevant. Er ist der Wert x, fr
den die Wahrschdnlichkeits- bzw. Dichtefunktion f(x) maximal wiId.

220

11 Wahrscheinlichkeitsrechnung

Der Median x..", einer stetigen oder diskreten Zufallsvariablen X ist dadurch definiert, dass X jeweils mit mindestens 50 % Wahrscheinlichkeit grer gleich bzw.
kleiner gleich x..", ist. Es gilt also die allgemeine Mediandefinition
P(X~XMod)~0,5

und P(X:S;XM'd)~0,5.

(II2:46)

Die Besrimmung des Median bei diskreten Zujallsvariablen erfolgt wie in der deskriptiven Statistik (vgl. Abschnitt I 2.2.1.2), d.h. es wird der kleinste x-Wert mit
F(x) > 0,5 gewhlt. Es kann dabei jedoch wieder der Fall auftreten, dass alle Werte
zwischen zwei SprungsteIlen die Bedingung (II2: 46) erfllen. Um einen eindeutigen Wert zu erhalten, whlt man dann in den meisten Fllen das aritmetische Mittel aus beiden Sprungstellen.
Im Falle einer stetigen Zujallsvariable kann der Median wie in Abbildung II 17 aus

der Verteilungsfunktion F(x) ermittelt werden. Existiert die Umkehrfunktion p-' der
Verteilungsfunktion bei F(x) = 0,5, so ist zur Besrimmung des Median also nur ZU
prfen, an welcher Stelle x die Verteilungsfunktion F(x) den Wert 0,5 annimmt:
P(X:S; XMod ) = F(xMod ) = 0,5
(II2: 47)
Wir sehen also, dass sich die Bedingungen (II2: 46) im Falle einer stetigen Zufallsvariablen zu (II2: 47) vereinfachen.

F(x)

0,5

,,

Abbildung II 17: Besrimmung des Median (stetige ZV)


Beispiel 11 2-27

Median bei stetigen ZV

In Beispiel 11 2-10 hatten wir fr die stetige Zufallsvariable X: "Versptung einer Straenbahn in Minuten" die Verteilungsfunktion
0
fr
x< 0
F(x)= 0,4x-0,04x' fr OSxS5
{
1
fr
x> 5
bestimmt. Ermitteln wir nun den Median fOr diese Verteilung, indem wir den relevanten Ast
von F(x) gleich 0,5 selzen und die resultierende Gleichung nach x auflsen:

0,4x-0,04x'=0,5

--+

-{),04x'+0,4x-0,5=0

2. Zufallsvariablen

221

ber die Lsungsformel fOr quadratische Gleichungen erhalten wir daraus


x

_
'.' -

-0,4~0,4' -4{-0,04){-0,5)
2{-0,04)

-->

x, =1,46

x, = 8,54.

Da nur x, innerhalb des Definitionsbereiches der "Teilfunktion" 0,4x -0,04x' liegt, ist die
Lsung x, = 1,46 der Median.

Ist X eine stetige ZuJallsvariable, so gibt es Zu jeder Zahl a mit 0 < a < 1 mindestens einen Wert x., sodass X ~ x. genau mit der Wahrscheinlichkeit a eintritt. Ein
solches Xa wird als a-Fraktil oder a-Quantil der Verteilung von X bezeichnet:
P(X ~ x.) = F(x.) = a

(H2: 48)

Fraktilswerte spielen besonders in der induktiven Statistik bei Konfidenzintervallen


und statistischen Tests eine groe Rolle, weshalb ihrer Bestimmung aus speziellen
Verteilungen (vgl. Kapitel H 3) eine besondere Bedeutung zukommt.
Beispiel 11 2"28

Quantile bei stetigen ZV

Bestimmen wir fr die stetige Zufallsvariable X aus Bespiel 11 2-27 das 98 %-Fraktil der
Verteilung von X. Wir mssen dazu (analog zum Median) lediglich den relevanten Ast der
Verteilungsfunktion F{x) gleich 0,98 setzen und nach x auflsen. Wir erhalten konkret
I

0,4x-O,04x'=0,98

x, = 4,29

x,=5,71.

Da nur x, im Definitionsbereich der "Teilfunktion" 0, 4x - 0,04x' liegt, gilt Xo,.. = 4,29.

Da die Quantilsdefinition (H2: 48) Ld.R. nur fr stetige Zufallsvariablen einen


wohldefinierten Wert liefert, mssen wir die Definition zur Anwendung auf diskrete
ZuJallsvariablen verallgemeinern. In Anlehnung an die allgemeine Mediandefinition (H2: 46) gilt
P(X ~ x.);:: a

und

P(X;:: x.);:: 1-a.

(H2: 49)

Auch hier kann sich nun wieder der Fall einstellen, dass alle Werte zwischen zwei
SprungsteIlen a und b diese Bedingung erfllen. Jeder Wert im Intervall a ~ Xa ~ b
ist also ein a-Quantil. Um einen eindeutigen Wert zu erhalten, whlt man auch hier
in den meisten Fllen das arithmetische Mittel aus beiden SprungsteIlen. Wir verzichten an dieser Stelle auf ein konkretes Beispiel, da die Vorgehensweise derjenigen der Quantilsbestimmung aus der deskriptiven Statistik (vgl. Abschnitt I 2.1.5)
gleicht.

2.5 Ungleichung von Tschebyscheff


Ist X eine stetige oder diskrete Zufallsvariable mit dem Erwartungswert l1x und der
Standardabweichung CJ" so gilt fr jedes k > 0 und unabhngig von der Verteilungsjunktion stets die Ungleichung von Tschebyscbeff. Diese besagt

p("t"'x -kCJx <X<"t"'x +kCJX );::1-~


k2 .

(H2: 50)

222

11 Wahrscheinlichkeitsrechnung

In der Literatur hufig zu findende alternative Schreibweisen zum linken Term im


Ausdruck (II2: 50) sind
und

p(IX -l1xl < k O"x).


Mit der Ungleichung von Tschebyscheff lsst sich ohne Kenntnis der Verteilung
von X abschtzen, wie gro die Mindestwahrscheinlichkeit dafr ist, dass die Zufallsvariable X um einen Wert von kleiner als k O"x von ihrem Erwartungswert
abweicht9 Es sei aber erwhnt, dass die Ungleichung nur grobe Abschtzungen liefert und so keine praktische Schtzmethode fr Wahrscheinlichkeiten darstellt. Fr
eine stetige Zufallsvariable X lsst sich der Bereich (bzw. die Wahrscheinlichkeit),
der mit der Ungleichung von Tschebyscheff abgeschtzt werden kann, wie in Abbildung II 18 grafisch darstellen.
fex)

x
Abbildung II 18: Ungleichung von Tschebyscheff

Beispiel 11 2-29

Ungleichung von Tschebyscheff I

Fr ausgewhlte Werte von k erhalten wir die folgenden Abschtzungen:


k=I,5 :

P{l1x -1,5 "x < X< I1x + 1,5 "x)

k=2:

P{l1x -2"x < X < I1x +2"x)

k=2,5:

P{l1x -2,5"x < X< I1x +2,5"x)

k=3:

P{l1x -3"x < X < I1x +3"x)

:.
:.
:.
:.

0,5555 ...
0,7500
0,8400
0,8888 ...

Wir erkennen daran deutlich, dass die Wahrscheinlichkeit, dass X innerhalb des offenen
Intervalls 1l1x - k . <>x; I1x + k . <>xl liegt, mit zunehmendem k ebenfalls ansteigt. Dieser
Sachverhalt wird auch bei BetraChtung von Abbildung 11 18 schnell deutlich. Nimmt k zu,
wird nmlich auch die in der Abbildung markierte Flche grer.

9 Streng genommen liefert die Ungleichung erst fr k > 1 echte Erkenntnisse, da sich fr
k"" 1 eine Wahrscheinlichkeit von Null ergeben wrde.

2. Zufallsvariablen

223

Interessieren wir uns fr die Wahrscheinlichkeit, dass X auerhalb des offenen Intervalls 1l1x - k crx; I1x + k crx[ liegt, knnen wir diese ganz einfach als Komplementrwahrscheinlichkeit zu (H2: 50) bestimmen. Es gilt daher
(H2: 51)

Beispiel 11 2-30

Ungleichung von Tschebyscheff 11

Fr verschiedene Werte von k erhalten wir folgende Abschtzungen:


k = 1,5:

P<IX-l1xl2: 1,5"x}

0,4444 ...

k=2:

P<IX-l1xl2:2"x}

,,0,2500

k=2,5:

P<IX-l1xl2:2,5"x}

"

k=3:

P<IX-l1xl2:3"x}

,,0,1111 ...

0,1600

Wir erkennen deutlich, dass die Wahrscheinlichkeit dafOr, dass X auerhalb des offenen
Intervalls 1l1x - k . <>x; I1x + k . <>x[ liegt, mit zunehmendem k abnimmt.

2.6 Anwendungsbeispiele
2_6_1

Renditen als Zufallsvariablen

Nach der Portfoliotheorie von H. Markowitz lO entscheidet sich ein rationaler Investor bei der Wahl zwischen zwei alternativen Anlagemglichkeiten fr diejenige, die
bei gleicher erwarteter Rendite das geringere Risiko aufweist. Unter der Rendite r,
ist dabei die relative Wertnderung zwischen einer Anfangsinvestition K,-, zum
Zeitpunkt t - 1 und dem Endwert Cinkl. Dividenden, etc.) der Anlage K, zum Zeitpunkt t zu verstehen:
[ =
t

_K-,,_-_K--,='_cc'
K

_
t 1

Nehmen wir beispielsweise an, dass es sich bei der Anlage um eine Investition in
Aktien handelt, so ist klar, dass K, zum Investitionszeitpunkt t - 1 ungewiss ist. r,
kann daher als Ausprgung einer Zufallsvariable R, angesehen werden, die sich
durch ihren Erwartungswert und ihre Varianz charakterisieren lsst. Die Varianz

bzw. die Standardabweichung von Renditen, ist nun aber, wie wir bereits unter
I 2.2.2.4 gesehen haben, das in der Praxis am hufigsten eingesetzte Risikoma.
Dies bedeutet, dass uns mit diesen beiden Kennzahlen von Renditeverteilungen
smtliche Infonnationen vorliegen, die uns ein Treffen von Investitionsentscheidungen nach der Theorie von H. Markowitz erlauben. Das nachfolgende Beispiel
II 2-31 veranschaulicht dies.

10 vgl.

MarkowilZ (1952, 1959).

224

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-31

Erwartungswert und Standardabweichung von Renditen

Ein Investor habe die Mglichkeit zwischen zwei Aktien A und B zu whlen. FOr drei mgliche gesamtwirtschaftliche Entwicklungstendenzen wurden von Analysten folgende Renditen geschtzt:
Wahrscheinlichkeit p;

Entwicklung
2

u Berst positiv
normal

u Berst negativ

20%
60%
20%

Rendite r,A

Rendite r,B

30%
tO%

50%
10 %

-10%

-30 %

Die erwartete Rendite der Aktie A errechnet sich daraus wie folgt:
3

E(R') = ~), .r;' = 0,200,30+0,600,10 +0,20 (-{l, 10)


i~1

=0,10=10%
Analog ergibt sich fr Aktie B ebenfalls eine erwartete Rendite von 10%.
Fr die Standardabweichung der Renditen von Aktie A ergibt sich:
3

<>(R') = ~), . (r,' -E(R'))'


i_1

= ~0,20 (0,30-0,10)' +0,60 (0,10 -0,10)' +0,20(-0,10-0,10)'


=0,1265
Da wir bei analoger Berechnung fr die Volatilitt von Aktie B einen hheren Wert von
0,2530 erhalten, wird ein risikoaverser Investor (da gleiche erwartete Renditen) in Aktie A
investieren.

2.6.2

Zufallsvariablen beim Roulette

Beim amerikanischen Roulette wird ein Rad mit 38 Zahlenschlitzen gedreht. Dieses
Rad weist 18 rote und 18 schwarze Zahlen sowie die grnen 0 und 00 aufl l Ziel ist
es, die Zahl vorauszusagen, auf der die Kugel landet. Mit einer richtigen Voraussage erhlt man dann auf diese Wette eine Auszahlung. Die Auszahlung hngt
wiederum von der Art der Wette ab. Es gibt allgemein neun verschiedene Wettarten. Jede Wettart umfasst eine bestimmte Spanne von Zahlen und hat ihre eigene
Auszahlungsrate. Auf der Folgeseite sind ein typischer "Wetttisch,,12 und eine Tabelle mit den verschiedenen mglichen Wettarten abgebildet. Die darin enthaltenen
Wettarten 1-6 werden auch als "inside beiS', die letzten 7-12 als "outside beiS' bezeichnet.

11 Im Gegensatz dazu fehlt beim europischen Roulette die 00.


12 Es ist dabei zu beachten, dass die hellgraue Frbung die Farbe rot und die dunkelgraue
die Farbe schwarz darstellen soll.

2. Zufallsvariablen

225

Typischer Roulettetisch:

0
1

1 to 18
I" 12
EVEN

Q
7

ttl)

m
2,d 12

16
19

m
25

000
3'" 12
19 to 36

m
m

00

fl

Gi

[J

9
12

14

18

fli]

21

23

f!d

27

FE

30

32

34

2 to 1

2 to 1

36
2 to 1

bersicht und Erklrung der Wettarten:


Wettart
Straight Up

Erklrung
Der Einsatz wird direkt auf eine einzelne Zahl (ein-

Beispiel
4

_.............. __~0!i~_~~0. 9. ~~~ .~g? .~~~~!~~'.............................................. _


_~p.~~~c:~ ________ ~~_~~~_~~_~c:~~c:~~1?~~_~~~~_~_~s_~~_t: _________________ ~!~_________ _
Street Bet
Man setzt auf eine Zahlenreihe von 3 Zahlen.
13,14,15
---------------------------------------------------------------------------------------------Corner Bet
Die Spiehnarke wird auf einer Ecke platziert, auf
1,2,4,5
der sich vier Zahlen treffen.
Five Bet
Diese umfasst die ersten beiden Zahlenreihen. Man

.................................................. .

_.............. __~~~t. ~~~ !':~~ ?,9?N,.~'


Line Bet
Die Wette umfasst alle Zahlen von zwei aneinan22,23,24,25,26,27
__________________ ~~!~~~c:~?~~}~~~~?:'_~~'!_~_~~~?:. _____________________________________ _

Column Bet
Es wird auf die 12 Zahlen einer Spalte (ohne und
2,5,8,11,14,17,
................ _.00) .l!esetzt.............................................. 2(j,23,26,29,32!35.. _
Dozen Bet
Setzt man seine Spiehnarken in eine der Boxen "1 ot 25,26,27,28,29,30,
12", "2"" 12" oder "3rd 12", umfasst die Wette diese
31,32,33,34,35,36
12 Zahlen.
RedIBlack
Es wird auf alle roten oder alle schwarzen Zahlen

_.............. __9~Y:~!i:'. ~~. !:~~,!-, .'!~!'.~.~ ~'!-~. 9?? !l~~~.~'................................ _


Even/Odd
Man setzt auf alle geraden oder alle ungeraden
................ _.Zall1e~ Cje,,:eils.18. Z"hlen,. "hne. 0. u~d.OO): ............................... _
_~_~_~~ __________ I?_~~~~i~_l~:_~c:~t_~~r?~~_~~~l~_~_':~~_~_~~_~~: _____________________________ _
19 to 36
Der Spieler setzt auf die Zahlen von 19 bis 36.

11 Wahrscheinlichkeitsrechnung

226

Fr die Auszahlungen und die dazugehrigen wahrscheinlichkeiten gilt:


Wette auf

Mglicher Gewinn

Trefferchance

1 Zahl

35 zu 1

f, -

2 Zahlen

17 zu 1

f. - 5,26 %

3 Zahlen

11 zu 1

4 Zahlen

8 zu 1

5 Zahlen

6 zu 1

1.= 7,89 %
1. =10,53 %
is =13,16 %

6 Zahlen

5 zu 1

t. - 15,79 %

12 Zahlen

2 zu 1

18 Zahlen

1 zu 1

2,63 %

*= 31,58 %
*= 47,37 %

Es ist besonders zu beachten, dass wenn die Kugel auf 0 oder 00 landet, Wetteinstze auf rot, schwarz, ungerade, gerade, 1 to 18 und 19 to 36 nicht komplett verlorengehen. Stattdessen verliert jeder Spieler nur die Hlfte des ursprnglichen Wetteinsatzes. Die andere Hlfte kann vom Spieltisch wieder zurckgenommen oder
erneut eingesetzt werden. 13
Nach Beschreibung dieser allgemeinen Rouletteregeln wollen wir uns nun mit dem
Gewinn beschftigen, den wir bei Setzen eines Betrages B auf bestimmte, ausgewhlte Zahlenkombinationen erwarten knnen. Wir erhalten im Gewinnfall auch
den Einsatz B zurck, sodass wir diesen im Folgenden nicht als echten Gewinn
(Zufallsvariable) betrachten. Konkret untersuchen wir drei einfache Tippstrategien:
1t
Setzen eines Betrages B auf eine einzelne Zahl k, auf "1 1211 oder "rot/schwarz"
l1
bzw. "evenlodd ,

1. Setzen eines Betrages B auf eine einzelne Zahl k


Wahrscheinlichkeit

Gewinn

P(kD =-!a

35B

fs

-B

P({k)) =

Wahrscheinlichkeit Gewinn

,.

.l;B

-*.B
E(G) - -t,-.B

Das Risiko einer solchen Wette kann zahiemnig wie folgt ausgedrckt werden:
Var(G)= (35 B)' .-!a+ (-B)' .
(JG

fs-(-f,- B)' = ?,'.B' - ,l, B' = 33,2078 B'

5,7626 . B

13 Beim europischen Roulette bedeutet eine 0 hingegen einen 100 %igen Verlust, sofern
nicht auf 0 selbst gesetzt wurde.

2. Zufallsvariablen

227

2. Setzen eines Betrages B auf "1- 12"


Wahrscheinlichkeit
P({l" 12))

="'

Gewinn

38

2B

P({1" 12)) = ~

-B

Wahrscheinlichkeit Gewinn

E(G) = -,',.B
Fr das Risiko gilt hier:
Var(G) = (2 . B)' . "'
+ (-B)' ...
- (_l
. B)' = R
. B' 38
38
19
19

~
. B'
361

= 1, 9446 B'

O"G = 1,3945 B

3. Setzen eines Betrages B auf "rot/schwarz" oder "even/odd"


Wahrscheinlichkeit

Gewinn

Wahrscheinlichkeit . Gewinn

P({rot)) = ~

~'B

P({schwarz)) = ~

-B

-~'B

P(IO)) = t.

-t B
-t B

--#6B
--#6B

P(100)) = t.

E(G) - -t..B
Das Risiko ergibt sich hier als:
Var(G) = B' . ~ + (-B)' . ~ + (-t B)' . t. + (-t B)' . t. =O,9605B'

(-t.. B)'

-,i.. B' =O,9598B'

O"G= 0,9797 B
Wir sehen, dass alle Wettstrategien einen negativen Erwartungswert aufweisen und
sich hinsichtlich des Risikos stark unterscheiden. Generell knnen wir festhalten,
dass Roulette langfristig zu Gunsten des Kasinos ausgelegt ist.

2.7 Mehrdimensionale Zufallsvariablen


2.7.1

Begriff

Bisher haben wir uns nur mit Verteilungen einzelner Zufallsvariablen (univariate
Verteilungen) beschftigt. Bei vielen praktischen und theoretischen Fragestellungen
betrachtet man als Ergebnis eines Zufallsexperimentes nicht nur eine einzige, sondern mehrere Zufallsvariablen. So kann beispielsweise die Wirtschaftslage eines
Landes am Ende einer Periode als Ergebnis eines Zufallsvorganges betrachtet werden, bei dem jedes mgliche Elementarereignis (wirtschaftliche Situation) durch eine Reihe von Zufallsvariablen wie etwa das Bruttoinlandsprodukt X, die Inflations-

11 Wahrscheinlichkeitsrechnung

228

rate Y oder die Arbeitslosenquote Z beschrieben wird. Von besonderem Interesse


werden bei der Anlayse nun aber nicht die Verteilungen von X. Y und Z fr sich
sein, sondern Beziehungen und Abhngigkeitsverhltnisse zwischen den Zufallsva-

riablen. Es liegt also nahe. das Ergebnis des Zufallsvorganges als eine dreidimensionale Zufallsvariable (X. Y. Z) aufzufassen.
Die gemeinsame Wahrscheinlichkeitsverteilung zweier Zufallsvariablen bzw. die
Verteilung einer zweidimensionalen Zufallsvariable wird als bivariate Verteilung
bezeichnet. Bei drei- und mehrdimensionalen Zufallsvariablen hingegen spricht
man von multivariaten Verteilungen. Aus Grnden der rechnerischen Einfachheit
und der Tatsachen. dass sich dieser Fall grafisch noch anschaulich darstellen lsst
und ein Transfer auf mehr als zwei Zufallsvariablen leicht mglich ist. beschrnken
wir uns im Folgenden auf diskrete zweidimensionale Zufallsvariablen14

2.7.2

Wahrscheinlichkeits- und Verteilungsfunktion

Die bei eindimensionalen Zufallsvariablen eingefhrten Begriffe der Verteilungsfunktion. Wahrscheinlichkeitsfunktion und -dichte knnen wir auch auf mehrdimensionale Zufallsvariablen bertragen. Auch knnen wir hier wieder eine weitgehende Analogie zur zweidimensionalen Hufigkeitsverteilung beobachten.
2.7.2.1

Gemeinsame WahrscheinIichkeitsfunktion

Sind X und Y zwei diskrete Zufallsvariablen mit den Ausprgungen x, und y,. so
gibt die gemeinsame Wahrscheinlichkeitsjunkt/on f(x.y) von X und Y (zweidimensionale Wahrscheinlichkeitsverteilung) die Wahrscheinlichkeit dafr an. dass
die Zufallsvariable X den Wert x und die Zufallsvariable Y gleichzeitig den Wert y
annimmt. Sie ist definiert als

fex. Y) = {

P(X = x" Y =

Yj) =

f(x" Yj) falls x = x"

Y = Yj

sonst

fr i.i = 1.2...

(H2: 52)

Wie im eindimensionalen Fall nimmt die Funktion also nur an den Stellen konkrete
Werte an. die Zum Wertebereich der Zufallsvariablen X und Y gehren. Andernfalls
ist sie Null. Analog zur zweidimensionalen Hufigkeitsverteilung muss immer
O:S;

f(x .. Yj):S; 1

LLf(x" Yj) = 1
,

fr i.i = 1,2, ...


fr i.i = 1.2...

(H2: 53)
(H2: 54)

gelten. Fr den Fall. dass die Zufallsvariablen X und Y eine endliche Anzahl von
Ausprgungen annehmen knnen. lsst sich die gemeinsame Wahrscheinlichkeitsverteilung tabellarisch mittels Abbildung H 19 darstellen. Man beachte dabei. dass
die Anzahlen kund r der Ausprgungen von X und Y gleich sein knnen. iedoch
nicht mssen.

14

Unter II 2.7.6 folgt ein kurzer berblick ber die wichtigsten Zusammenhnge bei zweidimensionalen stetigen Zufallsvariablen. Eine ausgezeichnete allgemeine Einfhrung in
multivariate Verteilungen bieten Schmid, Po, Trede, M. (2005) im Kontext von Renditen.

2. Zufallsvariablen

229

...

y,

y,

x,

fex"~ y,)

fex"~ y,)

x,

fex"~ y,)

f(x, , y,)

x,

f(x" y,)

f(x y,)
"

x.

fex"~ y,)

f(x k , y,)

...
...

...
...
...
...

...

Yj

...
...

fex"~ Yj)
fex"~ Yj)

...
...

f(x" Yj)

...
...

f(x., Yj)

y,
fex"~ y,)
fex"~ y,)

f(x" y,)
f(x k , y,)

Abbildung II 19: Gemeinsame Wahrscheinlichkeitsfunktion


Beispiel 11 2-32

Zweidimensionale Wahrscheinlichkeitsverteilung

Bei einer bestimmten Automarke werden regelmig Defekte in der Lichtmaschine und im
Steuergert festgestellt. In einer Vertragswerkstatt wurde diesbezOglich eine Statistik gefhrt. Es lie sich aus den Erfahrungswerten dieser Statistik eine gemeinsame Wahrscheinlichkeitsfunktion bilden, in der X die Anzahl pro Tag ''vorgefahrener'' Pkws mit defekter Lichtmaschine und Y die Anzahl derjeniger mit defektem Steuergert bezeichnet.

Lichtmaschinendefekte (x)

0
0,10
0,05
0,05

0
1
2

Steuergertdefekte (y)
1
2
0,20
0,05
0,10
0,20
0,05
0,20

Aus dieser Tabelle knnen wir nun z.B. ablesen, dass die Wahrscheinlichkeit dafOr, dass
an einem Tag 1 Pkw mit Lichtmaschinendefekt und gleichzeitig 2 Pkws mit Steuergertdefekt in der Werkstatt repariert werden, bei P(X = 1, Y = 2) = f(l ; 2) = 0,20 liegt.
Grafisch lsst sich die gemeinsame Wahrscheinlichkeitsfunktion (bei Nutzung des Befehls
"stem3" in der Software Matlab 2009a) wie folgt darstellen:

Q2

." -

... -

. -

Als Alternative zu diesem Stabdiagramm knnte auch ein Streuungsdiagramm verwendet


werden, in dem alle x-y-Kombinationen abgetragen und zu jedem Punkt die Zahlenwerte
f(x,y) angegeben werden.

230

11 Wahrscheinlichkeitsrechnung

2.7.2.2

Gemeinsame Verteilungsfunktion

Die gemeinsame Verteilungsfunktion F(x,y) gibt an, mit welcher Wabrscheinlichkeit


die Zufallsvariable X hchstens den Wert x und zugleich die Zufallsvariable Y
hchstens den Wert y annimmt. Sie ergibt sich bei diskreten Zufallsvariablen durch
Summation der entsprechenden Werte der gemeinsamen Wahrscheinlichkeitsfunktion f(x,y). Es gilt also

F(x,y)=P(X~x,Y~y)=

L Lf(x"YI)'

(H2: 55)

XjSx YJsy

Fr die gemeinsame Verteilungsfunktion gelten hnliche Regeln, wie sie im Abschnitt H 2.2.2 fr den eindimensionalen Fall angegeben wurden. Wir wollen sie
daher hier nicht im Einzelnen formulieren.

Beispiel 11 2-33

Zweidimensionale Verteilungsfunktion

Fr das Beispiel 11 2-32 zur defektanflligen Automarke zeigt die folgende Tabelle (links)
die gemeinsame Verteilungsfunktion F(x,y}:
F(x,y}:

f(x,y}:
y

x
0
2

0,10

0,30

0,35

0,15

0,45

0,70

0,20

0,55

1,00

0
2

0,10
0,05
0,05

0,20
0,10
0,05

0,05
0,20
0,20

Wie wir hier sehr schn erkennen knnen, wird also, vereinfacht ausgedruckt, nichts anderes getan als jeweils zum "aktuellen" Zellwert all diejenigen Werte zu addieren, die links
und oberhalb davon liegen. Der Fettdruck veranschaulicht dies. So erhalten wir 0,55 = 0,10
+ 0,05 + 0,05 + 0,20 + 0,10 + 0,05. (Die weiteren Markierungen in den Tabellen bentigen
wir im Folgenden fOr weitere Beispiele.)

Zwischen gemeinsamer Verteilungsfunktion und gemeinsamer Wahrscheinlichkeitsfunktion gilt die Beziehung


(H2: 56)
Mit der Graufrbung aus Beispiel H 2-33 knnen wir so z.B. den Wert FO,2)
FO,I) + F(O,2) - F(O,I) + fO,2) = 0,45 + 0,35 - 0,30 + 0,20 = 0,70 bestimmen 15
2.7.2.3

Randverteilungen

Sind X und Y diskrete Zufallsvariablen, so kann aus der gemeinsamen Wahrscheinlichkeitsfunktion fr X eine Randverteilung mit den Wahrscheinlichkeiten fxCx,) und
fr Y eine Randverteilung mit den Wabrscheinlichkeiten fy(Y? abgeleitet werden.

15 Mittels Beispiel 11 2-33 lsst sich auerdem veranschaulichen, dass fr die Wahrscheinlichkeit eines Ereignisses Ca < X ~ b, C < Y ~ d) mit a < bund c < d stets der Zusammenhang P(a < X ~ b, c < Y ~ d) = F(b, d) - F(b, c) - F(a, d) + F(a, c) gilt.

2. Zufallsvariablen

231

fxex,) gibt dabei an, wie gro die Wahrscheinlichkeit dafr ist, dass X einen speziellen Wert X, annimmt, wobei es gleichgltig ist, welchen Wert die Zufallsvariable Y
annimmt. Analoges gilt fr fvCYI' Die beiden Randverteilungen fr X und Y lassen
sich aus den Werten fex" YI der tabellarischen gemeinsamen Wahrscheinlichkeitsfunktion durch die Bildung von Zeilen- bzw. Spaltensummen errechnen. Es gilt
fxex) = peX = x) = fexl>Y,) + fe xI> y,) + ... = ~)exI>Yj) fr i = 1,2, ... e1l2: 57)
j

und

Durch "Elimination" der jeweils anderen Zufallsvariable werden also die eindimen-

sionalen Verteilungen von X und Y abgebildet.


Beispiel 11 2-34

Randverteilungen

Fr unser Automobilbeispiel 11 2-32 erhalten wir nach (112: 57) und (112: 58) folgende Randverteilungen von X und Y:
Y

0,10

0,20

fx(x;)

x
0
1

0,05

0,10

0,05 ---7

0,20 ---7

0,35
0,35

0,05

0,05

0,20 ---7

0,30

fy(Y j )

0,20

0,35

0,45

1,00

"

"

"

Die Wahrscheinlichkeit, dass etwa an einem Tag 2 Pkws mit Lichtmaschinendefekt "vorgefahren- werden, liegt also hier bei fx(2) = 0,30.

Unsere bisherigen Ausfhrungen zeigen, dass die gemeinsame Wahrscheinlichkeitsfunktion fex,y) alle Infonnationen ber die Wahrscheinlichkeitsfunktionen fix) und
fyey) der eindimensionalen Zufallsvariablen X und Y enthlt und daher fix) und
fyey) aus fex,y) abgeleitet werden knnen. Umgekehrt ist die Kenntnis der Randverteilungen im Allgemeinen jedoch nicht ausreichend, um die gemeinsame Wahrscheinlichkeitsfunktion zu ennitteln. Dies ist nur im Falle stochastisch unabhngiger
Zufallsvariablen mglich evgl. Abschnitt 11 2.7.3).
2.7.2.4

Bedingte Verteilungen

Bedingte Verte/lungen knnen ebenfalls aus der gemeinsamen Wahrscheinlichkeitsfunktion gewonnen werden. Solche Verteilungen geben die Wahrscheinlichkeit dafr an, dass eine Variable einen bestimmten Wert annimmt, unter der Bedingung,
dass die jeweils andere bereits einen bestimmten Wert angenommen hat.

232

11 Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeit P(X = XI I Y = Yj)' dass die Zufallsvariable X einen bestimmten Wert ~ annimmt, unter der Bedingung, dass Y einen Wert Yj angenommen hat, ennittelt sich im diskreten Fall, sofern P(Y > 0 ist, als

YI

(H2: 59)

Es gilt natrlich analog auch


P(Y = y. I X = x.) =
I

P(X = xi> Y = y.)

'

P(X=x)

f(x i , Yj)
fx(x)

Beispiel 11 2-35

f(Yj I x) .

(II2: 60)

Bedingte Verteilungen

Fr das Beispiel 11 2-32 auf Seite 227 ergeben sich fr die Zulallsvariable X: "Anzahl der
Pkws mit delekter Lichtmaschine" ber
l(x.1 0) = l(x"O) I(x.ll) = I(x" 1) und I(x. 12) = l(xi ,2)
,
ly(O)"
l y(l)
,
l y (2)
die drei lolgenden bedingten Verteilungen:
x

l(x,O)

I(x I 0)

l(x,l)

I(x 11)

l(x,2)

I(x 12)

0,10

0,10/0,20 0,50

0,20

0,20/0,35 0,57

0,05

0,05/0,45 0,11

0,05

0,05/0,20 0,25

0,10

0,10/0,35 0,29

0,20

0,20/0,45 0,44

0,05

0,05/0,20 0,25

0,05

0,05/0,35 0,14

0,20

0,20/0,45 0,44

0,20

1,00

0,35

1,00

0,45

1,00

Fr die Zulallsvariable Y: "Anzahl der Pkws mit delektem Steuergert" ergeben sich ber
I(Y.I 0) = I(O'Yj) I(Y.ll) = 1(I,yj ) und I(Y.12) = 1(2'Yj)
I
Ix(O)'
I
I x(l)
I
I x(2)
ebenlalls drei bedingte Verteilungen:
Y

1(0, y)

I(y I 0)

1(1, y)

I(y 11)

1(2, y)

I(y 12)

0,10

0,10/0,35 0,29

0,05

0,05/0,35 0,14

0,05

0,05/0,30 0,17

0,20

0,20/0,35 0,57

0,10

0,10/0,35 0,29

0,05

0,05/0,30 0,17

0,05

0,05/0,35 0,14

0,20

0,20/0,35 0,57

0,20

0,20/0,30 0,66

0,35

1,00

0,35

1,00

0,30

1,00

2. Zufallsvariablen

2.7.3

233

Stochastische Unabhngigkeit

Zwei Zufallsvariablen X und Y sind grob gesprochen dann voneinander stochastisch unabhngig, wenn sie keinerlei Einfluss aufeinander haben. Ausgehend vom
Multiplikationssatz fr unabhngige Ereignisse eIn: 55) knnen wir stochastische
Unabhngigkeit daher ber die folgende Beziehung konkretisieren:
:ex=x"Y=YJ)=pex=x,~~'(Y=YJ~
f:a:(x.)

f(:a:t'Yj)

fr i,j=1,2, ...

eII2: 61)

fY(YJ)

Die gemeinsamen Wahrscheinlichkeiten mssen also dem Produkt der jeweiligen


Randverteilungswahrscheinlichkeiten entsprechen 16 Ist eII2: 61) nicht fr alle i und
j erfllt, dann sind die beiden Zufallsvariablen stochastisch abhngig.

Beispiel 11 2-36

Stochastische Unabhngigkeit

Bezeichnen wir beim zweimaligen Wurf einer fairen MOnze das Ergebnis des ersten Wurfs
mit X und das des zweiten mit Y, wobei wir die Codierung "Kopf" = 1 und "Zahl" = 0 vornehmen, so erhalten wir die gemeinsame Wahrscheinlichkeitsverteilung durch:
1

fx(x)

0,25

0,25

0,50

0,25

0,25

0,50

fy(y)

0,50

0,50

1,00

Die Zufallsvariablen X und Y sind klar stochastisch unabhngig, da hier nach (112: 61) die
gemeinsamen Wahrscheinlichkeiten gerade als Produkte der jeweiligen Randverteilungswahrscheinlichkeiten entstehen. Wie wir bereits unter 11 2.7.2.3 erwhnt halten, steckt also
im Falle stochastischer Unabhngigkeit die vollstndige Information zur gemeinsamen Verteilung der Zufallsvariablen X und Y in den Randverteilungen von X und Y.

Unter Verwendung von eII2: 61) ergibt sich bei den bedingten Verteilungen von
unabhngigen Zufallsvariablen
fex" Y,)

fxex) fvey,)

fvey,)

fvey,)
Unabhngigkeit

und
fxex) fvey,)
fxex)

Eine quivalente Bedingung zur Unabhngigkeit besteht also in der bereinstimmung der bedingten Verteilungen mit den jeweiligen Randverteilungen:
fex, I y,) = fxex,)

fr i,j = 1,2,...

eII2: 62)

16 Bei stochastischer Unabhngigkeit gilt natrlich auch fr die gemeinsame Verteilungsfunktion F(x" y,) = Fx(x,)' Fv(y,) fr i,j = 1,2, ....

234

11 Wahrscheinlichkeitsrechnung

(H2: 63)

fr i,j = 1,2, ...

Sind die bedingten Verteilungen fr verschiedene Bedingungen unterschiedlich, so


ist eine Variable davon abhngig, welchen Wert die andere annimmt. Die Variablen
sind stochastisch abhngig.

2.7.4

Kennzahlen zweidimensionaler Wahrscheinlichkeitsverteilungen

2.7A.l

Erwartungswert und Varianz

Die Erwartungswertbildung fr eindimensionale Zufallsvariablen lsst sich auch auf


zweidimensionale Wahrscheinlichkeitsverteilungen ausdehnen. Sind X und Y zwei
diskrete Zufallsvariablen mit der gemeinsamen Wahrscheinlichkeitsfunktion f(x,y),
so ergibt sich der Erwartungswert von X als
(H2: 64)
j

Da aufgrund allgemeiner Summationsregeln und nach (H2: 57) die Beziehungen

LLx, .f(x" y,) = Lx,Lf(x" y,) = LX, .fx(x)


i

gelten, knnen wir den Erwartungswert der Zufallsvariable X also auch mit Hilfe
der Randverteilung von X bestimmen:
(H2: 65)
Fr die Zufallsvariable Y erhalten wir analog
E(Y) =

Beispiel 11 2-37

LY,
, .fy(y,) .

(H2: 66)

Erwartungswerte aus Randverteilungen

Fr unser Beispiel der Lichtmaschinen und Steuergertdefekte bzw. die Tabelle in Bei
spiel 11 2-34 ergeben sich nach (112: 65) und (112: 66) folgende Erwartungswerte:

E(X) =

LX,
fx(x;) = 00,35+10,35+20,30 = 0,95
,-1
3

E(Y) = Ly,fy(Y,) =00,20+10,35+20,45 = 1,25


i:01

Dies bedeutet nun, dass im Durchschnitt tglich 0,95 Autos mit Lichtmaschinen- und 1,25
Autos mit Steuergertdefekt ''vorgefahren" werden. Da diese Werte vielleicht etwas abstrakt scheinen (es sind ja wohl ganze Autos), empfiehlt sich in diesem Fall eine Hochrechnung der Ergebnisse auf andere Zeitrume (etwa Wochen, Monate).

Analog zur Herleitung des Erwartungswertes lsst sich auch die Varianz von X aufgrund von
Var(X) = E[X -E(X)]' = LL[xj -E(X)]' . f(x" y,) = L[x j
i

E(X)],

Lf(x" y,)
J

2. Zufallsvariablen

235

mittels der Randverteilung von X als


Var(X) = ~)x, - E(X)]' . fx(x)

(II2: 67)

berechnen. Analog ergibt sich fr die Zufallsvariable Y


Var(Y) = ~)Yj - E(Y)]' . fY(Yj) .

Beispiel 11 2-38

(H2: 68)

Varianzen aus Randverteilungen

Fr unser Autobeispiel (Tabelle in Beispiel 11 2-34) erhalten wir unter Beachtung der Ergebnisse von Beispiel 11 2-37 und Anwendung des Verschiebungssatzes die Varianzen:
3

Var(X) = LX~' fx(x,)-[E(X)]' = 0' 0,35 +1'0,35+2'0,30-0,95' = 0,65


i=1

Var(Y) =

LI; fY(Yi) -[E(Y)]' = 0' 0,20+1' 0,35+2' 0,45-1,25' = 0,59


j=1

Fr die Standardabweichung ergibt sich hier:


"x = ~Var(X) = ~O,65 = 0,81
"y = ~Var(Y) = ~O,59 = 0, 77
Wir knnen also sagen, dass die Einzelwerte der Verteilung von X strker um ihren Erwartungswert streuen als die von Y.

Neben Erwartungswerten und Varianzen aus Randverteilungen lassen sich mit Hilfe
von bedingten Verteilungen bedingte Erwartungswerte und bedingte Varianzen
bestimmen. Bedingte Erwartungswerte ergeben sich wie folgt:

LX,
, .fex, IYj)

(H2: 69)

E(Y I x) = LYj f(Yj I x)

(H2: 70)

E(X I Yj) =

Bedingte Varianzen ergeben sich als

Var(X Iy) = L[x, -E(X I Yj)]' f(x, I Yj)


Var(Y I x) =

L [Yj - E(Y I x)]' . f(Yj I x,) ,

(H2: 71)
(H2: 72)

wobei zur Rechenvereinfachung auch vom Verschiebungssatz Gebrauch gemacht


werden kann.

Beispiel 11 2-39

Bedingte Erwartungswerte und Varianzen

Unter Rckgriff auf unsere Ergebnisse aus Beispiel 11 2-35 knnen wir z.B. bestimmen, wie
viele Autos mit defekter Lichtmaschine im Durchschnitt an Tagen "vorgefahren" werden, an
denen genau Y = 1 Wagen mit Steuergertdefekt gewartet wird:

11 Wahrscheinlichkeitsrechnung

236
E(X 11) =

LX,'
f(x, 11) = 0,57 + 10,29 +20,14 = 0,57
'_1
3

Die zugehrige Varianz der Anzahl dieser Fahrzeuge ergibt sich dabei zu
3

Var(X 11) = LX~ f(x, 11) -IE(X 11)]' = 0' 0,57 +1' 0,29+2' 0,14-0,57' = 0,53.

'.1

Interessieren wir uns fr die durchschnittliche tgliche Anzahl an Fahrzeugen mit Steuergertdefekten M an Tagen, an denen genau X = 2 Fahrzeuge mit Lichtmaschinendefekten "vorgefahren" werden, und die zugehrige Varianz, erhalten wir folgende Ergebnisse:
E(Y 12) =

LYI .f(YI 11) = 00,17 +10, 17 +2 0,66 = 1,49


3

11

Var(Y 12) = LY~ .f(YI 12) -IE(Y 12)]' = 0' 0,17 +1' 0,17 + 2' 0,66 -1,49' = 0,59
1=1

Erwartungswerte und Varianzen liefern in ihrer unbedingten Fonn keine Information ber den stochastischen Zusammenhang zwischen zwei Zufallsvariablen X und
Y. Lediglich bedingte Gren knnen zur Feststellung eines solchen Zusammenhanges verwendet werden. Sind zwei Zufallsvariablen voneinander unabhngig, so
sind die bedingten und unbedingten Erwartungswerte identisch, d.h.

E(X I Yj) = E(X)

fr j = 1,2, ... ,

([[2: 73)

E(Y I x) = E(Y)

fr i = 1,2, .. ..

([[2: 74)

Dies ist darauf zurckzufhren, dass im Falle der Unabhngigkeit nach ([[2: 62)
bzw. ([[2: 63) die bedingten Wahrscheinlichkeiten den Randverteilungswahrscheinlichkeiten entsprechen.
2.7A.2

Kovarianz und Korrelationskoeillzient

Der im Abschnitt I 3.2 fr zweidimensionale Hufigkeitsverteilungen behandelte


Begriff der Korrelation ist auch auf zweidimensionale Wahrscheinlichkeitsverteilungen bertragbar. Gehen groen Werte von X tendenziell mit greren (kleineren)
Werten von Y einher, sind die Zufallsvariablen X und Y positiv (negativ) korreliert.
Eine Mazahl fr die Richtung dieses Zusammenhanges ist die Kovarianz Cov(X,Y)
oder kurz csxy, welche sich als der Erwartungswert des Produktes der Abweichungen der einzelnen Zufallsvariablen von ihrem jeweiligen Erwartungswert ergibt:
Cov(X, Y) = E [IX - E(X)] IY - E(Y)]]

([[2: 75)

Fr diskrete Zufallsvariablen erhalten wir unter Verwendung der gemeinsamen


Wahrscheinlichkeitsfunktion f(x,y) konkret
Cov(X,Y)= L~)x, -E(X)]' IYj -E(Y)].f(x"Yj)

L LX, .Yj . fex"~ Y) - E(X)' E(Y)

= E(XY) - E(X) . E(Y)

(II2: 76)

2. Zufallsvariablen

237

Zufallsvariablen mit positiver Kovarianz werden als positiv, solche mit negativer
Kovarianz als negativ korreliert bezeichnet. Nimmt die Kovarianz einen Wert von

Null an, so sind die Variablen unkorreliert. Die Kovarianz einer Zufallsvariable X
mit sich selbst entspricht ihrer Varianz, d.h. CovOC,X) = Var(X). Analog zur deskriptiven Statisrik knnen wir auerdem Cov(a + bX, c + dY) = bdCov(X,Y) festhalten.
Ntzlich ist fr drei Zufallsvariablen X, Y und Z hufig auch die Kenntnis der Beziehung Cov(X + Y, Z) = Cov(X,Z) + Cov(Y,Z).
Da die Kovarianz Cov(X,Y) von den Einheiten abhngt, in denen die Zufallsvariablen X und Y gemessen werden, wird in der Praxis durch die Division der Kovarianz
durch das Produkt der Standardabweichungen von X und Y ein dimensionsloses
Korrelationsma, der sog. Korrelationskoeffizient PXY' generiert. Er gibt fr den Fall,
dass Var(X) 0 und Var(Y) 0, die Strke des linearen stochastischen Zusammenhangs der beiden Zufallsvariablen an.

Cov(X,Y)

(HZ: 77)

PXY=-~~~

O'x . O'y

Wie der Bravais-Pearson-Korrelationskoeffizient aus der deskriptiven Statistik liegt


auch PXY im Invervall [-1;11 und ist so fr Vergleiche vorteilhafter. PXY ist genau
dann gleich I, wenn Y = a + bX mit b > 0 ist. Fr b < 0 nimmt Pxv den Wert -1 an.

Beispiel 11 2-40

Korrelation von Zufallsvariablen

Fr unser Automobilbeispiel 11 2-32 erhalten wir unter Verwendung der Ergebnisse aus den
Beispielen 11 2-37 und 11 2-38 die nachfolgenden Werte:
,

E(XY} = LLx'Yjf(X"Yj}
1.,1 J..1

000,10 +010,20 +020,05


+100,05 +110,10 +120,20
+200,05 +210,05 +220,20=1,4 (Stck')

Cov(X, Y} = E(XY} - E(X} E(Y}


=1,4-0,951,25=0,21 (StOck')
Pxv = -=C-=ov,-,(",x.,--Y",}
O'x . Gy

0,21 (Stck')
0,81 (Stck}O,77 (Stck)

0,34

Dieses Ergebnis deutet darauf hin, dass nur ein schwacher, positiver Zusammenhang zwischen Lichtmaschinen- und Steuergertausfllen besteht.

Wie wir wissen, gilt bei stochastischer Unabhngigkeit der in (HZ: 61) festgelegte
Zusammenhang f(x" Yj) = fx(x) fY(Yj)' Setzen wir diesen in die allgemeine Formel fr E(XY) aus (HZ: 76) ein, so ergibt sich
E(XY) = L~>, 'Yj f(x"y) =
i

LLx, .Yj fx(x) fY(Yj)


i

LX, fx(x,) LYj' fy(Y) =E(X)E(Y).


,

238

11 Wahrscheinlichkeitsrechnung

Bei Unabhngigkeit gilt also stets


E(XY) = E(X) . E(Y) .

(H2: 78)

Mit dieser neuen Erkenntnis knnen wir nun nher betrachten, wie sich die Kovarianz und der Korrelationskoeffizient bei Unabhngigkeit verhalten. Wir setzen dazu (112: 78) in (H2: 76) ein:
Cov(X, Y) = E(XY) - E(X) . E(Y)
= E(X) . E(Y) - E(X) . E(Y) = 0

Unabhngige Zufallsvariablen besitzen also hnmer eine Kovarianz von Null und
folglich auch einen Korrelationskoeffizienten von Null. Unabhngigkeit hat stets

Unkorreliertheit zur Folge.

x. Y unabhngig -7

Cov(X, Y) = 0 -7 Pxy = 0

(H2: 79)

Umgekehrt drfen wir aber bei einer Kovarianz von Null nicht allgemein auf Unabhngigkeit schlieen.!? Unkorrelierte Zufallsvariablen knnen stochastisch Abhngig sein, denn es kann ein nichtlinearer Zusammenhang bestehen. Ist die Kovarianz ungleich Null, so folgt daraus sicher die Abhngigkeit.
Die Formel (H2: 76) liefert durch einfache Umstellung den Multiplikations.atz fr
Erwartungswerte. Dieser besagt, dass der Erwartungswert des Produktes zweier
beliebiger Zufallsvariablen X und Y als
E(XY) = E(X) . E(Y) + Cov(X, Y)

(H2: 80)

bestimmt werden kann. Sind X und Y unabhngige Zufallsvariablen, so vereinfacht


sich der Multiplikationssatz zu (H2: 78). Liegen nunabhngige Zufallsvariablen
X"x., ...
vor, so gilt stets, dass sich der Erwartungswert des Produktes der Zufallsvariablen als Produkt der einzelnen Erwartungswerte ergibt:

,x..

(H2: 81)

Beispiel 11 2-41

Produkte aus Zufallsvariablen

Es sei die Zufallsvariable X die Anzahl der Bestellungen einer Einkaufsabteilung pro Jahr.
Die Zufallsvariable Y beschreibt die Anzahl der Artikel je Bestellung. Es ist nun unter Verwendung von E(X) = 10.000 StOck und E(Y) = 1.000 Stck die erwartete Anzahl der insgesamt pro Jahr bestellten Artikel E(XY) zu bestimmen.
Unterstellen wir Unabhngigkeit, so gilt
E(XY) = E(X) E(Y) = 10.000 1.000 = 10.000.000 StOck.

17 Nur im Fall gemeinsam norrnalverteilter Zufallsvariablen ist die Unkorreliertheit mit der
Unabhngigkeit quivalent.

239

2. Zufallsvariablen

2.7.5

Linearkombinationen von Zufallsvariablen

Analog zu den eindimensionalen Zufallsvariablen kann auch bei zweidimensiona-

len die Erwartungswertbildung auf Funktionen g(X,Y) der Zufallsvariablen X und Y


ausgedehnt werden. Es gilt dabei allgemein
E[g(X,Y)]= LLg(x"Yj)f(x"Yj).
i

(H2: 82)

Durch die Funktion g(X,Y) entsteht eine neue Zufallsvariable W. Eine spezielle
Mglichkeit der Generierung der Zufallsvariable W ist die sog. Linearkommnation
der Zufallsvariablen X und Y. Dies bedeutet konkret, dass
W = g(X, Y) = ax + bY
(H2: 83)
gilt, wobei a und b von Null verschiedene Konstanten sind, die als Gewichte von X

und Y in Wangesehen werden knnen. Fr den Erwartungswert einer solchen


Linearkombination W knnen wir
E(W) = a . E(X) + b . E(Y)

(H2: 84)

zeigen. Die Varianz von Wergibt sich als


Var(W) = a' . Var(X) + b' . Var(Y) + 2 a b Cov(X, Y) .

(H2: 85)

Fr einige spezielle Ausprgungen von a und b sind in der nachfolgenden Tabelle


wichtige Linearkombinationen zusammengestellt:

Summe
a = 1, b

Differenz
a = 1, b = -1
Mittelwert
a = 0,5, b = 0,5

E(W)

Var(W)

X+Y

E(X)+ E(Y)

Var(X) + Var(Y) + 2 . Cov(X, Y)

X-Y

E(X)-E(Y)

Var(X) + Var(Y) - 2 . Cov(X, Y)

1(X+Y)

1 [E(X) + E(Y)]

i .Var(X) + i .Var(Y)
+ 1 Cov(X, Y)

Auf die Auffhrung konkreter Beweise der allgemeinen Zusammenhnge (H2: 84)
und (H2: 85) wollen wir an dieser Stelle verzichten, da sie analog zu denen aus der
deskriptiven Statistik in Abschnitt I 3.2.5 erfolgen. Die aufgefhrten Beziehungen
besitzen sowohl fr diskrete als auch fr stetige Zufallsvariablen Gltigkeit. Sind X
und Y unabhngige Zufallsvariablen, so knnen die Formeln ebenfalls verwendet
werden. Es ist lediglich darauf zu achten, dass die Kovarianz dann den Wert Null
annimmt, also der entsprechende Term aus der Formel der Varianz herausfllt. Wir
erhalten also im Fall der Unabhngigkeit von X und Y aus QI2: 85) allgemein
Var(W) = a' . Var(X) + b' . Var(Y) .

(H2: 86)

Vor allem fr die praktische Anwendung (vgl. Abschnitt H 2.7.7) hat sich eine
alternative Formulierung von QI2: 85) bewhrt, die den Korrelationskoeffizienten
zwischen X und Y enthlt. Aufgrund der Beziehung

240

11 Wahrscheinlichkeitsrechnung

Pxy =

Cov(X, Y)
O'x . O'y

COV(X, Y) = O"x . O"y . Pxy

knnen wir nmlich auch

Var(W) = a' . Var(X) + b' . Var(Y) + 2 . a . b . O"x .O"y . Pxy

(112: 87)

schreiben.

Beispiel 11 2-42

Linearkombinationen beim WOrfeln

Ein idealer Wrfel wird zweimal geworfen. Betrachten wir die Zufallsvariablen S: "Augensumme". X,: "Augenzahl beim ersten Wurf" und X:.: "Augenzahl beim zweiten Wurf". so gilt
fr die Erwartungswerte der beiden letzten Variablen
E(X,) = E(x,,) =

~. (1 +2+3+4+5+6) = 3.5.

Ohne zeitraubende Umwege kann nun daraus E(S) als


S = X, + x"

....

E(S) = E(X, + X,) = E(X,)+ E(X,) = 3.5+3.5 = 7

ermittelt werden.
Zusatzfrage:
Wie verndert sich E(S). wenn die Augenzahlen auf beiden WOrfeln jeweils mit 10 multipliziert werden?
1. Mglichkeit der Lsung:
E(1 O S) = 1O E(S) = I 07 = 70
2. Mglickeit der Lsung:
E(IO X,) = I OE(X,) = 10 3.5 = 35. E(I O x,,) = I O E(X2 ) = 103.5 = 35
.... E(10S) = E(IO X,) +E(IO X 2 ) = 35 +35 = 70

Fr den Fall von n Zujallsvarlablen X" X, ... Xn und n von Null verschiedenen
Konstanten a"a, ... ,an knnen die Beziehungen (112: 84) und (112: 85) folgendermaen verallgemeinert werden:
E(t,a,x,) = t,a,E(X)

(112: 88)

var(t,a,x,) = t,t,a,ajcov(x,.xj)

(112: 89)

Da die Kovarianz einer Zufallsvariablen mit sich selbst stets ihrer Varianz entpricht.
knnen wir (112: 89) alternativ auch als

formulieren.

2. Zufallsvariablen

241

Sind die X"X, ... Xn zustzlich paarweise unabhngig. so gilt

(i>,x,)

Var

1- 1

i>~var(x) .

(H2: 90)

1=1

Eine konkrete praktische Anwendung dieser Verallgemeinerungen werden wir im


Abschnitt H 2.7.7 kennenlemen.

2.7.6

Formelzusammenstellung fr stetige Zufallsvariablen

Fr den Fall zweier stetiger Zufallsvariablen X und Y wollen wir im Folgenden die
wichtigsten fonnelmigen Zusammenhnge kurz darstellen:
Gemeinsame Dichtefunktion:

IJ fex. y) dy dx
bd

P(a < X,;; b.c < y,;; d) =

fra<bundc<d

mit den Eigenschaften


f(x.y);': 0

und

Gemeinsame Verteilungsfunktion:
F(x,.y,) =

11

f f f(x.y) dy dx = 1

f(x.y) dx dy

Randverteilungen (-dichten):
fy(y) = ff(X.y)dx

fx(x) = f fex. y) dy
Bedingte Verteilungen (Dichten):

f(y I x) = f(x.y)
fx(x)

fex I y) = f(x.y)
fy(Y)
Erwartungswert:

.. ..

..

E(X) = f fx.f(x.y)dxdy= fX'fx(x)dx

.. ..

..

E(Y) = f fyf(x.y)dxdy= fY'fy(y)dy

Varianz:
Var(X) = f f[ x - E(X))' . fex. y) dx dy

Var(Y) = f f[y-E(Y))' f(x.y) dx dy

= f[x-E(X))' fx(x) dx

= f[y -E(Y))'. fy(Y) dy

Kovarianz:

Cov(X.Y) = f f[x-E(X)).[y-E(Y)).f(x.y) dx dy

242

11 Wahrscheinlichkeitsrechnung

2.7.7

Anwendungsbeispiel : Portfoliotheorie

Wie wir unter 11 2.6.1 gesehen haben, bewerten Anleger alternative Investments auf
Basis erwarteter Renditen und der Renditevarianz bzw. -standardabweichung. Bei
gleicher erwarteter Rendite werden Anlagen mit geringerer Varianz vorgezogen.
Stellt sich nun ein Anleger ein Portfolio aus verschiedenen Anlagen zusammen, so
ergeben sich erwartete Portfoliorendite und Varianz der Portfoliorendite unter Bercksichtigung der unter 11 2.7.5 behandelten Vorschriften fr Linearkombinationen
von Zufallsvariablen. Der besondere Anreiz zur Portfoliobildung liegt fr den Anleger darin, dass er dadurch Renditevarianzen (d.h. ein Risiko) erreichen kann, die
unter den Varianzen einzelner Anlagen liegen.
Besteht ein Portfolio aus zwei Anlagen (1 und 2) mit den Renditen R, und R, sowie
den Preisen P1 und P2 und den Mengen ~ und Xl' so kann die envartete Rendite
des gesamten Port/olios in drei Schritten ermittelt werden:
1. Besrinunung der Anteile w, der Anlagen am Portfolio:

2. Berechnung der erwarteten Renditen der einzelnen Anlagen:


Die Werte von E(R,) und ECR,) werden wie unter 11 2.6.1 ermittelt.
3. Errechnung der erwarteten Gesamtrendite des Portfolios nach (112: 84):
E(Rp )

= w, . E(R,) + w, . E(R,)

Da w, + w, = 1 gilt, knnen wir auch Folgendes schreiben:


E(R p ) = w, . E(R,) + (1- w,) E(R,)

Beispiel 11 2-43

(112: 91)
Erwartete Portfoliorendite

Der Investor Uwe B. entschied sich dazu, seine Altersvorsorge zu 80 % mit den Aktien
eines Fuballvereins (X) und zu 20 % durch die Vermarktung seiner Biografie (Y) zu
sichern. Ein unabhngiger Investmentexperte analysierte dieses mutige Portfolio und kam
nach Ermittlung der erwarteten Renditen (in %) von E(Rx ) = -90 und E(Ry ) = -50 zu der
Gesamtrendite E(R) =0,80(-90)+0,20(-50) =-82. Uwe wird also voraussichtlich 82 %
des von ihm investierten Kapitals verlieren. Er sollte bei seinem nchsten Investment besser den Rat von Fachleuten einholen.

Fr die Varianz der Portjoliorendite (im Folgenden kurz Portfoliovarianz) gilt nach
(112: 85) bzw. (112: 87)
Var(R p ) = w; . Var(R,) + w; . Var(R,) + 2 w, . w, . Cov(R"R,)
;;;;;; w~ . Var(R1 ) + w~ . Var(R2 ) + 2 w 1 w 2

aRt .

a~ . PRl~

(112: 92)

Das Risiko des Portfolios hngt somit sowohl von den Varianzen der Einzelrenditen
als auch von der Korrelation zwischen den Einzelrenditen ab. t8
18 Natrlich ist auch die Gewichtung als Einflussfaktor ZU betrachten.

2. Zufallsvariablen

243

Den grten Wert nimmt die Portfoliovarianz c. p. an, wenn die Korrelation vllig
gleichgerichtet und maximal ist, d.h. PRR = +1 gilt. Dies lsst sich damit erklren,
dass die Rendite einer Anlage im gleich~;' Ausma rallt (steigt), wie auch die Rendite der anderen Anlage rallt (steigt). Es gilt in einem solchen Fall fr (H2: 92)
Var(Rp)= = w: . Var(R,) + w: . Var(R,) + 2 w, . w, . O"R,
=[W t -O'R

O"R,

+w2 .a~]2.

Den kleinsten Wert fr die Portfoliovarianz erhalten wir analog, wenn sich die
Renditen der Wertpapiere vllig gegenlufig entwickeln, also PR,.., = -1 gilt. Das
Risiko ist minimal, da ein Renditerckgang bei einer Anlage durch eine gegengerichtete Renditesteigerung bei der anderen Anlage ausgeglichen wird.
Var(Rp)mm= w: . Var(R,) + w; . Var(R,) - 2 w, . w, . 0".,
=[w 1

. 0"..,

, -wz 'O'R]2
,

'(JR

Liegt die Korrelation zwischen -1 und +1, so knnen wir sagen, dass sich die Varianz der Portfoliorendite in folgendem Intervall
[W t .

a RI

W2 .

aa

]2 ~

Var(R p ) ~ [wt . a Rl + w 2 . a Rl ]2

(H2: 93)

bewegt. Fr die Portfoliostandardabweichung gilt dann narurlich


[wt

. (JR I

W2

(J~] ~ G Rp ~

[w t

a RI + W 2

(J~].

(H2: 94)

Definieren wir das gewichtete Mittel der Standardabweichungen als


(H2: 95)
so knnen wir auerdem Folgendes feststellen:
Fall A:

(j

= Jvar(Rp)

falls

Fall B:

(j

> JVar(Rp)

falls

(H2: 96)

Nur fr den Fall einer perfekten Gleichlufigkeit der Anlagenrenditen kann also die
Portfoliosrandardabweichung einfach als gewichtetes Mittel der Einzelstandardabweichungen berechnet werden (Fall A). Ist dies nicht der Fall, rallt die Portfoliostandardabweichung immer geringer aus als das gewichtete Mittel der Einzelstandardabweichungen (Fall B).

Beispiel 11 2-44

Varianz dar Portfoliorandita

Zwei Wertpapiere seien durch folgende Monatsdaten gekennzeichnet:


Papier

Erwartete Rendite
E(R,} in %

Standardabweichung der Rendite

1,5

5,5
4,0

1,0

O'R,

in %

PR,R, = 0,1

Wir wollen nun das Risiko eines Portfolios, welches sich zu je 50 % aus beiden Aktien zusammensetzt, an hand der Portfoliostandardabweichung beurteilen. Berechnen wir dazu
zunchst die erwartete Rendite des Portfolios. Sie ergibt sich zu
E(R p } = 0,5 E(R,} +0,5 E(R,} = 0,5 (1,5+1,O) = 1,25.

244

11 Wahrscheinlichkeitsrechnung
Fr die Portfoliostandardabweichung ergibt sich
Var(Rp) = w:. Var(R,) +w:. Var(R,) +2w, w, "R, ."R, . PR,R,
= 0,5' 5,5' +0,5'4,0' +2 0,5' 5,54,0 0,1 = 12,66
"", = ~Var(Rp) = ,112,66 = 3,56.

Fr das gewichtete Mittel der Einzelstandardabweichungen erhalten wir hingegen


Cf = w, ."R, + w, "R, = 0,5 (5,5 +4,0) = 4,75.

Investiert also ein Anleger z.B. in das Papier 2, so kann er bei einer Standardabweichung
von 4,0 eine Rendite von 1,0 % erwarten. Kombiniert er dieses Papier aber mit dem Papier
1, so entsteht fr ihn die Mglichkeit bei geringerem Risiko (3,56) eine hhere Rendite
(1,25 %) zu erzielen. Ein solches Vorgehen, also die Aufteilung eines Investments auf verschiedene risikobehaftete Anlagen an Stelle der Investition in nur eine Anlage, wird als
Diversifikation bezeichnet. Wnscht der Anleger eine hhere Rendite, so muss er einen
hheren Anteil seines Kapitals in Papier 1 investieren. Mit der hheren Rendite hat der Anleger dann aber auch ein hheres Risiko zu tragen.
Zur grafischen Darstellung des Rendite-Risiko-Zusammenhangs wird hufig ein sog. 11- ,,Diagramm verwendet. In diesem Beispiel kann ein solches wie folgt skizziert werden:

IlR
1,50

------1--------------------------

Papier 1

Portlolio

(50%,50%)

1,25

1,00

,
------1---

3,56

4,00

4,75

5,5

Wie unsere Skizze zeigt, ist der Zusammenhang (112: 96) in diesem Beispiel deutlich erfllt.
Wren die Renditen der Wertpapiere nun sogar negativ korreliert, so knnten wir das Portfoliorisiko noch weiter senken.

Hufig soll nicht nur die Varianz (oder Standardabweichung) eines bestehenden
Portfolios berechnet, sondern ein Portfolio durch die Wahl der Gewichtung so zusammengestellt werden, dass die Varianz einen bestimmten Wert annimmt. Der An-

teil der Anlage 1 in einem Portfolio aus 2 Anlagen, mit dem das Portfolio bei gegebenen Einzelvarianzen VarCR,) und Var(R,) sowie gegebenen Korrelationskoeffizienten P",R, die geringste Varianz aufweist, kann wie folgt ennittelt werden:
Var(R,) - Pa,., . (JR, . (J.,

w~ar(Rp) __ ;;;;;; ---c--c---=-:--'=-'=--"'----='----

Var(R,) + Var(R,) - 2 PR,., . (Ja, . (J.,

Das damit entstehende Portfolio heit Minimum-Varianz-Porifolio.

(II2: 97)

245

2. Zufallsvariablen

Beispiel 11 2-45

Minimum-Varianz-Portfolio

Ein Portfolio soll aus den zwei Wertpapieren des vorhergehenden Beispiels 11 2-44 mit
(JR, = 5,5 und (JA, = 4,0 zusammengesetzt werden. Der Korrelationskoeffizient lag bei
diesen beiden Papieren bei PR,A, = 0,1 . Mit welchem Anteil muss Wertpapier 1 in das Portfolio aufgenommen werden, um das Portfolio mit der geringsten Varianz zu erhalten?

4,0' -0,15,5 4,0


5,5' +4,0' -20,15,54,0

13,8 = 03297 = 32 97 %
41,85'
,

Liegt ein Portfolto aus n Anlagen vor, so errechnen wir die erwartete Rendite des
Porifolios nach (II2: 88) als

Lw, E(R) .
n

E(Rp ) =

(H2: 98)

1_ 1

Fr die Portfoliovarlanz gilt nach (H2: 89)


Var(R p ) = i i w , ,w j Cov(R"Rj )
1...1 j_ 1

= ii:Wi 'W j
1...1 j_ 1

.(J~

(H2: 99)

'(JRl 'PRI~

Zum besseren Verstndnis dieser Formel betrachten wir die nachfolgende Tabelle,
die auch als (gewichtete) Varianz-Kovarianz-Matrix bezeichnet wird und die
Komponenten der Varianz eines Portfolios mit n Anlagen bersichtlich darstellt.
Auch der Fall mit 2 Anlagen ist darin gekennzeichnet (Grauschattierung).

w~ .Var(Rt )

wlwzCov(~.Rz)

w 1 'w, Cov(Rl,R,)

w 1 'w" Cov(~,Ra)

W z 'w t

Cov(Rz.R1 )

w,

Cov(R"Rt )

W" 'W 1 .

'W 1

Cov(Ru,R t )

w: .Var(Rz)
W, 'W z '

W" 'W 2

z 'w, Cov(Rz.R,)

w; -Var(R,)

Cov(R"Rz)

Cov(Rn'~)

II

'w, Cov(R",R,)

z w" Cov(R2 ,Rn )

w, 'w" Cov(R"Ra)
w! .Var(R.)

Da die Kovarianz eines Wertpapieres mit sich selbst gleich seiner Varianz ist, d.h.
Cov(R"R,) = VarCR,) gilt (vgl. Abschnitt H 2.7.4.2), ist bei nherer Betrachtung der
Tabelle festzustellen, dass die Portfoliovarianz durch die n Varianz-Terme auf der
2
Hautdiagonale und durch n - n Kovarianz-Tenne bestimmt wird.
Nehmen wir an, wir besitzen derzeit ein Portfallo aus 2 Wertpapieren und beabsichtigen ein weiteres in unser Portfolio aufzunehmen. Dies bedeutet, dass bei der

Berechnung der Portfoliovarianz ein weiterer Varianz-Tenn und vier weitere Kovarianz-Terme bercksichtigt werden mssen. Wir knnen also allgemein sagen, dass

11 Wahrscheinlichkeitsrechnung

246

Bit

die Anzahl dei Kovarianz-Tenne durch Hinzufgen weiterer Wertpapiere berproportional ansteigt. Die Portfoliovarianz wird daher weniger von den Einzelvarianzen, sondern vielmehr von den Kovarianzen bestimmt. Welchen Effekt das Hinzufgen eines Wertpapieres in ein Portfolio auf die Portfoliovarianz haben kann, wird
im nachfolgenden Beispiel veranschaulicht. 19
VerlndenJngen der Portfoliovarianz

BeloplelU2-48

Gegeben seien drei Wertpapiere, deren erwartete Renditen und Varianzen Ueweils in %)
und die zwischen Ihnen herrschenden KorrelaUonen:
Wertpapier
1
2
3

Erw. Rendite
1,50
1,00

2,00

Varianz
5,50
4,00
6,00

1-2
1-3
2-3

Korrelation
0,70
0,20
0,30

Bilden wir nun ein gleichgewichtetes Portfolio aus den Papieren 1 und 2, d.h. nehmen wir

jedes Papier zu einem Anteil von 50 % ins Portfolio auf, erhatten wir unter Nutzung der auf
der vorhergehenden Seite abgebildeten (gewichteten) Varianz-Kovarianz-Matrix folgende
erwartete Portfoliorendite und Portfoliovarianz:

1,375
0,821

Portfoliorendite
1,250
Portfoliovarianz
4,017

2
0,821
1,000

Fugen wir nun zu diesem Portfolio das Wertpapier 3 hinzu. Wir wollen emeut ein gleichgewichtetes Portfolio bilden, d.h. wir mussen alle drei Wertpapiere mit 1/3 gewichten. Als Ergebnis erhalten wir dann:

2
3

1
0,611

2
0,365

3
0,128

0,365
0,128

0,444
0,163

0,163
0,667

Portfoliorendile
1,500
Portfoliovarianz
3,034

Wir erkennen, dass durch das zustzliche Wertpapier die Varianz des Portfolios gesenkt
und die erwartete Rendite sogar erhht werden kann. Nehmen wir an, dass die Korrelation
zwischen den bisherigen Wertpapieren und dem zusAtzlichen Papier 3 negativ sind, d.h.
konkret P13 '" -0,20 und Pm '" -0,30 gilt, so knnen wir eine noch strkere Varianzreduktion erreichen:

0,611
0,365
-0,128

2
0,365
0,444
-0,163

3
-0,128
-0,163
0,667

Portfoliorendite
1,500
Portfoliovarianz
1,870

19 Eine anschauliche und kompakte Einfhrung in die Portfoliooptimierung bieten z.B. Auer,
B.R., Schuhmacher, F. (2009).

3.

Theoretische Verteilungen

Die im Folgenden beschriebenen Wahrscheinlichkeitsverteilungen knnen aus zwei Perspektiven betrachtet werden: Zunchst dienen sie in der deskriptiven Statistik dazu,
empirisch beobachtete Hufigkeitsverteilungen approximativ als Funktionen zu beschreiben. In der mathematischen Statistik lassen sich damit Wahrscheinlichkeiten fOr Ereignisse bestimmter Zufallsvariablen angeben. Wir werden uns einigen ausgewhlten eindimensionalen diskreten und stetigen Verteilungen widmen. Dabei ist zu beachten, dass
jedes der theoretischen Verteilungsmodelle eine Schar von unendlich vielen Einzeiverteilungen reprsentiert. Erst durch die zahlenmige Belegung der Funktionalparameter ist
eine Verteilung eindeutig festgelegt.

3.1

Diskrete Verteilungen

3.1.1

BInomlaiverteIlung

3.1.1.1

Wahrscheinlichkeits und Vertellungsfunktion

Die auf Jakob Bemoulli zurckgehende Binomialverteilung dient der Ermittlung


von Wabrscheinlichkeiten fr die Hufigkeit des Eintretens bestinunter Ereignisse
bei sog. Bernoullt-Experimenten (z.B. Wahrscheinlichkeit fr x Jungen bei n Geburten). Ein solches Experiment besteht aus einer Folge von Bemoulli-Versuchen, die
folgende Eigenschaften aufweisen:

Fr jeden Versuch gibt es nur zwei mgltche Ausgnge (Ergebnisse) A und


(z.B. ZahVWappen, Junge/Mdchen, fehlerhaft/fehlerfrei, Erfolg/Misserfolg).
Fr die Wahrscheinlichkeit dieser Ergebnisse gilt
P(A) = P

P() = 1- p

mit

0 ,:; p ,:; 1.

(113: 1)

Man bezeichnet p hufig als Erfolgswahrscheinlichkeit und die Wahrscheinlichkeit des Gegenereignisses Ckomplemenrres Ereignis) 1 - P als Misserfolgswahrscheinlichkeit.

Das Zufallsexperiment wird n-mal (n ist eine natrliche Zahl) unter gleichen
Bedingungen wiederholt. Damit sind die einzelnen Versuche voneinander unabhngig, d.h. das Ergebnis eines Versuches beinflusst nicht die weiteren Ergebnisse. Auerdem sind die Wahrscheinltchkelten OB: 1) konstant.

Wir beschreiben dabei den i-ten Versuch durch eine Zufallsvariable X;, die nur die
Werte 0 und 1 annehmen kann (sog. dichotome Zu[allsvariahle). Es gilt fr diese
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_8, Springer Fachmedien Wiesbaden 2015

248

11 Wahrscheinlichkeitsrechnung

X.,

={10

wenn A bei der i-ten Wiederholung eintritt


wenn A bei der i-ten Wiederholung eintritt.

(113: 2)

Die diskrete Zufallsvariable X zhlt nun, wie oft bei n Versuchen eines BemoulliExperimentes A eingetreten ist. X ist dann die Summe der X, mit den Realisationen
x = 0, x = 1, x = 2, ... x = n:
t

CI!3: 3)

Beispiel 11 3-1

Bernoulli-Experiment

Wird eine Munze dreimal geworfen (Kopf = 1, Zahl = O), so kann eine Zufallsvariable X als
"Anzahl der Kpfe" definiert werden. Diese Zufallsvariable kann die Realisationen x = 0, 1,
2 oder 3 annehmen. Welche Realisation eintritt, hngt vom Zufall ab. So kann sich z.B.
beim ersten Wurf "Zahl" (X, = O) und beim zweiten und dritten Wurf "Kopf' (x., = x. = 1) ergeben. Wir erhalten damit nach (113: 3)

X=LX,=0+1+1=2.

'_I

Gesucht ist nun die Wahrscheinlichkeit dafr, dass bei einem Bemoulli-Experiment
mit n Versuchen das Ereignis A genau x-mal auftritt. Anders ausgedrckt, suchen
wir die Wahrscheinlichkeit
= x), dass X eine bestimmte Realisation x annimmt.
Gerade diese Information liefert die Wahrscheinlichkeitsfunktion der Binomialverteilung, mit deren Herleitung wir uns nun nher befassen wollen:

pex

Nehmen wir an, dass bei der Folge von n Versuchen das Ereignis A bei den ersten
x Versuchen und bei den restlichen n - x Versuchen das Gegenereignis A eintritt.
A,A, ... ,A,A,A,
... ,, bzw. 1,1,
... ,1,0,0, ... ,0,
. .
'-v----' '

I~

(n

x)-ma!

x-mal

en x)-ma1

Da die einzelnen Versuche unabhngig voneinander sind, ergibt sich aus dem Zusammenhang

P(A) = P(X,

= 1) =

und

PCA) = P(X,

0) = 1- p ,

der fr jedes i = 1, 2, ... , n gilt, und dem Multiplikationssatz fr unabhngige Ereignisse (111: 58) folgende Schlussfolgerung:
p.p ..... ~.(l-p).(l-p) ..... (l-p) = p'. (l-pr'
x-~

(n-x)-mal

Bei der hier betrachteten Folge handelt es sich nun aber um eine spezielle Anordnung der x "Einsen" und n - x "Nullen". Natrlich gibt es eine Reihe weiterer Folgen, bei denen ebenfalls genau x-mal Ereignis A bzw. 1, jedoch in anderer Reihenfolge, eintritt. Um die Anzahl dieser Mglichkeiten zu bestimmen, bedienen wir uns

der Erkenntnisse der Kombinatorik. Zu beantworten ist die Frage, wieviele Mglichkeiten es gibt, die x "Einsen" auf die n Pltze aufzuteilen (Ziehen ohne Zurck-

legen, ohne Bercksichtigung der Reihenfolge). Es existieren demnach genau "n


ber x" Folgen, von denen jede einzelne die Wahrscheinlichkeit p' . (l- p)n-, besitzt. Nach dem Additionssatz fr sich gegenseitig ausschlieende (disjunkte) Ereignisse ergibt sich daher

249

3. Theoretische Verteilungen

(113: 4)

P(X = x) = (:J. pI. (I-pr.


Die Zufallsvariable X besitzt also folgende Wabrscbe/nllcbkeltsjunktton fB(x):
nJ,pI . (I_p)'-I
fB(x) = {( x

fr x=O.1.2... n

(113: 5)

sonst

Weist eine Zufallsvariable X die durch (113: 5) definierte Wabrscheinlichkeitsfunktion auf. so heit sie binomialverteilt. Wir schreiben kurz X - B(n. p).
Zur Veranschaulichung dieser wichtigen Verteilung bedient man sich hufig des
Urnlmmodel/s mit ZurcklegIm. Es befinden sich dabei in einer Urne mit N Kugeln
genau M Kugeln. die eine bestimmte Eigenschaft A aufweisen. (Man knnte sich
auch eine Warenlieferung des Umfangs N mit M defekten Produkten vorstellen.)
Werden aus dieser Urne nun n Kugeln zufallig und mit Zurcklegen nacheinander
gezogen. so ist gewhrleistet. dass bei jedem weiteren Zug die gleiche Wahrscheinlichkeit p = MIN vorliegt. eine Kugel mit der Eigenschaft A zu erhalten. Es wird
schlielich durch das Zurcklegen die Urne immer wieder in den Ausgangszustand
zurckversetzt. Die einzelnen Zge erfolgen also unabbnglg voneinander. Da
dies nun genau die Situation ist. die auch von der Binomialverteilung erfasst wird.
kann man eine Zufallsvariable X: "Anzahl der Kugeln mit Eigenschaft A in einer
Stichprobe von n Kugeln" als B(n.M/N)-verteilt betrachten.

Beispiel 11 3-2

Binomialverteilung und Urnenmodell

Wird aus einer Urne mit N Kugeln. von denen M eine gewisse Eigenschaft A besitzen. genau einmal (x = O. 1) bzw. zweimal (x = O. 1. 2) mit Zurcklegen gezogen. so knnen sich
allgemein folgende Wahrscheinlichkeiten ergeben:
X ist B(l.p)-verteilt:

X ist B(2.p)-verteilt:

P(X=O)= 0 .p0 (l-p), =l-p

P(X=O)= 0 .p0 (l-p), =(l-p),

P(X=l)= 1 .p (l-p)0 =p

P(X=l)= 1 .p (l-p) =2(p-p)

(1)

(1),

(2)

(2), ,
(2),

P(X=2)= 2 .p (l-p)0
=p'
Fr die Wahrscheinlichkeits/unktionen ergibt sich damit:

1
p

x
/B(X)

2
2.(p-p')

p'

Betrachten wir nun konkret eine Urne mit 10 roten und 5 schwarzen Kugeln. aus der zu/llig zwei Kugeln gezogen werden. Die Wahrscheinlichkeit. dabei genau eine schwarze
Kugel zu erwischen. ergibt sich als
P(X = 1) =

(~}(~)"(1-~)'-' =2'i'~ =~.

11 Wahrscheinlichkeitsrechnung

250

Q.

Die grafische Gestalt der wahrscheinlichkeitsfunktion der Binomialverteilung hngt


stets von ihren beiden Funkttonalparamerem n und p ab. Grundstzlich gilt, dass
alle Binomialverteilungen mit p - 0,5 symmetrisch sind. Fr p < 0,5 sind die Verteilungen linkssteil, fr p > 0,5 rechtssteil. Beispiel 11 3-3 veranschaulicht dies.

Beispiel 11 3-3

Verschiedene Binomialverteilungen

fB(X)

fB(x)

x- B(8;0,2)

0,4

x- B(8;0,7)

0,4

0,2

0,2

oLI~~~L-

__
I ~____~,

..

O~

____ I

~~~~~L-~,

2345678

fg(x)

0,4

X - B(8;0,5)

0,2

o~~~

__

~-L

__

~L-

--+,

__

2345678

Die VertetlungsfunkUon F,J7J der Binomialverteilung gibt die Wahrscheinlichkeit


an, dass eine binomialverteilte Zufallsvariable X hchstens den Wert x annimmt,
also p(X :S x). Sie besitzt, wie jede diskrete Verteilungsfunktion, die Gestalt einer
Trr!ppenjunJrtion und wird durch Summation der einzelnen binomialen Wahrscheinlichkeiten gebildet:
F,(x) = f,(O)

=(~

+ +. . +
f,(I)

I;.(x)

}po .(l-p)" +(~} p'. (l-pr' +. . +(:} p'. (l-pr

Unter Verwendung eines Swnmationsindex v knnen wir auch schrelben:

F'(X)=l~(:}p>-pr

ffu

x<O

ffu O:Sx<n
ffu

n~x

013,6)

3. Theoretische Verteilungen

251

Beispiel 11 3-4

Wahrscheinlichkeits- und Verteilungsfunktion

Aus einer groen Gerteproduktion, bei der erfahrungsgem 30 % defekt sind, werden 6
Gerte gekauft. Wie gro ist die Wahrscheinlichkeit dafOr, dass
a)
b)
c)
d)

alle 6 Gerte defekt sind,


alle 6 Gerte in Ordnung sind,
hchstens 2 Gerte defekt sind,
die Hlfte oder mehr als die Hlfte der Gerte defekt sind?

Betrachten wir die Anzahl defekter Gerte X als B(6;0,3)-verteilt, so erhalten wir folgende
Ergebnisse:

(6)

a)

P(X=6)= 6 0,36 0,70 =0,0007

b)

P(X = 0) =

c)

P(X S 2) = P(X = O)+P(X = 1)+ P(X = 2) = 0,1176 +0,3025+0,3241 = 0,7443

d)

P(X <: 3) =1-P(X S 2) = 1-0,7443 = 0,2557

(~}0,30 0,7' = 0,1176

Im Anhang ist die Wahrscheinlichkeits- und die Verteilungsfunktion der Binontialverteilung fr ausgewhlte (gebruchliche) Werte von n und p in tabellarischer
Fortn abgedruckt. Daraus lassen sich in vielen Fllen Wahrscheinlichkeiten ohne
fortnelmige Berechnungen recht schnell ertnitteln. Dazu nutzt man, f(x) = F(x) F(x - 1), um Werte der Wahrscheinlichkeitsfunktion auch aus der Verteilungsfunk-

tion zu errechnen.

3.1.1.2

Eigenschaften

Wie wir in (113: 3) gesehen haben, ist X eine Summe unabhngiger, identisch
B(1,p) verteilter Zufallsvariablen X, ntit E(X) = o (1- p) + 1 P = P . Fr X - B(n,p)
ergibt sich daher als Erwartungswert von X
(113: 7)
Der Erwanungswert einer binontialverteilten Zufallsvariable X ist sontit nichts anderes als das produkt der beiden Funktionalparameter n und p.
Fr die Varianz eines einzelnen Zuges gilt
Var(X) =

L (Xi - E(X))' . fex) = (0 - p)' . (1- p) + (1- p)' . p = ... = p. (1- p).
i ..l

Daraus lsst sich fr die Varianz von X der Zusammenhang


Var(X) = Var (

t;x,
n

= t; Var(X,) = t;p. (1- p) = n p. (1- p)

(IB: 8)

ableiten. Das zweite Gleichheitszeichen gilt dabei, da die einzelnen Zge voneinander unabhngig sind.

252

11 Wahrscheinlichkeitsrechnung

Der Sonderfall n - 1, der in der Literatur hufig als separate Verteilung (BernoulliVerleiluniJ behandelt wird, lsst E(X) und Var(X) auf Erwartungswert und Varianz
des einzigen durchgefhrten Bemoulli-Versuchs schrtunpfen. Solche B(1,p~ver
teilte Zufallsvariablen werden hufig als Indikatorvariablen, dichotome oder binre
Zufallsvariablen oder als Dummy bezeichnet.

Beispiel 11 3-5

Erwartungswert und Varianz

Eine faire MOnze wird sechsmal geworfen. Die Zufallsvariable X soll dabei die Anzahl der
erscheinenden "Kopf-Seiten" reprsentieren.
Der Erwartungswert E(X) - 6 . 0,5 - 3 besagt nun in diesem Beispiel, dass man beim
sechsmaligen Mnzwurf im Durchschnitt dreimal das Ereignis "Kopf" erhlt. Die Varianz
nimmt hier einen Wert von Var(X) - 6 . 0,5 . 0,5 - 1,5 an.
Wird die Mnze nur ein einziges Mal geworfen, ergibt sich E(X) - 0,5 und Var(X) - 0,5 . 0,5
- 0,25, wodurch die 50:50 Chance des Ergebnisses zum Ausdruck kommt.

Aus den Herleitungen von Erwartungswert und Varianz binomialverteilter Zufallsvariablen folgt unmittelbar die sog. Reproduktivitt der Binomialverteilung. Dies
bedeutet, dass wenn X - B(n"p) und Y - B(n"p) unabhngig sind, stets X + Y B(n, + n" p) gilt.
3.1.1.3

Praxisanwendung: Operationscharakteristiken

Zur Entscheidung, ob eine Lieferung wieder an den Lieferanten zurckgeschickt


werden soll, bedient man sich in der Praxis hufig eines statistischen prfplans.
Nehmen wir an, ein Unternehmen erhlt regelmig grere Lieferungen von gewissen Einzelteilen, die einen unbekannten Anteil p (Ausschussanteil) von defekten
Stcken enthalten. Es werden daraus n Stcke zufallig herausgegriffen und die Anzahl X der fehlerhaften Stcke in der Stichprobe enmittelt. Es wird zwar in der Praxis ohne Zurcklegen gezogen, doch ist der Umfang n der Stichprobe in der Regel
im Verhltnis zum Umfang N der Lieferungen sehr klein, sodass es fr den Fehleranteil in der Grundgesamtheit beim nchsten Zug keine Rolle spielt, ob bereits ein
Stck zur Prfung entnommen wurde, und somit auch vom Ziehen mit Zurcklegen ausgegangen werden kann l Ein statistischer PrfPlan stellt nun die Vorschrift dar, dass die Lieferung nicht zu akzeptieren ist, wenn die Anzahl X eine gewisse vorher definierte Grenze c (Annahmezahl) berschreitet. Ist X ~ c, wird die
Lieferung angenommen.
Zur Beurteilung eines solchen Prfplans ziehen wir seine sog. Operationscharakteristik L..(p) heran, die die Wahrscheinlichkeit fr die Annahme einer bestimmten
Lieferung in Abhngigkeit vom Ausschussanteil p dieser Lieferung angibt:
Ln,Jp) = P(X

~ c) = :t(n) , p' ,(1- pr'


v..o v

(113: 9)

Die sog. aC-Kurve (vgl. Beispiel 11 3-6) ist damit festgelegt durch die beiden Parameter n und c.
1 Dies werden wir im Abschnitt 11 3.1.2.3 zur Hypergeometrischen Verteilung bzw. ihrer Approximation durch die Binomialverteilung im Detail behandeln.

3. Theoretische Verteilungen

253

Beispiel 11 3-6

Operationscharakteristik

Fr n = t 0 und c = 1 ergibt sich fr die Operationscharakteristik


L".,{p}= ~(n),
v .p {I-p},,(10)
- = 0 .p0 {I-p},,(10),
+ 1 .p {I-p}" - , ={I-p}9 {1+9p}.

6:

Fr die minimale {p = O} und maximale {p = I} Ausschusswahrscheinlichkeit ergeben sich


die Werte L1O,,{0} = 1 und L1O,,{1} = 0, Grafisch zeigt die aC-Kurve folgendes Bild:
L1O,1{P}

0,5

0,2440

0,25

0,5

Diese Funktion sagt nun aus, dass z,B, bei einem Ausschussanteil von p = 0,25 die lieferung mit einer Wahrscheinlichkeit von L'0,,{O,25} = 0,2440 angenommen wird. Ein solches
Ergebnis macht diese aC-Kurve fOr die Praxis aber untauglich, da eine lieferungsannahme unter solchen Bedingungen nicht akzeptabel ist.

Auf einer OC-Kurve werden in der Praxis zwei Punkte vorgegeben, mit HUfe derer
entschieden werden kann, ob die jeweilige Kurve bzw, das Prfverfahren tauglich
ist. Diese Punkte sind die folgenden:

Ablebngrenze: Ausschussanteil, bei dem die Lieferung mit einer kleinen Wahrscheinlichkeit von z.B. 5 % angenommen werden soll (d.h. die Annahmewahrscheinlichkeit der Ablehngrenze betrgt 5 %)
Annabmegrenze: Ausschussanteil, bei dem die Lieferung mit einer groen
Wahrscheinlichkeit von z.B. 95 % angenommen werden soll

Beispiel 11 3-7

Ablehn- und Annahmegrenze

Ein Unternehmen hat eine Annahmegrenze von 0,02 und eine Ablehngrenze von 0,10 definiert. Fur zwei PrufplAne A {n = 20, c = I} und B {n = 100, c = 4} sollen nun die Annahmewahrscheinlichkeiten {Werte der aC-Kurven} fOr die gegebenen Annahme- und Ablehngrenzen ennittelt werden.

254

11 Wahrscheinlichkeitsrechnung

+(~0}O,021'0,981O = 0,940

A:

L",,1(O,02) = 0,98'"

B:

L,00,.(O,02) = ... = 0,949

L",1(O,1 0) = ... = 0,392


L,OD,.(O,10) = ... = 0,024

Diese Werte zeigen, dass sich Prfplan A nicht als praxistauglich erweist, da eine Lieferung, bei der 10 % der Einzelteile fehlerhaft sind, mit einer Wahrscheinlichkeit von 39,2 %
angenommen wird. Bei Prfplan B liegt diese Wahrscheinlichkeit bei nur 2,4 % und /Ur die
Annahmegrenze betrgt der Wert der
auch fast 95 %, sodass dieser geeigneter ist.

oe

3,1.2

Hypergeometrische Verteilung

3.1.2.1

Wahrscheinlichkeits- und Verteilungsfunktion

Wie wir gesehen haben, entsprach die Binomialverteilung dem Urnenmodell mit
Zurcklegen, da hier die Unabhngigkeit durch das Zurcklegen der gezogenen
Kugeln realisiert wurde. Bei Zufallsstichproben in der Praxis werden die einmal gezogenen Elemente jedoch Ld,R. nicht wieder zurckgelegt, bevor das nchste
Stichprobenelement entnommen wird. Mit diesem Urnenmodell ohne Zurcklegen
kann die Hypergeometrische Verteilung beschrieben werden:
Es werden aus einer Urne mit insgesamt N Kugeln, von denen M eine gewisse

Eigenschaft A (z.B. schwarz) und N - M eine Eigenschaft A (also nicht A, z,B,


wei) aufweisen, genau n Kugeln (n S N) rein zufallig gezogen, Eine einmal entnommene Kugel wird jedoch nicht wieder in die Urne zurckgelegt. Es vermindert
sich dadurch nach jedem Zug die Anzahl der Kugeln, die sich noch in der Urne befinden, Auerdem kommt es so zu einer Vernderung der Wahrscheinlichkeiten
beim nchsten Zug, eine Kugel mit einer der beiden defmierten Eigenschaften zu
erhalten.
Beispiel 11 3-8

Ziehen ohne Zurcklegen

Wir erhalten beim ersten Zug einer Kugel aus einer mit3 schwarzen und 3 weien Kugeln
gefllten Urne mit einer Wahrscheinlichkeit von 0,5 eine schwarze und mit 0,5 eine weie
Kugel, Wird nun z.B, beim ersten Zug eine schwarze Kugel erwischt, die nicht mehr zurckgelegt wird, reduziert sich die Zahl der Kugeln in der Urne auf 5 (2 schwarze, 3 weie).
Die Wahrscheinlichkeit bei einem zweiten Zug erneut eine schwarze Kugel zu erwischen,
ist nun nicht mehr 0,5, sondern nur noch 2/5.

Wir interessieren uns auch hier wieder fr die Zufallsvariable X: "Anzahl der gezogenen Kugeln mit Eigenschaft A". Die Zufallsvariable X konnte beim Urnenmodell
mit Zurcklegen die Realisationen 0, 1, ... , n annehmen. Beim Umenmodell ohne
Zurcklegen unterliegen die mglichen Werte x von X der Restriktion 0 S x SM, da
A nur M-mal in der Urne vorkommt, und der weiteren Restriktion 0 S n - x S N - M,
da insgesamt N - M Kugeln die Eigenschaft A nicht besitzen. Die genaue Bedeutung dieser Bedingungen knnen wir uns mittels eines einfachen Beispiels recht
schnell veranschaulichen. Ist eine Urne beispielsweise mit roten und schwarzen

3. Theoretische Verteilungen

255

Kugeln gefllt, so knnen sowohl nicht mehr rote als auch schwarze Kugeln In die
Stichprobe gezogen werden, als In der Urne sind.
Es ist nun konkret die Wahrscheinlichkeit von Interesse, dass unter den n gezogenen Kugeln genau x mit der Eigenschaft A zu finden sind bzw. X die Realisation x
annimmt: Grundstzlich gilt, dass es bei einem Ereignis X = x nicht darauf ankommt, In welcher Reihenfolge die n ohne Zurcklegen gezogenen Kugeln aus der
Gesamtmenge N entnommen wurden. Zur Bestimmung der wahrschelnlichkeitsfunktion (nach dem Laplaceschen Wahrscheinlichkeitsbegriff) kann daher fr die
Anzahl der mglichen Elementarereignisse die Anzahl der gleichwahrscheInlichen
Mglichkeiten verwendet werden, aus N Kugeln ohne Beachtung der Reihenfolge
genau n herauszunehmen:
(113: lOa)

Zur Bestimmung der Anzahl der fr X = x gnstigen Elementarereignisse betrachten wir zunchst, dass aus M Kugeln mit der Eigenschaft A genau x ausgewhlt
werden. Auch hier spielt die Reihenfolge keine Rolle. Die Anzahl der Kombinationen ohne Wiederholung der einzelnen Kugeln und ohne Beachtung der Reihenfolge betrgt nun
(113: lOb)

Analog betrgt die Anzahl der Mglichkeiten, aus den N - M Kugeln, die die Eigenschaft A nicht aufweisen, die restlichen n - x Kugeln der Stichprobe zu ziehen
N-M).
( n-x

(113: lOc)

Da nun jede mgliche Stichprobe "x Kugeln mit Eigenschaft A aus M Kugeln" mit
jeder einzelnen mglichen Stichprobe "n - x Kugeln ohne Eigenschaft A aus N - M
Kugeln" kombiniert werden kann, ergibt sich die Anzahl der Mglichkeiten, dass
genau x der n Kugeln die Eigenschaft A aufweisen, als
(I!3: IOd)

Fassen wir diese Erkenntnisse nach der Laplaceschen WahrscheinlichkeitsdefInition


zusammen, so ergibt sich fr die gesuchte Wahrscheinlichkeit

P(X = x)

(113: 11)

Die Wahrscheinlichkeitsfunktion fix) der Hypergeometrischen Verteilung nimmt


die In GI3: 11) angegebenen Werte fr die mglichen x-Werte und sonst den Wert
Null an. Besitzt eine Zufallsvariable eine solche WahrscheInlichkeitsfunktion, so
heit sie hypergeometrisch verteilt. Wir schreiben kurz X - H(N,M, n).

256

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-9

Verschiedene Fallbeispiele

1. Urnenspiel
In einer Urne seien 5 rote und 3 weie Kugeln. Es wird eine Stichprobe von 4 Kugeln ohne
Zurucklegen gezogen. Wie wahrscheinlich enthlt die Stichprobe 2 rote Kugeln?
X ist H{8;5;4)-verteilt. Es gilt damit
P{X=2)=m.G}(:)=

1~~3=~.

2. Lotto
Wie gro ist die Wahrscheinlichkeit fr 5 Richtige im deutschen Zahlenlotto?
X ist H{49;6;6)-verteilt. Wir erhalten daher
643
P{X = 5) = (6). (43) I (49) =
5
1
6
13.983.816

0 00001845 .
'

3. Warenprfung

In einer Warensendung vom Umfang 100 Stck befinden sich 10 Stucke Ausschuss. Wir
entnehmen zufllig ohne Zurcklegen 5 Gerte aus dieser Warensendung. Damit ist die
Zufallsvariable X: "Anzahl fehlerhafter Stcke in der Stichprobe" H{I 00;1 0;5)-verteilt.

Beschreiben wir wie in (II3: 2) die i-te Ziehung aus der Urne durch eine Indikatorvariable x" die dann den Wert 1 annimmt, wenn die Eigenschaft A bei der i-ten gezogenen Kugel vorliegt, und den Wert 0 annimmt, wenn A beim i-ten Zug nicht
gegeben ist, so gilt wieder (II3: 3). X ergibt sich also als Summe der x,. Auch beim
Ziehen ohne Zurcklegen besitzen die x" welche vom Standpunkt vor dem ersten
Zug aus die i-te Entnahme beschreiben, alle dieselbe B(1,MlN)-Verteilung. Im Vergleich zum Ziehen mit Zurcklegen ist allerdings eine Unabhngigkeit der X, nicht
mehr gegeben. Wurden bis zum i-ten Zug genau k Kugeln mit der Eigenschaft A
gezogen, so gilt fr die Wahrscheinlichkeit, dass beim O+l)-ten Zug A auftritt
M-k
i
)
P Xi+l =l1LX j =k = - ..
(

1_1

N-1

Beispiel 11 3-10

(II3: 12)

Bedingte Wahrscheinlichkeit

Im Lager eines WeinhAndlers befindet sich noch eine Kiste mit 30 Flaschen eines Rotweines Marke Retzbach, die allerdings schon seit langer Zeit dort lagern und deshalb die Gefahr besteht, dass sich der edle Tropfen bereits zu "Essig" gewandelt hat. Ein potenzieller
Abnehmer ist nun bereit diese Kiste zu einem Vorzugspreis abzunehmen, verlangt
aber, dass 5 Flaschen geffnet werden und bei der Verprobung mindestens 3 der 5 geffneten Flaschen einwandfrei sind. Nehmen wir nun an, dass die ersten beiden Flaschen bereits "Essig" waren. Wie gro sind nun unter dieser Bedingung die Wahrscheinlichkeiten
dafr, dass
a) die dritte Flasche, die gekostet wird, einwandfrei ist
b) der Kunde den Kauf letztendlich ttigt,
wenn tatschlich 40 % der Weinflaschen einwandfrei waren.

257

3. Theoretische Verteilungen
Definieren wir zur Lsung dieser Problemstellung die Indikatorvariable

J<; _ {1 falls I-te verprobte Weinflasche einwandfrei


o falls i-te verprobte Weinflasche bereits -Essig-.
Far die gesuchten Wahrscheinlichkeitsn gilt damit Folgendes:

a)

P(X, - jx, - o,X. - O) - ~~=~ - O,'286

Das Bild einer Hypergeometrischen Verteilung ist durch ihre FunkU'onalparameterlfll


N, Mund n bestimmt. Die Verteilungsfunlttton FlJW wird analog zur Binomialver- ~
teilung durch Summation der Einzelwahrscheinlichkeiten gebildet. Auch sie gibt
Auskunft ber die Wahrscheinlichkeit PCX S; X), dass hchstens x Kugeln mit der
Eigenschaft A in der Stichprobe enthalten sind.
3,1.2.2

Eigen.....aften

Der Erwartungswert einer H(N,M,n)-verteilten Zufallsvariable X ist identisch mit


dem einer B(n,M!N)...verteilten Zufallsvariable X.
M
E(X)=nN

Auch die Varianz ist hnlich. Sie unterscheidet sich nur durch einen zustzlichen
Faktor CN - n)/(N - 1). Es gilt
Var(X) =n. M
N

.(1-M).
N

N -n

N-1

Der auch hufig als Endllcbkeltskorrelttuifalttor bezeichnete Faktor (N - n)/(N - 1)


ist fr n > 1 stets kleiner als Eins. Damit ist auch die Varianz einer B(n,M!N)...
verteilten Zufallsvariable grer als die einer H(N,M,n)-verteilten. Dies ist unmittelbar einleuchtend, da die Varianz kleiner sein muss, wenn ohne Zurcklegen gezogen wird. Erhhen wir n bei konstantem N, so wird die Varianz immer geringer.
Ist n - N, gibt es schlielich nur noch ein mgliches Stichprobenergebnis und die
Varianz ist Null.
Ist der Auswahlsatz nlN sehr klein, ist der Faktor (N - n)/(N - 1) in der praktischen
Anwendung nahezu ohne Bedeutung (vgl. Abschnitt 11 3.1.2.3).

Boloplolll 311

Erwartungswert und Varianz

Von 20 Firmenkunden einer Bank verfUgen 12 aber eine Eigenkapilalausslatlung von mehr
als 20 %. Wie gro sind Erwartungswert und Varianz einer Zufallsvariablen X: "Anzahl der
Kunden in einer Stichprobe von 10 Kunden, deren Bilanz mehr als 20 % Eigenkapital aufweist-, wenn mit ZurOckiegen (a) oder ohne Zurucklegen (b) gezogen wird?

11 Wahrscheinlichkeitsrechnung

258
a) X ist B(10;12120)-verteilt.
M
12
E(X)=n =10. 20 =6

M (M)
12 20
8 =2,4
Var(X)=n'N'
1=10 20'

b) X ist H(20;12;1 O)-verteilt.


E(X)=6

Approximation durch die Binomialverteilung

3.1.2.3

Q.

10
Var(X)=2,4'19 =1,3

Ist der Umfang N der betrachteten Grundgesamtheit im Verhltnis zum Stlchprobenumfang n sehr gro, dann liegt die Vermutung nahe, dass das Nichtzurcklegen
keinen wesentlichen Einfluss auf die WahrscheinUchkeitsverteilung hat. Tatschlich
lsst sich beweisen, dass sich die wahrscheinlichkeitsfunktlon der H(N,M,n)Verteilung fr N ~ 00 und M!N - konstant fr alle x einer B(n,M!N)-Verteilung nhert. Beispiel II 3-12 zeigt die Gte der Verteilungsbereinstimmung auf. Zudem ist
darin ZU erkennen, dass fr grer werdendes N bei konstant kleinem n der Faktor
(N - n)/(N - 1), der die Varianz von Hypergeometrischer Verteilung und Binomialverteilung unterscheidet, gegen 1 konvergiert und so zwischen den heiden Vananzen kaum noch eine Differenz besteht.
Beispiel 113-12

AnnAherungsgOte

Zwei Lieferungen bestehen aus 100 bzw. 10 Gerten, von denen 30 bzw. 3 defekt sind.
Bel einer zuflligen Entnahme von 4 Geraten mit ZurOcklegen erhalten wir fOr belde Lieferungen dieselbe Binomialverleilung mit den Parametern n '" 4 und p '" MlN '" 0,3, d.h. die
Wahrscheinlichkeiten fUr das Auftreten von 0, 1, 2, 3 oder 4 defekten Gerten in der Auswahl bleiben gleich. Bei einer Entnahme ohne ZurUcklegen erhalten wir zwei Hypergeometrische Verteilungen mit N '" 100, M '" 30 und n '" 4 bzw. N '" 10, M '" 3, n '" 4.

0
1
2
3
4

E(X)
(N-n)/(n-1)
V.r(X)

Hypergeometrische Verteilungen
H(10;3;4)
H(100;30;4)
0,1667
0,2338
0,5000
0,4188
0,3000
0,2679
0,0725
0,0333
0,0070
1,0000
1,0000
1,20
1,20
0,67
0,97
0,58
0,81

Binomialverteilung
B(4;0,3)
0,2401
0,4118
0,2846
0,0756
0,0081
1,0000
1,20
1,00
0,84

Wir erkennen hier sehr schn, dass mit zunehmendem N bzw. fallendem nIN (n konstant)
der Faktor (N - n)/(n - 1) gegen 1 luft und sich die Varianzen immer mehr annhern.
Auerdem ist zu erkennen, dass sich die Werte von f(x) immer mehr hneln.

259

3. Theoretische Verteilungen

Als Faustregel knnen wir festhalten, dass eine H(N,M,n)-Verteilung dann hinreichend genau durch eine B(n,M!N)-Verteilung approximiert werden kann, wenn fr
den Auswahlsatz n/N

~~O,l

H(N,M,n) = B(n,MI N)

(113: 15)

gilt. Ist (113: 15) erfllt, ist der Effekt des Nichtzurcklegens vemachlssigbar klein,
sodass auch wenn eine Stichprobe ohne Zurcklegen gezogen wird, anstelle der
Hypergeometrischen Verteilung die Binomialverteilung zur Wabrscheinlichkeitsberechnung verwendet werden kann.

3.1.3

Poissonverteilung

3.1.3.1

Wahrscheinlichkeits- und Verteilungsfunktion

Binomial- oder hypergeometrisch verteilte Zufallsvariablen zhlen, wie oft bei nmaligem Ziehen aus einer Grundgesamtheit ein bestimmtes Ereignis A eintritt. Der
Wertebereich ist nach oben durch n begrenzt und somit endlich. Die Poissonver-

teilung eignet sich ebenfalls zur Modellierung von Zhlvorgngen. 2 Dabei werden

bestimmte Ereignisse gezhlt, die innerhalb eines festen, vorgegebenen Zeitinterval-

les eintreten knnen. Die mgliche Anzahl der Ereignisse ist nicht nach oben begrenzt. Typische Zhlvorgnge dieser Art sind beispielsweise die Anzahl von Schadensmeldungen bei einer Versicherung innerhalb eines Jahres, die Anzahl von
Krankheitsfallen einer seltenen Krankheit, oder die Anzahl von Kunden, die in
einem Monat bei einer Bank einen Kredit beantragen.

Eine diskrete Zufallsvariable X heit poissonverteilt, wenn ihre Wahrscheinlichkeitsfunktion f,Jx) mit .. > 0 und e als Eulerscher Zahl (2,71828 ... ) die Gestalt
f" (x) =

{:~

o'

e-'

fr x = 0,1,2, ...

O!3: 16)

sonst

besitzt. Wir schreiben kurz X - Po('<'). Das Besondere an dieser Verteilung ist, dass
X die Null und alle narrlichen Zahlen annehmen kann. Der Faktor x! im Nenner
der wahrscheinlichkeitsfunktion sorgt dafr, dass die Wahrscheinlichkeiten mit zunehmendem x trotz des ..' im Zhler schnell sehr klein werden. Egal wie gro x
aber auch werden mag, bleiben die f",(x) immer positiv (vgl. Beispiel 11 3-13).

Funktionalparameter einer Poissonverteilung ist allein ... Je grer .. ist, desto


mehr verschiebt sich das Zentrum der Verteilung entlang der natrlichen Zahlengerade nach rechts und desto grer wird die Streuung der Verteilung.
Die Verteilungifunktion F",(x) der Poissonverteilung ist fr x ~ 0 defmiert als
Fpo(x) = e-' .

L-, .
. . .v

v=o

v.

O!3: 17)

2 Auch die geometrische Verteilung (vgl. Abschnitt 11 3.2.2.2) modelliert einen Zhlvorgang.
Hier zhlt man, wie lange man warten muss, bis ein Ereignis A zum ersten Mal eintritt.

260 ________.:========~

Bit

__I~IW~ah:.::=Ch~.=in~l=ich=ko:.::its=ro:.::Ch~n~U~n~g
..

Bel.plelU 3-13

Po(4)

Fur eine Po(4)-verteilte Zufallsvariable X nehmen Wahrscheinlichkeits- und Verteilungs-

funktion folgende Werte an:


X

0
1
2
3
4

fPQ(x)
0,0183
0,0733
0,1465
0,1954
0,1954

FPQ(x)
0,0183

0,0916
0,2381
0,4335
0,6288

6
7
8
9

FPQ(x)
0,7851
0,8893

fp,,(x)
0,1563
0,1042
0,0595
0,0298
0,0132

0,9489
0,9786
0,9919

'PrIx)

10
11
12
13
14

0,0053
0,0019
0,0006
0,0002
0,0001

FPQ(x)
0,9972
0,9991
0,9997
0,9999
1,0000

Grafisch zeigt die Wahrscheinlichkeitsverteilung damit folgendes Bild:


'PQ(x)

0,20

0,10

10

15

Eine klassische Anwendung der Poissonverteilung findet sich in sog. WartescblangenmodeUen. bei denen die Anzahl der Anknfte in einer Warteschlange pro Zeiteinheit (z.B. vor einem Bankschalter oder einem Grenzbergang) untersucht wird.3
Die Anknfte werden dabei als stochastisch und die Zahl der Anknfte als poissonverteilt angesehen. Eine wichtige Voraussetzung fr Verwendung der Poissonverteilung ist aber, dass die A.nIn1njte unabbdngtg vonetnander erfolgen. Als ).
verwenden wir in solchen Modellen die mittlere Ankunftsrate.

Beispiel 11 3-14

Warteschlangenmodell

In einer kleinen Bankfiliale auf dem Land erscheinen an einem Bankschalter im Durchschnitt pro Stunde 4 Kunden, um ihre Bankgeschfte abzuwickeln. Der Filialdirektor interessiert sich nun daffir, wie gro die Wahrscheinlichkeit dafOr ist, dass in einer Stunde
mehr als 8 Kunden auftauchen. Unter Verwendung der Tabelle aus Beispiel 113-13 gilt fOr
diese Wahrscheinlichkeit P(X > 9) = 1-P(X S 8) = 1-0,9786 = 0,0214.

3 Eine detaillierte Beschreibung des Zusammenhanges der Warteschlangentheorle und der


Poisson-Verteilung findet sich z.B. in Fahnneir, L., Knstler, R., Pigeot, 1., Tutz, G. (2007).

261

3. Theoretische Verteilungen

Eine weitere Anwendung findet man beim Gesetz des radioaktiven Zetjal/s. Hier
wird die Anzahl der in einem festen Zeitintervall zerfallenden Atome einer radioaktiven Substanz als poissonverteilt angesehen. Auch gelten z.B. die Anzahl der innerhalb von 15 Minuten in einer Telefonzentrale eingehenden Gesprche oder die
innerhalb einer Stunde aus einem Lager entnommenen Waren als poissonverteilt.
3.1.3.2

Eigenschaften

Es lsst sich zeigen, dass Enoartungswert und Varianz der Poissonverteilung stets
gleich ihrem Funktionalparameter I.. sind. Es gilt also
E(X) = I..

O!3: 18)

Var(X) =1.. .

(113: 19)

Wie die Binontialverteilung besitzt auch die Poissonverteilung die Eigenschaft der
Reproduktivitt. Dies bedeutet, dass fr die beiden unabhngigen Zufallsvariablen
X - Po(l..,) und Y - Po(A.,) stets X + Y - Po(l.., + A.,) gilt.
3.1.3.3

Approximation

Die Poissonverteilung ist vor allem dadurch interessant, dass sie eine Approximationsmglichkeit fr die Binomialverteilung (und dantit auch fr die Hypergeometrische Verteilung) darstellt. Diese ist konkret gegeben, wenn eine sehr groe Zahl
n von Versuchen und sehr kleine Wahrscheinlichkeiten p fr das Auftreten des Ereignisses A vorliegen (streng genommen n -+~, p -+ 0 und n . p - I.. - konstant).
Empirisch ist die Poissonverteilung also besonders dann gut geeignet, wenn man
registriert, wie oft ein bei einmaliger Durchfhrung sehr unwahrscheinliches Ereignis bei vielen Wiederholungen eintritt. Man spricht daher auch hufig von einer
Verteilung der seltenen Ereignisse. So knnte also z.B. die Anzahl der "Sechser" pro
Ausspielung im Zahlenlotto oder die Anzahl von einer Versicherung zu regulierenden Schadensflle pro Zeiteinheit als poissonverteilt angenommen werden.
Eine Binomialverteilung oder genauer B(n,p)-Verteilung kann durch eine Po(np)Verteilung approximiert werden, wenn die beiden Bedingungen
n ~50 }
p ';;0,1

-7

B(n, p) ~ Po(n' p)

(113: 20)

erfllt sind. Liegt (113: 20) vor, verursacht die Approximation meist nur einen vernachlssigbar kleinen Fehler. Wir erkennen, dass bei der Approximation fr den
Parameter . der Poissonverteilung der Erwartungswert der Binomialverteilung verwendet wird. Wir sehen auch, dass fr sehr kleine p bei der Binontialverteilung
Eex) ~ Var(X) gilt.

Beispiel 11 3-15

Approximation der Binomialverteilung

In der Buchhaltung eines Grokonzerns kommt es bei der sehr groen Zahl an tglich anfallenden Buchungen in der Regel zu 0,1 % Fehlbuchungen. Es werden nun 3.000
Buchungen rein zufllig auf Richtigkeit uberprft. Wie gro ist die Wahrscheinlichkeit, dass
in dieser Stichprobe 5 fehlerhafte gefunden werden?

11 Wahrscheinlichkeitsrechnung

262

Da ohne ZurOcklegen gezogen wird, wre die gesuchte Wahrscheinlichkeit mit Hilfe der
Hypergeometrischen Verteilung zu ermitteln. Da die Gesamtzahl der Buchungen jedoch
sehr gro ist, ist eine Nlherung durch die B(3.000;O,001)-Verteilung legitim. Aufgrund der

sehr geringen Wahrscheinlichkeit p kann aber diese wiederum durch die Poissonverteilung
approximiert werden. Es gilt also mit). _ 3.000 . 0,001 _ 3

P(X - 5) fPII (5) -

3'

51' 8-3 -

0,1008.

Beispiel 11 3-18

Anwendungsfall: Kredilrisiko

Bel der Kalkulation von Prmien (vgl. auch Beispiel 11 3-27) tOr das von Banken zu tragende Kredilausfallrisiko werden hufig stochastische Modelle zur UnterstCrtzung herangezogen. So kann z.8. die Hufigkeit von Kreditausfllen bei sehr kleinen Ausfallwahrscheinlichkeiten der einzelnen Kredite als niiherungsweise Po(J..)-verteili angesehen werden,
wenn die AusfAlle unabhAngig voneinander erfolgen. Betrachten wir dazu ein Beispiel:
Eine Bankfiliale mit einem Portfolio von 1.000 Krediten schAtzt die Ausfallwahrscheinlichkeit eines einzelnen Kredits auf 1 %. Die Wahrscheinlichkeit, dass es innerhalb eines
Jahres zu mehr als x Ausfallen kommt, kann nun bei einem Erwanungswert von
). '" 1.000 0,01 '" 10 wie folgt angegeben werden:
P(X>x) =l-P(XSx) =1_e-10

x 10w
L-

vi

Die Wahrscheinlichkeit dafijr, dass mehr als 2 % der Kredite ausfallen, liegt demnach unter
Verwendung der Tabellen fOr die Verteilungsfunktion der Poissonverteilung bei
P(X > 20) = 1-P(XS 20) = 1_e-10

10 = 1-0,9984 = 0,0016.
w..Q vi

Wir erkennen an der formelmAlgen ZUsammensetzung der Wahrscheinlichkeit, dass der


Summenterm bei zunehmendem x immer grOer und damit die Wahrscheinlichkeit
P(X > x) immer kleiner wird. So liegt etwa die Wahrscheinlichkeit dafr, dass mehr als 3 %
der Kredite uneinbringlich werden, nur noch bei 0,00000008.

Q.

Beispiel 11 3-17

Gate der Approximation einer Binomialverteilung

Die folgende Tabelle verdeutlicht die Gate der AnnAherung einer Binomialverteilung mit
n _ 100 und p - 0,03 durch eine Poissonverteilung mit). -1000,03 - 3.

8(100;0,03)

Po(3)

0
1
2
3

0,0476
0,1471

0,0498
0,1494

0,2275
0,1706

0,2240
0,1680

5
6
7
8
9
10

E(X)

Va,

0,2252

0,1013
0,0496
0,0206
0,0074
0,0023
00007

300
291

0,2240

0,1008
0,0504

0,0216

0,0081
0,0027
00008
300
300

263

3. Theoretische Verteilungen

Fr die Approximation der Hyt>ergeometrlscben Verteilung wird zustzlich zu den


Bedingungen in (TI3: 20) geprft, ob n!N S 0,1 ist, und bei ErfUllung H(M,N,n)
durch P(n M/N) approximiert. Wir sehen auch hier wieder, dass im Rahmen der
Approximation fr ).. der Erwartungswert der zu approximierenden Verteilung
herangezogen wird.

3.2 Stetige Verteilungen


3.2.1

Gleichverteilung

3.2.1.1

DkJrte. UDd VerteilUDgsfunktioD

Sind a und b reelle Zahlen mit a < b, so heit eine stetige Zufallsvarlable X, die folgende DIchtefunktion fI(x) besitzt, gleicbverteilt im Intervall [a,bl, rechteckverteilt
oder uniform-verteilt. Wir schreiben kurz X - R(a, b).

< <b
' ( ) _ -1- f ra_x_
11x-b-a
{
o
sonst

(D3,21)

Die Realisationen x der stetigen Gleichverteilung liegen zwischen den beiden endlichen Grenzen a und b. Abbildung 11 20 zeigt anschaulich, warum diese Verteilung
auch als Rechteckverteilung bezeichnet wird. Da die Breite dieses ~Rechtecksn bei
b - a und seine Hhe bei 1/(b - a) liegt, ergibt sich eine Rechtecksflche von genau 1. Dies muss auch gelten, da es sich bei f.(x) sonst nicht um eine Dichtefunktion handeln wrde.

1
b-a

o ~----~-----L---L--_--~b--------X
X X+llA.
Abbildung 11 20: Dichtefunktion der stetigen Gleichverteilung
Abbildung 11 20 zeigt auch, dass sich die Wahrscheinlichkeit dafr, dass die gleichverteilte Zufallsvarlable X einen Wert zwischen x und x + .AI: annimmt (allein abhngig von Ax und nicht von x), wie folgt ergibt:
1

P(xSXSx+.dx)=--Ax

b-a

(D3,22)

Durch Integration der Dichtefunktion ergibt sich die Vertetlungsfunktion FI(x) der
stetigen Gleichverteilung als

11 Wahrscheinlichkeitsrechnung

264

x <a

x-a

FR(x)= - -

{ b-a

fr aSxS:b.

0I3,23)

x> b

Die Funlttionalparameter der Verteilung sind a und b. Der Graf der Verteilungsfunktion F.W ist in Abbildung 11 21 dargestellt.
F.(x)

~------a~~------~b----+X

Abbildung 11 21: Verteilungsfunktion der stetigen Gleichverteilung


EntJartungswert und Varianz einer gleichverteilten stetigen Zufallsvariablen X er-

geben sich nach den in Kapitel II 2.4.1 und 11 2.4.2 definierten Vorschriften zu

E(X) = a + b
2

Var(X) =

eb - aY
12

Beispiel 11 3-18

0I3, 24)

013, 25)
Stetige Glelchvenellung

Die Zeit, die ein Arbeiter von seinem Arbeitsplatz zu seinem Zuhause bentigt, sei gleichverteilt zwischen 20 und 30 Minuten. Wieviel Zeit nimmt sein Heimweg im Durchschnitt in
Anspruch? Wie gro ist die Wahrscheinlichkeit, dass der Arbeiter zwischen 24 und 26
Minuten bentigt?
Die Zufallsvariable X: Zeit rur den Heimweg- ist R(20;30)-verteilt, sodass Folgendes gilt:

E(X) = (20+30)/2 = 25 Minuten

P(24 <X < 26) = 0,1(26-24) = 0,2


3,2,1.2
Besitzt eine diskrete Zufallsvariable X genau k Ausprgungen Xi mit einer Eintrittswahrscheinlichkeit von jeweils l/k., so lautet ihre WabrscbelnllcblteltsfunltUon fu{x;)
I/k

f'u(x) = { 0

sonst

265

3. Theoretische Verteilungen

Die verteaungsfunkUon Fu(x) ergibt sich, wie bei jeder diskreten Zufallsvariable,
durch Kumulation der entsprechenden Werte der wahrscheinlichkeitsfunktion.
Der Erwartungswert und die Varianz der Zufallsvariablen X knnen ganz einfach
mit 002: 21) und 00: 31) berechnet werden.

Beispiel 11 3-19

Diskrete Gleichverteilung Q .

Ein typisches Beispiel ffir eine diskrete Gleichverteilung bietet die Zufallsvariable X: -Augenzahl beim einmaligen WOrfelwurf- (Spezialfall Xi _ i). Wahrscheinlichkeits- und Verteilungsfunktion zeigen dabei folgendes Bild:
1u(x)

I,(x) =f~6
1/6

I I I I I I
2

Fu(x)

0.5

,,

,,

,,

x<1
0 10r
1/6 fUr 1S:x<2
2/6 fUr 2Sx<3
Fu(x) - 3/6 fUr 3Sx<4
4/6 fUr 4sx<S
5/6 10r 5Sx<6
fUr 6sx

,,

,,

fur x'" 1,2, ... ,6


sonst

Fur die Zufallsvariable X ergibt sich 1ur den ElWartungswert


1

E(X) - -Li - 3,5


6 "'

und die Varianz


1

VarIX) = - Lli-3.5)' = 2,92.


6 I_I
Bei einer sehr groen Anzahl wiederholter Wurfe, z.B. 1.000, wird also die Summe der
gewurfelten Augenzahlen etwa 1.000 . 3,5 '" 3.500 betragen.

266

11 Wahrscheinlichkeitsrechnung

3.2.2

Exponentialverteilung

3.2.2.1

Dichte- und Verteungsfunktion

Besitzt eine stetige Zufallsvariable X folgende Dicbtefunktion f",(x) mit A. > 0 und e
als Eulerscher Zahl, so heit sie exponentialverteilt. Wir schreiben kurz X - Ex(.l).
fr x ~ 0
sonst

f.. (x) = {A.' e-'"

013: 27)

Die Wahrscheinlichkeit P(X S x), mit der eine exponentialverteilte Zufallsvariable X


hchstens einen Wert x annehmen kann, ist durch ihre Verteilungifunktion F",(x)
bestimmt. Diese entsteht durch Integration der Dichtefunktion f",(x) als
frx<O
fr x~O'

0
F.. (x)= { l_e-h

(II3: 28)

Fr Erwartungswert und Vartanz einer exponentialverteilten Zufallsvariablen X gilt

O!3: 29)

E(X)=i
1

Var(X) = A.'

(II3: 30)

Die Exponentialverteilung findet hufig bei Zufallsvariablen Anwendung, die bei


der Messung von Zeitspannen (z.B. in Warteschlangenmodellen und Modellen der
Instandhaltungsplanung) auftreten. So knnen etwa die Lebensdauern von Bauteilen, Servicezeiten (Reparaturdauer, Beladezeit eines Lieferwagens, Kundenabfertigungszeit) oder Zeitlcken zwischen dem Eintreffen zweier Pkws an einem Grenzbergang als exponentialverteilt angenommen werden. Der Parameter A. ist dann
als durchschnittliche Abfertigungszeit, Servicezeit etc. ZU interpretieren.

Beispiel 11 3-20

Warteschlangen

Die Zufallsvariable X beschreibe die Zeit zwischen den Anknften zweier Kunden am
Schalter einer Bank. Durchschnittlich vergehen 0,6 Minuten zwischen dem Eintreffen
zweier Kunden.
Wie gro ist die Wahrscheinlichkeit dafur, dass zwischen den Ankunften zweier Kunden
mehr als 3 Minuten verstreichen, falls wir die Exponentialverteilung unterstellen?

P(X > 3) = 1- P(X S 3) = 1-F,,(3) = 1_(1_ e -O,8-3) = 1-0,8347 = 0,1653


Der einzige Funktionalparameter A. bestimmt die exakte Fonn der Dichtefunktion.

Im Beispiel II 3-21 sind die Dichtefunktionen fr einige ausgewhlte Werte von A.

abgebildet. Wir erkennen, dass die Dichtefunktion fr negative x den Wert Null
annimmt und bei x = 0 auf den Wert A. springt, um von da an monoton ZU fallen
und asymptotisch gegen die x-Achse zu konvergieren. Je grer A. ist, desto
"schneller" konvergiert die Dichte f",(x) bei zunehmendem x gegen Null. Bei
groem A. konvergiert natrlich auch die Verteilungsfunktion F",(x) "schneller" gegen Eins.

3. Theoretische Verteilungen

267

Bel.plelU 321

2,0

Ausgewllhlte ExponentlaIverteIlungen

1. .. 2

0,0

0,5

1,0

1,5

F,,(x)
1,0

'.2

_--2,0

---

2,5

3,0

............................................. .........

,....

--

", , "

----

'

0,5

.'

,~

"

.'

~----~----~-----------------------+x

0,0

0,5

1,0

1,5

2,0

2,5

3,0

Die Exponentialverteilung wird gelegentlich auch als Verteilung ohne Gedchtnis


bezeichnet. Dies beruht auf der Tatsache, dass eine stetige Zufallsvariable genau
dann exponentialverteilt ist, wenn fr alle a ~ 0 und b ~ 0 die folgende Bedingung
(sog. Markov-Eigenschaft) gilt: 4
P(X S; a + b I X ~ a) = P(X S; b)
(113, 31)
Angenommen, die ZufaUsvariable X beschreibt die Lebensdauer einer Glhbirne,
so besagt CD3: 31) dabei, dass die bedingte Verteilung der weiteren Lebensdauer b
unabhngig von der bereits erreichten Lebensdauer a ist. Anders ausgedrckt, hat
die Zeit, die die Glhbirne bisher brannte, keinen Einfluss auf die Zeit, die die
Glhbirne in Zukunft noch brennen wird.
Gerade diese Eigenschaft der Exponentialverteilung macht sie aber fr gewisse
praktische Sachverhalte untauglich. Erfasst eine Zufallsvariable Z.B. die Dauer der
4 Den Beweis dieser Eigenschaft berlassen wir in Aufgabe V9 dem Leser.

268

11 Wahrscheinlichkeitsrechnung

Arbeitslosigkeit einer Person, so zeigt sich in der Empirie, dass die Wahrscheinlichkeit, die Arbeitslosigkeit in einem bestimmten Zeitintervall zu beenden, durchaus von der bisherigen Dauer der Arbeitslosigkeit abhngt, da es fr Langzeitarbeitslose in der Regel problematischer ist, wieder ins Berufsleben einzusteigen.
Eine Exponentialverteilung wre daher fr die ModelIierung der Arbeitslosigkeitsdauer ungeeignet. 5
3.2.2.2

Diskretes Gegenstck

Fhren wir ein Bemoulli-Experiment mit einer Erfolgswahrscheinlichkeit von p


(Misserfolgswahrscheinlichkeit 1 - p) so oft aus, bis zum ersten Mal ein Erfolg eintritt, und verwenden wir die Zufallsvariable X: "Anzahl der Misserfolge bis zum ersten Erfolg" (x - 0,1,2, ... ), so betrgt die Wahrscheinlichkeit dabei genau x Misserfolge zu erzielen nach dem Multiplikationssatz fr unabhngige Ereignisse
([[3: 32)

p(X = x) = (1-p)'. p.

Eine diskrete Zufallsvariable X mit folgender Wahrschelnltchkeltsjunktton fG(x) bezeichnen wir als geometrisch verteilt. Wir schreiben kurz X - G(p).
fG(X)

-_{(1-PY'P x=0,1,2, ...


o
sonst

([[3: 33)

Mit zunehmendem x nehmen hier die Wahrscheinlichkeiten beginnend beim Wert


fG(O) - p ab. Wie daran und auch an der graBschen Form der Verteilung (vgl. Beispiel [[ 3-22) unschwer ZU erkennen ist, handelt es sich bei der geometrischen Verteilung um das diskrete Gegenstck zur Exponentialverteilung. 6
Eine weitere interessante Eigenschaft dieser Verteilung ist

fG(x + 1) = (1- p).


fG(x)

([[3: 34)

Die Misserfolgswahrscheinlichkeit (1 - p) kann also aus zwei aufeinanderfolgenden


Funktionswerten der Wahrscheinlichkeitsfunktion ermittelt werden. Gleichzeitig
knnen wir sagen, dass die Wahrscheinlichkeiten bei zunehmendem x mit dem
Term 1 - P abnehmen, da fG(x + 1) - fG(x)' (1 - p) gilt. Je grer also p ist, desto
kleiner ist der Term 1 - P und desto schneller nehmen die Wahrscheinlichkeiten
ab. Diese Abnahme der Wahrscheinlichkeiten sorgt schlielich dafr, dass ihre
Summe den Wert 1 annimmt:

LfG(x)=LP'(1-p)'=p' L(1-p)' =p'


=1
l-(1-p)

1:=0

l:"'O~
-::...=o"=-,geom.~'_",",~'

5 Die sog. Weibull-Verteilung weit diese Eigenschaft nicht auf. Fr eine detaillierte Behandlung dieser speziellen Verteilung vgl. z.B. Hartung et al. (2005).
6 Die Exponentialverteilung steht auch in engem Zusanunenhang zur Poissonverteilung. Die
Anzahl von Ereignissen in einem Zeitintervall ist nmlich genau dann PoCA,)-verteilt, wenn
die Zeitdauem zwischen aufeinanderl'olgenden Ereignissen unabhngig und exponentialverteilt mit dem Parameter A. sind.

3. Theoretische Verteilungen

269

Die VerteIlungsjunkNon FG(x) der geometrischen Verteilung lautet


FG(x) = {

0
():1+1
1- l-p

x<o
x=O,I,~ ...

(D3,35)

Funlttionalparameterder geometrischen VerteUung ist allein die Erfolgswaluscheinlichkeit p. Fr Erwartungswert und Vartanz der geometrischen Verteilung gilt:

E(X) = 1- P
P

(D3, 36)

V(X)=I-p

(D3,37)

p'

Boloplolll 322

Wahrscheinlichkeitsfunktionen von G(0,3) und G(0,1)

FOr die Werte PI - 0,3 (Punkte) und P2 - 0,1 (Rechtecke) ergeben sich folgende Wahrscheinlichkeitsfunktionen:

0,3

0,1

+
3

Beispiel 11 323

+
4

10

Gesamtbeispiel geometrische Veneilung

Sie befinden sich in der Frankfurter Innenstadt und haben Ihr Mobiltelefon vergessen, sodass Sie sich kein Taxi rufen knnen. Sie sind also darauf angewiesen zu warten, bis das
nAchste freie Taxi vorbeikommt. Aus Erfahrungswerten wissen Sie, dass die Wahrscheinlichkeit dafur, dass Sie das nchste vorbeikommene Taxi bekommen, bei 20 % liegt.
Die Wahrscheinlichkeit, nicht mehr als 2 Taxen abwarten zu mussen, liegt damit bei
FQ (l) = 1- (1-0, 2)1+1 = 0,36 .
Die Wahrscheinlichkeit mehr als 10 Taxen abwarten zu mussen ergibt sich zu
P(X > 10) - 1-FG (10) _ 1_[1_(1_0,2)10+1] - 1-0,9141 - 0,0859.
Im Durchschnitt mussen Sie
1-02
E(X)=--' =4 Taxen
0,2
abwanen.

11 Wahrscheinlichkeitsrechnung

270

Auch die geometrische Verteilung ist eine Verteilung ohne Gedchtnis. So knnen
wir z.B. in Beispiel II 3-23 zeigen, dass die Wahrscheinlichkeit weitere 10 Minuten
warten zu mssen, nachdem man bereits 20 Minuten gewartet hat, immer noch
0,3138 betrgt.

3.2.3

Normalverteilung

3.2.3.1

Dichte- und Verteilungsfunktion

Die auch als Gau-Verteilung bezeicbnete Normalverteilung (nach Abraham DeMoivre und Carl Friedrich Gau) ist die wohl wichtigste statistische Verteilung. Fr
die zentrale Rolle der Normalverteilung in der Statistik gibt es mehrere Grnde:

Viele Zufallsvariablen, die in Experimenten oder Sticbprobenerhebungen in


der Praxis auftreten, sind zumindest nherungsweise nonnalverteilt. Dies gilt
insbesondere fr biologische, physikalische oder technische Variablen, wie
z.B. die Gre, das Gewicht oder den Intelligenzquotienten von Menschen.

Gewisse nicht normalverteilte Zufallsvariablen kann man so trans/armieren,


dass die resultierenden Variablen normalverteilt sind 7

Die Normalverteilung ist eine Grenzverteilung zahlreicber anderer Verteilungen, was unter bestimmten Bedingungen die Approximation dieser Verteilungen durch die Normalverteilung ermglicbt8

In statistischen Schtz- und Testverfahren kommen oft Gren vor, die normalverteilt sind oder sich bei Grenzbergngen einer Normalverteilung nhern. Letzteres fmdet eine theoretische Begrndung durch den sog. Zentralen
Grenzwertsatz (vf!). Abschnitt II 3.4.1).

Ist X eine mit den Parametern 11 und ri' normalverteilte Zufallsvariable, X - N(p, d'J,
so lautet die Dichte/unktion fix) folgendermaen:
1
_(JI:_I1)2
f(x)=--e 20'2
N

..Ji.iicr

fr-oo<x<+co

OB: 38)

Dabei sind 0 > 0, 1t = 3,14159 ... und e = 2,71828 .... Diese Dichtefunktion (vf!). Abbildung II 22) weist folgende Eigenschaften auf:

oo.

Fr alle x gilt stets fN(x) > 0 und fN(x) --+ 0 fr x --+

fN(x) ist symmetrisch zur Senkrechten x

fN(I1-x)= fN(I1+ x ) fr alle XE IR.


(II3: 39)
Die Flche unter fN(x) von - bis 11 entspricht der Flche unter fN(x) von 11 bis
+00. Beide Flchen weisen einen Flcheninhalt von jeweils 0,5 auf.

fN(x) besitzt an der Stelle x

11. Es gilt daher

11 ihr absolutes Maximum von fNCI!) = ;"., .

Ihre Wendepunkte liegen bei x

11- 0 und x

11 +

0.

7 Vgl. z.B. die Potenzierungstransformation nach ehen und Deo (2004).


8 Die Approximation ausgewhlter diskreter Verteilungen behandeln wir unter II 3.4. Die
Approximation sog. Testverteilungen haben wir in die Beschreibung dieser Verteilungen in
Abschnitt II 3.3 integriert.

3. Theoretische Verteilungen

271

Die VerteIlungsjunkNon FN(x) der Normalverteilung ist als


FN(x) =

J r::=
"

(Y-I'I

_ ",2M

e ~ dv

definiert. Sie zeigt einen S-frmigen Verlauf (vgL Abbildung n 22), besitzt einen
Wendepunkt bei x - ~ und es gilt FN(X)~O fr X~--OO sowie FN(x)~l fr x~+oo.
fN(x)

Fix)
1,0

0,5

0,0 L--.--;:::::'~---i-~-~-~--+

Abbildung n 22: Dichte- und Verteilungsfunktion der Nonnalverteilung


Fr unterschiedliche Ausprgungen der Funlttionalpammeter ~ und ti ergeben
sich unterschiedliche Normalverteilungsdichten. Halten wir etwa J.1 konstant und
variieren nur ti, so wird die KUl'Ve immer flacher, je grer ti wird. Abbildung n
23 veranschaulicht dies. Verndern wir nur J.I. bei konstantem ti, so kommt es zu
einer Verschiebung der Kurve nach "links" oder "rechts" (vgl. Abbildung 11 24). Wir
erkennen an den Abbildungen, dass es sich bei ~ um einen Lageparameter und bei

272

11 Wahrscheinlichkeitsrechnung

a' um einen Streuungsparameter der Verteilung handelt, d.h. fr Erwartungswert


und Varianz einer NQ!.,a')-verteiiten Zufallsvariable X gilt
E(X) = IJ.
Var(X)

= 0'

(113: 41)
(113: 42)

!"

_......... "",'

;'

'ji

,'/

,.,.

x
Abbildung 11 23: Skizzierte NV-Dichtefunktionen fr verschiedene

f.ex)

N(IJ."o')

'T\
,1\
.
. , N(IJ."a')
I .i \
,' .i ,
I .i \ ' .i ,,
I i \ ,' .i ,
I l \' l I
i

\,

,\

! J !

!! \ I
,

\(

i'

'

'

'

\,

\
\

', __
x

Abbildung 11 24: Skizzierte NV-Dichtefunktionen fr verschiedene IJ.

273

3. Theoretische Verteilungen

3.2.3.2
Eine Normalverteilung mit ~ - 0 und rI - 1, also N(O;!), heit Standardnormalverteilung (normierte Normalverteilung). Da in der statistischen literatur eine standardnonnalverteilte Zufallsvariable meist mit Z und deren Dichte mit 'P bezeichnet werden, wollen wir uns ebenso dieser Notation bedienen, sodass sich fr die Dichte
~(z) =

1 -"
=
e '
v2~

cn3, 43)

sclueiben lsst. Diese Dichtefunktion ist in Abbildung II 25 skizziert. Wir erkennen


daran, dass bei einer N(O;l)...Verteilung 68,27 % der x-Werte im Intervall [-1; 1] (entspricht einem Intervall von einer Standardabweichung um den Erwartungswert)
liegen. Im Intervall [-3; 3] (entspricht einem Intervall von drei Standardabweichungen um den Erwartungswert) befinden sich bereits 99,73 % der Werte.

cp(z)

Ausgewhlte
Flchenanteile:

0,399

68,27 %

+---- ---------[-2;21

95,45 %

-----~

--------+

-3

-2

-1

99,73%

Abbildung II 25: Dichtefunktion der Standardnonnalverteilung


Durch Integration der Dichtefunktion cpCz) erhalten wir die Verteilungs/unktion
~(z) der Standardnonnalverteilung. Auch sie weist wie die Verteilungsfunktion der
Normalverteilung einen S-fOrmigen Verlauf auf und gibt die Wahrscheinlichkeit
P(Z S; z) - 4I(z) an.
Ist c eine beliebige Konstante, so knnen wir aufgrund der Symmetrleeigenscbaft
der Nonnalverteilung fr ihre Verteilungsfunktion den Zusammenhang
P(XS;J.1-c)=P(X~J.1+c)

FN CJ.1-c)=l-FN CJ.1+c)

festhalten, wonach fr die Verteilungsfunktion der Standardnormalverteilung


P(Z S --cl = P(Z <!: c)
gilt.

<1>(-<) = 1- <I>(c)

cn3,44)

11 Wahrscheinlichkeitsrechnung

274

Aufgrund ihrer enormen Bedeutung fr die induktive Statistik wollen wir im Folgenden noch auf weitere Eigenschaften der Standardnormalverteilung eingehen:

1. Transformationseigenschaft der Standardnormatvertellung


Ist X eine N(I1,CI')-verteilte Zufallsvanable, so kann diese durch eine spezielle Art
der linearen Transformation, nmlich die Standardisierung
X-11
Z=a+bX
mit a= -11 , b=1
Z=-CI
CI
CI
in eine N(O;l)- bzw. standardnormalverteilte Zufallsvariable Z berfhrt werden.
Durch die Standardisierung wird E(Z) = und Var(Z) = 1 erreicht (vgl. Abschnitt II
2.4.2.3), sodass wir zusammenfassend Folgendes festhalten knnen:

X - N(I1,CI')

-+

Z = X-11 - N(O;1)
CI

(II3: 45)

Aufgrund dieser sog. Transjormationseigenschaft reicht es fr die Anwendung der


Normalverteilung aus, die Verteilungsfunktion der Standardnormalverteilung zu
tabellieren. 9 Da zudem nach (I!3: 44) die Beziehung 4>(-z) = 1 - 4>(z) gilt, mssen
in Tabellen zur Standardnormalverteilung nur die Wahrscheinlichkeiten fr z ;:,
aufgenommen werden. Auszugsweise sieht eine solche Tabelle daher wie folgt aus:

z
0,0
0,2
0,4
0,6
0,8

4>(z)
0,5000
0,5793
0,6554
0,7257
0,7881

z
1,0
1,2
1,4
1,6
1,8

4>(z)
0,8413
0,8849
0,9192
0,9452
0,9641

z
2,0
2,2
2,4
2,6
2,8

4>(z)
0,9772
0,9861
0,9918
0,9953
0,9974

Interessieren wir uns fr die Wahrscheinlichkeit P(Z ~ 2), so knnen wir diese aus
obiger Tabelle als 4>(2) = 0, 9772 ablesen. P(Z ~ -2) ergibt sich hingegen aufgrund
von (II3: 44) als 4>(-2) = 1- 4>(2) = 1- 0, 9772 = 0, 0228. Zur schnellen Wahrscheinlichkeitsbestirnrnung haben wir im Online-Service ein Excel-Tool hinterlegt.
Fr die Verteilungsfunktionen von Normalverteilung FN(x) und Standardnormalverteilung 4>(x) knnen wir folgenden Zusammenhang zeigen:
FN(x) =P(X ~ x) = p(X

:11 ~ x: 11) =p( Z ~ x:11) = 4>( x: 11) =4>(z)

Die Wahrscheinlichkeit, dass eine mit 11 und CI' normalverteilte Zufallsvariable X


hchstens den Wert x annimmt, kann also direkt aus den Tabellen der Standardnonnalverteilung entnommen werden:

P(X ~ x) = 4>( x

:11)

O!3: 46)

Eine Tabellierung ist erforderlich, da keine Stammfunktion der Dichte der Norrnalverteilung existiert. Das Integral FN(X) kann nur mit Nherungsverfahren der numerischen
Mathematik gelst werden.

275

3. Theoretische Verteilungen

2. IntervallwahrscheinUcbkeiten

Ist die wahrscheinlichkeit dafr gesucht, dass eine N(I1,cr')-verteiite Zufallsvariable X einen Wert zwischen x,. und x, annimmt, so gilt
P(xu ";X";x,)=P(x u <X";xo )
= P(X"; x o ) -P(X:5: x u) = FN(xo )

FN(x u)'

Unter Verwendung von (II3: 46) knnen wir auch Folgendes scheiben:
P(x u ,,; X"; x o ) = 11>( x o ;

11) -II>( x u; 11) = lI>(z,) -1I>(zu)

OB: 47)

Eine weitere in der Praxis interessante Fragestellung ist hufig, wie gro die

Wahrscheinlichkeit dafr ist, dass eine NCIl,cr')-verteiite Zufallsvariable X um


hchstens einen Wert c > 0 von 11 abweicht. Diese errechnet man unter Bercksichtigung von OB: 44) wie folgt:
P(I1-c"; X";

11+ c)= FN(I1+c) -FN(I1- c) = 11>(11+ ~ -11 )_II>(I1-~ -11)


=

II>(~) -11>(:) = II>(~) - [1-1I>(~)]

Dies kann man weiter zusammenfassen zu

P(I1- c :5: X:5: 11 + c) = 211> (~) -1 .

(II3: 48)

Interessieren wir uns fr die Wahrscheinlichkeit, dass eine N(I1.cr')-verteiite


Zufallsvariable X Werte in einem Intervall 11- kcr ,,; X ,,; 11 + kcr mit k > 0 (sog.
ku-Bereich) annimmt, so ergibt sich diese zu
k
PCIl- kcr"; X"; 11 + kcr) = 11>(11 + ~-I1) _1I>(I1- ; -11) = lI>(k) -II>(-k).
Unter Verwendung von (II3: 44) knnen wir diesen Zusammenhang auch als
P(I1-kcr:5: X:5: 11 + kcr) = 2 1I>(k)-1

(II3: 49)

ausdrcken. Zu erkennen ist, dass die Flche von l1-kcr bis l1+kcr unter der
Gauschen Glockenkurve unabhngig von 11 und cr ist. Fr verschiedene Werte von k erhalten wir folgende Wahrscheinlichkeiten:
k

Intervall

Flche

Intervall

Flche

68,27 %

1,64

11 1,64cr

90%

95,45 %

1,96

11 1,96cr

95 %

99,73 %

2,58

11 2,58cr

99%

Die Wahrscheinlichkeiten fr k
Abbildung II 25 begegnet.

I, k

2 und k

3 sind uns dabei bereits in

276

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-24

Zusammenfassendes Beispiel zur Normalverteilung

Eine Maschine produziert Metallplttchen mit einer Lnge von 30 mm. Da zufallsabhngige
Ungenauigkeiten bei der Herstellung auftreten knnen, kann die Lnge X eines Plttchens
als Zufallsvariable angesehen werden, die wir als mit Il = 30 und'" = 0,25 normalverteilt
betrachten wollen. Gesucht sind nun folgende Wahrscheinlichkeiten, die wir unter Heranziehung der tabellierten Standardnonmalverteilung im Anhang bestimmen wollen:
Ein zufllig aus der Produktion entnommenes Plttchen ist
a) hchstens 30,5 mm lang:
P(XS 30,5) = ~(30,~~30)

=~(1) = 0,8413

b) mindestens 29,6 mm lang:


P(X 2: 29,6) = l-P(X" 29,6) = 1_~(29,6-30) = 1-<1>(--0,8) = 1-[1-<1>(0,8)]
0,5
= ~(0,8) = 0,7881
c) zwischen 29,1 mm und 30,7 mm lang:
P(29,1" X" 30,7) =

<I>(30'~,~30)_<I>(29'~,~30) = <1>(1,4)-<1>(-1,8)

= ~(1,4)+~(1,8)-1 = 0,9192+0,9641-1 = 0,8833


d) maximal 0,2 mm von der Soll-Lnge entfernt:
P(29,8" X" 30,2) = 2,<1>(,2)_1 = 2<1>(0,4) -1 = 20,6554-1 = 0,31 08
0,5

3. Quantile der Standardnormalvertenung


Fr ein a-Quantil (oder Fraktil) Z. nimmt die Wahrscheinlichkeit P(Z S zJ = ~(zJ
den Wert a an. Zur Bestimmung des Wertes z. wird also in der Verteilungstabelle
zunchst die Wahrscheinlichkeit a gesucht und das dazugehrige z. abgelesen.
(113: 50)
Einige wichtige Quantile, die wir insbesondere in der induktiven Statistik noch des
fteren bentigen werden, sind in folgender Tabelle aufgefhrt:

a
0,50
0,90
0,95

a
0,00
1,28
1,64

0,975
0,99
0,995

1,96
2,33
2,58

Demnach liegt also z.B. das 99 %-Quantil z,'" der N(O;I)-Verteilung bei 2,33. lnteressieren wir uns fr das 1 %-Quantil z,.", so knnen wir dieses aufgrund der Symmetrie der Dichte bezglich z = 0 ber z. = -Z,~, d.h. hier als z."" = -Z,.99 = -2,33
bestimmen.

3. Theoretische Verteilungen

277

Interessieren wir uns fr die Wahrscheinlichkeit, dass eine NC)L,cr')-verteilte Zufallsvariable X Werte in einem Intervall x a / 2 S X S x l - a12 annimmt, so ergibt sich diese

unmittelbar aus der uns bekannten Quantilsdefinition. Wie die Abbildung II 26 anschaulich zeigt, ist der Flcheninhalt der Flchen links von x./2 und rechts von
x I_./2 jeweils gerade a/2, sodass fr die gesuchte Intervallwahrscheinlichkeit offensichtlich 1 - (a/2 + a/2) = 1 - a gilt.
fN(x)

x
Abbildung II 26: Dichtefunktion, Quantile und Intervallwahrscheinlichkeiten
3.2.3.3

Reproduktionseigenschaft

Auch die Nonnalverteilung besitzt die bereits mehrfach erwhnte ReproduktIonseigenschaft. Diese kommt wie folgt zum Ausdruck:

x., ... ,

X. nunabhngige nonnalverteilte Zufallsvariablen, so ist ihre Summe


Sind
X, also X = XI + ... + X. ebenfalls nonnalverteilt. lO Der Erwartungswert von X, 11..,
ergibt sich dann als Summe der einzelnen Erwartungswerte Il" ... , IJ.. der Zufallsvariablen

x., ... , x.:

IJ.X =IJ.I+ ... +lJ.n

(II3:51)

Fr die Varianz von X, a~, ergibt sich aufgrund der Unabhngigkeit der X;
a~ = a: + ... + a! .

(I!3: 52)

Obwohl sie nicht mit der Reproduktionseigenschaft zusammenhngt, wollen wir an


dieser Stelle auf eine weitere bedeutende Eigenschaft der Nonnalverteilung hinweisen: Entsteht eine Zufallsvariable Y durch eine Transfonnation Y = a + bX mit b 0
aus einer NC)L,a')-verteilten Zufallsvariable X, so ist Y N(a + blJ.,b'a')-verteilt.

10 Genau genommen ist die Summe !'.XI gemeinsam normalverteilter Zufallsvariablen ~. "',
~ wieder normalverteilt Coder eine Konstante). Zur Definition gemeinsam normalverteil-

ter Zufallsvariablen vgl. z.B. Schmid und Trede (2005). Insbesondere sind nunabhngige

nonnalverteilte Zufallsvariablen auch gemeinsam nonnalverteilt.

278

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-25

Reproduktionseigenschaft

In einer Winzerei werden Weinflaschen mit einem Sollinhalt von 1,5 I bei einer Varianz von
0,0025 12 abgefijllt. Wie gro ist unter Annahme der Normalverteilung und Unabhngigkeit
der Flascheninhalte die Wahrscheinlichkeit dafiir, dass ein Kunde, der 4 Flaschen kauft,
wenigstens 5,95 I erhlt?
Die Gesamtliterzahl X ergibt sich hier aus den (unabhngigen) Literzahlen X" ... , X. der
einzelnen Flaschen und ist damit auch normalverteiH. Es gilt dann:

X = X, + X, +x" +X,

->

I'x = 41,5 = 6 I
a~ =40,0025=0,011'

Fr die gesuchte Wahrscheinlichkeit ergibt sich demnach

P(X 2: 5,95) = 1_<1>(5,95-6) = 1-<1>(-0,5) = 1-[1-<1>(0,5)] = 0,6915.


0,1

3.2.4

Logarithmische NormalverteIlung

Eine nichtnegative Zufallsvariable X heit logarithmisch nonnalverteilt oder lognormalverteilt mit den Parametern I' und a', kurz X - L(Ji,u'J, wenn nicht die Zufallsvariable X selbst, sondern ihr Logarithmus nonnalverteilt bzw. konkret NC)1,a')verteilt ist. Ist also Y = In X normalverteilt, dann ist X = eY lognonnalverteilt. Fr die
Verteilungsfunktion F,(x) gilt dann
FL(x) =FN(y) = FN(ln x) .
Durch Ableitung nach x erhalten wir unter Bercksichtigung der Kettenregel
f (x) = dFL(x) = dFN(lnx). d(lnx) =f (lnx) . .!.
L
dx
dinx
dx
N
x'
was die D/chtejunkt/on fL(x) der nicht symmetrischen Lognonnalverteilung als
fr x>O

013: 53)

sonst

liefert. Da in x nur fr x > definiert ist, ist fL(x) fr x ,., 0 gleich Null. Die Dichtefunktion beginnt bei x = 0 mit dem Wert fL(O) = 0, steigt bis zu einem Maximum an,
fllt dann wieder und nhert sich asymptotisch der x-Achse (vgl. Beispiel II 3-26).
Die Lognormalverteilung besitzt die zwei Funktionalparameter Il. = E(ln X) und a' =
Var(ln X). Ihre a-Quantlle knnen wir ber

013: 54)
berechnen, wobei z. das entsprechende Quantll der Standardnonnalverteilung ist.
Die rechtsschiefe bzw. linkssteile L(Il.,a')-Verteilung wird in der Praxis besonders
gerne verwendet, wenn keine negativen Merkmalsausprgungen vorkommen knnen und eine linkssteile Verteilung gebraucht wird. Dies ist etwa bei Einkommens-

279

3. Theoretische Verteilungen

oder Vertngensverteilungen gegeben. Hufig werden in der Finanzmarkttheorie


auch Aktienkurse oder -renditen als lognonnalverteilt unterstellt. 11

Boloplolll 326

Verschiedene Lognormalverteilungen

IL(x)

0,25

--

L(1,5;O,36)
'-,

"

' .......
/ ',

/'

L(2;O,16)
........

"- "-

" ,
.......

"- "-

....

"- ....

........

..... .....

~...;.~o=-==........~ x
-- ...
-l.i~~~____~____-=::==::-~-:-::-==~;

10

15

20

Die Funklionalparameter J.I. und ti der 1CJ.I.,ti)-Verteilung knnen anders als bei
der Normalverteilung nicht als Erwartungswert und Varianz der Verteilung interpretiert werden, da sie Erwartungswert und Varianz der logaritlunierten Variablen darstellen. Stattdessen ergeben sich Erwartungswert und Varianz als
E(X)=e

,'"
1

+'" .(e'" -1) .

Var(X) = e 2Jl

Bel.plelll 327

(03,55)
(03,56)

Anwendungsfall: Kreditrisiko und Bank-Rating

In Beispiel 11 3-16 wurde behandelt, dass die Hufigkeit von Kreditausfllen als annhernd
P(l)-verteilt betrachtet werden kann. Da nun aber jeder Kreditausfall rur die Bank einen
anderen Schaden bedeutet, ist es letztendlich nicht die Anzahl der Kreditausflle, sondem
die Hhe des damit verbundenen Verlustes die interessiert. In der Praxis hat sich gezeigt,
dass die Wahrscheinlichkeit der aggregierten Ausfallverluste durch eine LognormaJverteilung gut modelliert werden kann.12
Bei der Bestimmung des Kraditzinses (bzw. der darin einzubeziehenden RisikoprAmie)
durch die Banken sollten diese beachten, dass er die erwarteten Ausfallverluste E(V) abdeckt. Fur den Fall, dass die tatschlich eintretenden Verluste diesen Erwarlungswert
ubersteigen, besitzen die Banken immer noch EigenkapitalrCIckiagen, die sie vor Insolvenz
bewahren. Erst wenn die Verluste die erwarteten Verluste (abgedeckt durch die Risikoprmie im Kreditzins) und unerwarteten Verluste (abgedeckt durch die EigenkapitalrUcklage) ubersteigen, ist die Bank bedroht. Es wird daher versucht, die Wahrscheinlichkeit fUr
eine Insolvenz der Bank durch entsprechende Festsetzung der EigenkapitalrUcklage auf
einem niedrigen Niveau p zu halten. Je niedriger p, desto besser ist das Rating der Bank.

11 VgL z.B. Campbell et al (1997), Kapitell und 9.


12 Vgl. z.B. Rau-Bredow (2002) und Rolfes (2008).

280

11 Wahrscheinlichkeitsrechnung
f(V)

v
erwarteter
Verlust

Eigenkapitalrucklage

Bankinsolvenzgefahr

3.3 Test-Verteilungen
Die folgenden stetigen Verteilungen, die auch als Testverteilungen bezeichnet werden, finden besonders bei bestimmten Testverfahren und bei der Bestimmung von
Konfidenzintervallen in der induktiven Statistik Anwendung. Wir wollen sie daher
zunchst nur theoretisch betrachten13 Auf ihre konkrete Anwendung werden wir
schlielich im Kapitel III eingehen.

3.3.1

Chi-Quadrat-Verteilung

Sind Z" Z" ... , Zw unabbngig N(O; l)-verteilte Zufallsvariablen, so folgt die Quadratesumme
(113: 57)
einer Cbi-Quadrat-Verteilung mit w Freiheitsgraden oder kurz ;((w)-Verteilung.
Der Funktlonalparameter w der Chi-Quadrat-Verteilung, welcher die Anzahl der
unabhngigen Zufallsvariablen in X' beschreibt, bestimmt die Gestalt ihrer Dlcbtefunktion (vgl. Beispiel 11 3-28). Da X' nur positive Realisationen annehmen kann,
ist sie nur fr solche definiert und ihre Dichtefunktion strebt mit X' -7 ~ gegen
Null 14
Eine Chi-Quadrat-verteilte Zufallsvariable X' besitzt den Erwartungswert
E('1.') = w

(113: 58)

Var('1.') = 2w.

O!3: 59)

und die Varianz

13 Wir verzichten bei der Behandlung der Verteilungen auf die konkrete Angabe der Dichtefunktionen, da wir sie im weiteren Verlauf nicht bentigen. Der interessierte Leser fmdet
die Funktionen jedoch in der im Online-Service des Buches enthaltenen Formelsammlung.
14 Um Konflikte mit der bisherigen Notation zu vermeiden, bezeichnen wir Realisationen
von Chi-Quadrat-, t- und F-verteilten Zufallsvariablen in Grafiken im Folgenden mit x.

3. Theoretische Verteilungen

281

Boloplolll 3-28

Verschiedene Chi-Quadral-Verteilungsdichlen

0,2

,,, ,
,

,,,

0,1

".

".

,,

:
I
,
I
, I
: I
, I

: I
/

,
, ,,
2

\ ..... X (7)

",

,,

",

"

,,
....

,,

-- ..............
--........_-- -=---..... .......

10

15

20

Beispiel 11 3-28 zeigt, dass die Dichten fr kleine w deutlich linkssteil sind. Fr
wachsendes w nhern sie sich der Gauschen Glockenkurve. Dies ist eine Folge
des Zentralen Grenzwertsatzes (vgl. Abschnitt 11 3.4.1), da die Sunune der Zufallsvariablen Z:,~, ... ,Z! dessen Voraussetzungen erfllt.
Im Anhang sind fr eine Reihe von a-Werten und w :s; 30 die a-Fraklile der ChiQuadrat-Verteilung vertafelt. Es lsst ~ zeigen, dass sich mit wachsender Anzahl

von Freiheitsgraden w die Gre .v2X2 immer mehr einer Normalverteilung mit
~ =.J2w -1 und ti - 1 annhert. Die standardisierte Gre

z=R -.J2w-l

ist daher annhernd standardnonnalverteilt. Diese Nherung erlaubt uns, fr w > 30


die a-Fraktile X~.. einer Chi-Quadrat-Verteilung mit w Freiheitsgraden durch

+.J2w-l)'
x,"'.. -~.(z
2
a

(D3,60)

zu approximieren, wobei Zu das a-Fraktil der N(O;1)-Verteilung ist. 1!!


Eine Reprodukttonseigenscbaft, wie wir sie bei der Nonnalverteilung festgestellt haben, weist auch die Chi-Quadrat-Verteilung auf. So ist die Summe von zwei oder
mehr Chi-Quadrat-verteilten Zufallsvarlablen wiederum Chi-Quadrat-verteilt. Die
Freiheitsgrade der neuen Zufallsvariable ergeben sich dabei als Sunune der Freiheitsgrade der einzelnen Summanden.

l!!i Diese Approximation ist besser als die direkte Appnmmation der x'(w)-Verteilung durch

eine N(w,2w)-Verteilung. Vgl. hierzu z.B. Bamberg und Baur (2002), Kapitel 11.

282 ________

__

.:========~ I~IW~ah:.::..=Ch~.=in~l=iC~hko=i1S=roc=h~n~U~n~g

Bel.plelU 3-29

Fraktilsapproximation

Uegl das 10 %-Fraktil einer Chi-Quadrat-Verteilung mit w '" 5 bei ~,1;5 '" 1,61, bedeutet
dies, dass die Wahrscheinlichkeit, dass 'I} hchstens den Wert 1,61 annimmt, bei 10 %
liegt. WOrden wir uns nun far das 10 %-Fraktil fOr w '" 50 interessieren, knnten wir dieses
nAherungsweise wie folgt bestimmen:

X:.l:50

3.3.2

"~{-1,282+.J99r =37,57

I-Verteilung

Betrachten wir zwei unabbt'lngtge Zufallsvarlablen Z und 'i, wobei Z standardnormalverteilt und X~ mit w Freiheitsgraden Cht-Quadrat-verteilt ist, dann gehorcht die Zufallsvariable
Z

T=J?;

Bit

einer t-Verteilung Coder Studentverteilung nach W.S. Gosset) mit w Freiheitsgraden


oder kurz einer l(w)-Verteilung. Ihre Dicbtefunktion besitzt eine hnliche symmetrische Glockenfonn wie die Normalverteilung. Ihre Funktionsgestalt ist vom Funktionalparameter w abhngig Cvgl. Beispiel 11 3-30). Sie ist symmetrisch um
Null und besitzt fr kleine w dickere (hhere) Enden (eng!. heavy tail distribution)
als die Standatdnonnalverteilung. Dies bedeutet, dass weniger wahrscheinlichkeitsmasse im Zentrum um Null und mehr an den Rndern verteilt ist. Gerade daher eignet sich die t-Verteilung zur Modellierung von Daten, die im Vergleich zur
Normalverteilung einen greren Anteil an extremen Werten enthalten.

Bel.plelU 3-30

Verschiedene t-Verteilungen

h(x)

'(30)

"'-.. ::-

0,4

/,-

/ / t(4) ,\

'~
"

/"
I '
/"
I,'
/.'
/.,'
l-,

0,3

0,2

""

'\

':\.

'~

r.

0,1

-3

-2

-1

\\

, x

283

3. Theoretische Verteilungen

Wie Beispiel II 3-30 erkennen lsst, geht die t-Verteilung fr w ~ ~ in die Standardnorrnalverteilung ber. Als Faustregel knnen wir festhalten, dass ab w > 30
die t-Verteilung in guter Nherung durch die Standardnonnalverteilung approxtmiert werden kann. Dies ist auch der Grund, warum meist nur fr w S 30 ausgewhlte a-Fraktile tabelliert sind. Fr w > 30 knnen wir als Nherung des a-Fraktils
t aw der t(w)-Verteilung das a-Fraktil z. der N(O;l)-Verteilung heranziehen. Zudem
beschrnkt sich die TabelIierung auf a-Werte grer als 0,5. Wegen der Symmetrie
der Dichtefunktion der t-Verteilung gilt nmlich ta,w = -t,_a,w .
Fr w > 1 ergibt sich der Erwartungswert der t-Verteilung als
E(T)=O.

(II3: 62)

Liegt die Anzahl der Freiheitsgrade w bei 1, so existiert kein Erwartungswert. In


allen anderen Fllen ist bereits zu erkennen, dass (II3: 62) mit dem Erwartungswert
der Standardnormalverteilung identisch ist.
Fr w > 2 erhalten wir die Varianz

Var(T) = -"'-- .
w-2

(II3: 63)

Ist w S 2 existiert keine Varianz. Mit zunehmendem w (w ~ ~) nhert sich die


Vatianz dem Wert 1, wie ihn auch die Standardnormalverteilung besitzt.

3.3_3

F-Verteilung

Sind eine Zufallsvariable X mit u und eine Zufallsvariable Y mit w Freiheitsgraden


Chi-Quadrat-verteilt und sind X und Y unabhngig, so wird die Verteilung der Zufallsvatiablen

O!3: 64)
als F-Verteilung mit den Freiheitsgraden u und w oder kurz F(u, w)-Verteilung bezeichnet. Wie eine Chi-Quadrat-verteilte Zufallsvariable, kann auch F nur positive
Werte annehmen. Die Gestalt der Dichtefunktion ist widerum von den Funktionalparametern u und w abhngig (vgl. Beispiel II 3-32). Fr groe w lsst sich die
F(u,w)-Verteilung durch die X'(u)-Verteilung approximieren.
Im Anhang sind Tabellen fr ausgewhlte Fraktile der F-Verteilung zu fmden. Beim
Ablesen der Fraktile aus diesen Tabellen ist die Beziehung O!3: 65) zwischen dem
a-Fraktil fa.u,w der F(u,w)-Verteilung und dem (l-a)-Fraktil f,_a,w,u der F(w,u)Verteilung wertvoll. Sie lsst sich darauf zurckfhren, dass wegen (II3: 64) stets
F - F(u,w) B 1/F - F(w,u) gilt.

a,u,w

=_1_

O!3: 65)

1-G,w,u

Beispiel 11 3-31

F-Verteilungs-Fraktile

Das 5 %-Fraktil der F(3;4)-Verteilung kOnnen wir finden, indem wir das 95 %-Fraktil der
F(4;3)-Verteilung nachschlagen und den Kehrwert davon bilden:

f",,;," = 119,12 = 0,11

11 Wahrscheinlichkeitsrechnung

284

Bit

Verschiedene F-Verteilungen

Bel.pl"IU 3-32
fF(x)

,-

,,, 'F(15"2O)
'' '
'',,
,,
,,
,,
,,

0,5

,,
,
"'-

.. 3

Fr den Erwartungswert, der nur vom Freiheitsgrad der Zufallsvariable im Nenner


abhngt, und die Varianz der F-Verteilung kann Folgendes festgehalten werden:
E(F) = ~
w-2

fr w > 2

Var(F) = ZW2(U + W - 2)

uew-2)2(w-4)

(113: 66)

fr w > 4

Mit zunehmendem Freiheitsgrad w konvergiert der Erwartungswert gegen Eins. Da


fr groe Freiheitsgrade die beiden Subtrahenden (2 und 4) im Nenner von
(IT3: 61) immer mehr an Bedeutung verlieren, konvergiert die Varianz gegen Null.
Zusammenfassend zeigen die folgenden bersichten die Funktionalparameter und
die wichtigsten Momente (Erwartungswert und Varianz) der wesentlichsten diskreten und stetigen Verteilungen noch einmal im berblick.
Verteilung

Parameter

Binomial ...

OSpSl,n

Hypergeometrische ...

N - 1, 2, ...
M - 0, 1, ... , N
n - 1, 2, ... , N

Poisson ...

1.>0

Erwartungswert

Varianz

np

np(1-p)

M
nN

M N-M N-n
n----N-l
N
N

I.

I.

Abbildung 11 27: Diskrete Verteilungen im berblick

3. Theoretische Verteilungen

Verteilung
Gleich ...

285

Parameter

Erwartungswert

-oo<a<b<+oo

Exponential ...

1..>1

Nonnal...

-00

< Il<

--

a+b
2

(b - a)'
12

1/1..

1/1..'

11

a'

+00

a>O
Chi-Quadrat ...
t-...
F-...

Varianz

1, 2, ...

2w

1, 2, ...

Ofrw>l

- - frw>2

1, 2, ...

w
w-2

- - frw>2

1, 2, ...

w
w-2

2w'(u +w-2)
u(w - 2)'(w -4)

rurw>4

Abbildung 11 28: Stetige Verteilungen im berblick

3.4 Bedeutung der Normalverteilung


Unter gewissen Voraussetzungen knnen andere Verteilungen durch die Normal-

verteilung approximiert werden. Diese Eigenschaft der Nonnalverteilung wurde bereits angesprochen und ist fr die oben genannten Testverteilungen besonders
ntzlich. In diesem Abschnitt wollen wir uns nun nher mit dem Zentralen Grenzwertsatz auseinandersetzen, der die theoretische Grundlage fr diese Approximationsmglichkeit liefert und auerdem die konkrete Approximation ausgewhlter
diskreter Verteilungen durch die Normalverteilung nher betrachten.

3.4_1

Zentraler Grenzwertsatz

Sind x" x" ... , Je" Identisch vertellte16 und unabhngige Zufallsvariablen (egal ob
stetig oder diskret) mit jeweils dem Erwartungswert 11 und der Varianz 0', dann
passt sich die Verteilung der Summe EX, fr wachsende Anzahl n der Summanden
immer besser der Nonnalverteilung
(113: 68)

N(nl1,na')

an. Dies ist grob gesprochen die wesentlichste Aussage des Zentralen Grenzwertsatzes. Durch Standardisierung der Summe EX, erhalten wir die Zufallsvariable

LX, -nil
=
n

Z
n

i_t

n,Xn -nJ.1.

.m.a - .m.a

16 Dies bedeutet konkret, dass Fx, (x)

= ... = Fx.. (x)

fr alle reellen x gilt.

(113: 69)

286

11 Wahrscheinlichkeitsrechnung

mit E(Z.) - 0 und Var(Z") - 1. Der Zentrale Grenzwertsatz besagt also auch, dass
die Verteilungsfunktion Fz" (z) = P(Z" ~ z) der Zufallsvariablen Z., mit wachsender
Summandenzahl n gegen die Verteilungsfunktion <I>(z) der Standardnormalverteilung konvergiert:
P(Z" ~ z)

"_) <I>(z)

(1l3: 70)

Die praktische Bedeutung des Satzes liegt darin, dass die Verteilung der Zufallsvariable Z. bereits fr endliches n durch die N(O;l)-Verteilung angenhert werden
kann. Entsprechend kann die Verteilung der nicht standardisierten Summe EX, fr
endliches n durch die N(nl1,na')-Verteilung approximiert werden. Die Gte der
Nherung hngt dabei natrlich von der Verteilung der Zufallsvariablen Je, ab. Die
Konvergenz gegen die Normalverteilung ist besonders schnell, wenn die Je, symmetrisch verteilt sind, und UInSQ langsamer, je schiefer die Verteilung ist.
Im Zusammenhang mit diesem fundamentalen statistischen Satz sind folgende Aus-

sagen von auerordentlicher praktischer Relevanz:

Fr n > 30 wird die Normalverteilung meist als hinreichend genau fr die


Approximation stetiger Verteilungen angesehen.

Der zentrale Grenzwertsatz trifft auf viele Verteilungen zu und eignet sich deshalb zu deren Approximation. So kann z.B. die B(n,p)-Verteilung durch die
N(O;1)-Verteilung approximiert werden (vgl. Abschnitt II 3.4.2.1), da eine
B(n,p)-verteilte Zufallsvariable X als Summe X - EX, unabhngiger B(1;p)verteilter Je, dargestellt werden kann. Da E(X) - np und Var(X) - np(1-p)
sind, konvergiert also als Spezialfall von 013: 69) die Verteilungsfunktion der
Zufallsvariable

Z =
n

fr n

X-np
.jnp(1- p)

013:71)

= gegen die Verteilungsfunktion <I>(z) der Standardnormalverteilung.

Wie die Summe ist auch das arithmetische Mittel der Je, in einer Stichprobe,
also X - EX/n, bei hinreichend groem n annhernd normalverteilt.

Selbst fr den Fall, dass die einzelnen unabhngigen Zufallsvariablen Je, nicht
Identisch verteilt sind, ist die Summe LX, fr ein groes n hinreichend genau
normalverteilt.

Die entscheidende Bedeutung der NormalverteIlung in der Wahrscheinlichkeitsrechnung und der induktiven Statistik beruht neben der Tatsache, dass
die Summe und der Durchschnitt von unabhngigen Zufallsvariablen approximativ nonnalverteilt sind, auch darauf, dass Zufallsvariablen, die aus dem
Zusammenwirken vieler unabhngiger Einzeleinflsse resultieren (z.B. Messfehler bei einem Messvorgang), unter Berufung auf den Zentralen Grenzwertsatz als nherungsweise normalverteilt angenommen werden knnen.

287

3. Theoretische Verteilungen

3.4.2

Approximation diskreter Verteilungen

3.4.2.1

Binomiolvertell_

Mit wachsendem n nhert sich die Fonn der unter 11 3.1.1 behandelten B(n,p)-

Verteilung immer mehr der Glockenfonn der Normalverteilung an. Diese Annherung erfolgt umso schneller, je nher p bei 0,5 liegt, d.h. je symmetrischer die
Binomialverteilung ist. Als Faustregel knnen wir festhalten, dass eine Approximation dann zulssig ist, wenn die Varianz der Binomialverteilung grer oder gleich
9 ist, also np(1- p) ~ 9 gilt. Fr Erwartungswert und Varianz der approximterenden Normalverteilung velWenden wir Erwartungswert und Varianz der Binomialverteilung, also /l- np und rI - np(1-p).
Zusammenfassend knnen wir also als ApproxtmaNonsregel fr eine binomialverteilte Zufallsvariable X
X-B(n.p)
np(1-p)~9

X~N(np,np(1-p)

(D3,72)

angeben. Da hier eine Approximation einer diskreten durch eine stetige Verteilung
erfolgt, ist eine sog. Stet1glteitskorwlttur (vgl. Beispiel 11 3-33) erforderlich. Andernfalls wrden wir die Wahrscheinlichkeiten unterschtzen. Bei greren Werten von
np(1-p) machen wir jedoch keinen allzu groen Fehler, wenn wir die Stetigkeitskorwktur unterlassen.

Boloplolll 333

Approximation der Binomialverteilung

In einem Produktionsverfahren genugen Ld.R. 30 % der gefertigten Stucke nicht den Qualititsanforderungen und mussen daher ausgebessert werden oder sind Ausschuss. Wir interessieren uns fOr die Wahrscheinlichkeit, dass sich In einer Produktionsserie von 50 StOck
a) zwischen 14 und 16
b) mehr als 22
fehlerhafte StUcke X befinden. Wir gehen dabei davon aus, dass der Produktionsvorgang
als Bemoulli-Experiment mit p - 0,3 angesehen werden kann.
Da X eine diskrete Zufallsvariable Ist, gilt fOr die unter a) gesuchte Wahrscheinlichkeit
P(14:S: X:S: 16) - P(X:S: 16) - P(X:S: 13). Nach der Formel rur die Binomialverteilung bzw.
den Werten der tabellierten Verteilungsfunktion ergibt sich diese Wahrscheinlichkeit zu

P(14. X. 16) - F,(16)-F,(13) - 0,6839-0,3279 - 0,3560.


Da die Varianz der hier vorliegenden B(50;O,3)-Verteilung gleich 10,5 ist und somit die Bedingungen aus (113: 72) erfOllt sind, kann diese auch durch eine N(IJ.,~-Verteilung mit
J.l- 50 0,3 _ 15 und rI_ 50 -0,3 - 0,7 _ 10,5 approximiert werden. Die gesuchte Wahrscheinlichkeit kann also altemativ auch in guter Nherung aber die approximierende
Normalverteilung bestimmt werden. Die approximative Wahrscheinlichkeit ergibt sich unter
BerOckslchtlgung einer StetIgkeitskorrektur wie folgt:

P(1 X .'6). R (16+0 5)-R (13+0 5) _ .. ('6,5-'5]_ .. ('3,5-'5]


,
,
,
,
-/10,5
-/10,5
= "(0,46)-"(-0,46) = 2 "(0,46) -1 = 2 0,6772 -1 = 0,3544.

288

11 Wahrscheinlichkeitsrechnung
Zum besseren Verstndnis der hier angewendeten Stetigkeitskorrektur (bzw. der Addition
des Wertes 0,5) betrachten wir die nachfolgende Grafik. Sie skizziert grob die Verteilungsfunktion der approximierenden Normalverteilung und abschnittsweise die Verteilungsfunktion der vorliegenden Binomialverteilung. Interessieren wir uns fOr die Wahrscheinlichkeiten P(X S 13) und P(X S 16), so wird schnell klar, dass wir bei einer Approximation ber
die Werte FN(13) und FN(16), die in der Grafik durch Rechtecke gekennzeichnet sind, die
wahren Wahrscheinlichkeiten unterschtzen wrden. Wir verwenden daher FN(13,5) und
FN(16,5), um auf dem "richtigen Wahrscheinlichkeitslevel" zu bleiben bzw. eine bessere
Approximation zu erhalten.

13,5

16,5

I
I
I
I
I
I

P(X';16)

P(XSI3)

I
I
I
I
I
I
I

,
, ;
-- - -- - --- - --- - -- - --- - -- - --- - --- - -t --

"

13 14 15 16 17

Die unter b) zu bestimmende Wahrscheinlichkeit ergibt sich unter Verwendung der tabellierten Binomialverteilung als
P(X> 22) =1-P(X'; 22) = 1-0,9877 = 0,0123.
Analog zu den berlegungen aus obiger Grafik erhalten wir mittels der approximierenden
Normalverteilung den Wert

P(X > 22) =

3A.2.2

1-~ = l_c!>(2~5) = l-c!>(2,32) = 1-0,9898 = 0,0102. 17


P(X~22)

0,5

Hypergeometrische Verteilung

Wie wir unter II 3.1.2.3 gesehen haben, kann bei Vorliegen bestimmter Voraussetzungen eine H(N,M,n)- durch eine B(n,M!N)-Verteilung approximiert werden.
Die Approximation einer H(N,M,n)-Verteilung durch eine Nonnalverteilung mit
M

I!-=n-=np
N

M N-M N-n
N
N
N-l

N-n
N-l

ci' =n-----=np(l-p)--

pex -

pex

pex

17 Hinweis: Auch die Wahrscheinlichkeit


22) liee sich ber
S 22) S 21) =
FN (22,S) - FN (21,S) approximieren. Der echte Zeitvorteil bei der Approximationsrechnung
ergibt sich aber vielmehr in Fllen wie X < 22 oder X > 22.

3. Theoretische Verteilungen

289

ist immer dann zulssig, wenn np(1- p) ", 9 erfllt ist und n im Verhltnis zu N
nicht allzu gro ist. Da der Faktor (N-n)/(N-l) nach Ansicht einiger Autoren bereits
bei n:S; O,lN vernachlssigt werden kann,18 knnen wir folgende allgemeine
Approximationsregel fr eine hypergeometrisch verteilte Zufallsvariable X angeben:
X - R(N,M,n)}
np(1- p)'" 9
n:S;O,lN

--+

X.!. N(np,np(1- p))

(113: 73)

Die rechnerische Bestimmung von Wabrscheinlichkeiten erfolgt ebenfalls unter Bercksichtigung einer Stetlgkettskorrektur.

Beispiel 11 3-34

Approximation der Hypergeometrischen Verteilung

Von den 500 erfolgreichsten Investmentbankern Deutschlands fahren 200 eine bestimmte
Luxusautomarke. Wie gro ist die Wahrscheinlichkeit, dass unter 50 zufllig befragten
Bankern 20 bis 30 ein solches Fahrzeug besitzen?
Da hier die Bedingungen (113: 73) erfull! sind, kann die vorliegende H(500;200;50)- durch
eine N(I1,d')-Verteilung mit den Parametern
200
11=50 500 =500,4=20 und

<J' =500,40,6=12

approximiert werden. Die gesuchte Wahrscheinlichkeit ergibt sich daher als


P(20:S; X:S; 30) = FN(30,5) -FN (19,5) = <I> [30J,i20 )_<I>('9J,i20)
= <1>(3,03) - <1>(-{), 14) = 0,9988 - 0, 4443 = 0,5545.
Bercksichtigen wir den Faktor (N-n)(N-l) bzw. konkret 450/499 dennoch, so erhalten wir
P(20:S; X:S; 30) = F; (305) -F; (195) = <1>[ 30,5 -20 )-<I>[ 19,5-20)
N'
N'
"10,8216
"10,8216
= <1>(3,19) -<I>(-{), 15) = 0,9993 -0,4404 = 0,5589.
Der Fehler, den wir durch Vernachlssigung des Faktors machen, ist also nicht all zu gro.

3.4.2.3

Poissonverteilung

Genau dann, wenn der Parameter .. der Poissonverteilung gegen 00 strebt, geht diese in die Normalverteilung ber. Als Faustregel fr die Approximation gilt
X-Po(") }

""'9

--+

X.!. NC",") .

(113: 74)

Da der Funktionalparameter .. der Poissonverteilung gleichzeitig ihr Erwartungswert und ihre Varianz ist, ist er, wie man sieht, auch Erwartungswert und Varianz
der approximierenden Nonnalverteilung. Die Wahrscbeinlichkeitsberechnung erfolgt auch hier wieder unter Bercksichtigung einer Stettgkeitskorrektur.

18 Vgl. dazu z.B. Bamberg und Baur (2004).

290

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-35

Approximation der Poissonverteilung

Betrachten wir die Anzahl der pro 15 Minuten an einer Supermarktkasse eintreffenden
Kunden als Po(10)-verteilt, so knnen wir die Wahrscheinlichkeit dafUr, dass innerhalb
einer bestimmten Viertelstunde mindestens 12 Kunden eintreffen, wie folgt approximieren:

P(X~ 12) = l-P(X ~11) = l-FN (II,5) = l-cI>C 1~10) = l-cI>(0,47)


= 1-0,6808 =0,3192
Der exakte Wert lge bei
P(X ~ 12) = l-P(X ~ 11) = l-F.. (II) = l-e-1O

1QV

L- = 1-0,6968 = 0,3032.
11

v=o10!

3. Theoretische Verteilungen

3.4.2.4

291

berblick zur Approximation eindimensionaler Verteilungen

Die folgende Abbildung stellt abschlieend die wichtigsten Beziehungen zwischen


ausgewhlten statistischen Verteilungen in schematisierter Form dar (Approximationsregeln im Fettdruck in weien Ksten).19
H(N,M,n)
n 2: 50, M/N :s 0,1

n:S 0,1N

n:S 0,1N
p =M/N

n 2: 50, p

:s 0,1

A = np

B(n,p)

Po()

np(1-p) 2: 9

np(1-p) 2: 9

n:S 0,1 N

I'

0' =

np
np(1-p)
=

l'=nM/N

0' -

n' M/N . (N-M)/N

x'(w)

l(w)

w>30

w>30
N(ILocr')

, ,
,,, ,,,

Transfonnation:

Transformation:

, ,

N(O;l)

'/w!(w-2)

Abbildung II 29: Approximationsregeln ausgewhlter Verteilungen


19 Einen umfassenden berblick ber die Vielfalt stetiger und diskreter Verteilungen geben
z.B. Evans, M., Hastings, N., Peacock, B. (2000), John50n, N.L., Kotz, S., Balakrishnan, N.

(1993, 1994) und Johnson, N.L., Kotz, S., Kemp, A.W. (1993).

11 Wahrscheinlichkeitsrechnung

292

3,4.2.5

Empirioche V.rteibmgen

Nicht nur theoretischen Verteilungen knnen sich der Nonnalverteilung annhern.


In der Praxis stellt man immer wieder fest, dass auch empirische Hufigkeitsverteilungen eine solche Eigenschaft aufweisen. Es wird sogar gezielt untersucht, ob solche Verteilungen durch Nonnalverteilungen beschrieben werden knnen.
Erwartungswert und Varianz der approximierenden Normalverteilung sind Mittelwert :x und Varianz 5' der empirisch beobachteten Vertellung. 20 Zum Vergleich von
empirischer und approximierender Nonnalverteilung empfiehlt sich folgendes Vorgehen:
1. Bestimmung der nach der Normalverteilung zu erwartenden Werte der Vertei-

lungsfunktion anhand der Klassengrenzen af'


Verteilung:

Ci - 1,2, ... , k) der empirischen

< x S 00 nimmt die Wahrscheinlichkeit an der


Klassenobergrenze den Wert 1 an, d.h. es gilt ~(oo) - 1.

Fr die offene Randklasse a:

2. Errechnung der nach der Nonnalverteilung theoretisch zu erwartenden relativen


Huflgkeiten:
=

~e

cz,(zf+1) - w(zf')

Sofern Schritt 3 mit Hilfe absoluter Hufigkeiten umgesetzt werden soll, knnen
die erwarteten absoluten Hufigkeiten hj = n . fj zustzlich ennittelt werden.
3. Grafische Abbildung

Q. Bel.plelU 3-36

Approximation empirischer Verteilungen

Die mit einer Stichprobe ermiHelte HAufigkaitsverteilung der Lebensdauer eines Gertes
(mit x _ 5 Jahre und S2 _ 2,8508 Jahre~ ist in folgender Tabelle gegeben:

Klasse j
1
2

5
6
7

8
9
10
11

>a
0

:s;

ai

1
2

5
6
7

8
9
10

5
6
7

8
9
10

h,

I,

F,

0,01
0,03
0,06
0,20
0,24
0,22
0,15
0,06
0,02
0,01
0,00

0,01
0,04
0,10
0,30
0,54
0,76
0,91
0,97
0,99
1,00
1,00

3
6
20
2.
22

15
6
2
1
0

20 Genau genommen sind die Parameter der Normalvertellung durch geeignete Schtzfunktionen Cvgl. Abschnitt m 1) aus dem vorliegenden Datenmaterial zu schtzen. Der Fehler,
den wir durch die hier beschriebene Vorgehensweise begehen, ist allerdings in ausreichend groen Stichproben vemachlssigbar gering.

293

3. Theoretische Verteilungen

Die nachfolgende Tabelle enthlt nun fOr jede Klasse die Klassenobergrenze aj , die standardisierte Klassenobergrenze zj und den dazugehrigen Wert ~(zj) der theoretischen
Verteilungsfunktion. Auerdem sind bereits die erwarteten theoretischen relativen Hufigkeiten
aufgenommen und den empirischen relativen Hufigkeiten fj gegeniibergestellt.

ft

2
3
4
5
6
7
8
9
10
11

a',

z',

~(zn

2
3
4
5
6
7
8
9
10

-2,3691
-1,7768
-1,1845
-{),5923
0,0000
0,5923
1,1845
1,7768
2,3691
2,9613

0,0089
0,0378
0,1181
0,2768
0,5000
0,7232
0,8819
0,9622
0,9911
0,9985
1,0000

-+

f',

fj

0,0044
0,0289
0,0803
0,1587
0,2232
0,2232
0,1587
0,0803
0,0289
0,0074
0,0015

0,01
0,03
0,06
0,20
0,24
0,22
0,15
0,06
0,02
0,01
0,00

Wir erkennen an den letzten beiden Spalten der Tabelle und auch an der nachfolgenden
Grafik, dass zwischen empirischer und theoretischer Verteilung eine recht gute bereinstimmung besteht.
VN(X)

0,25

0,15

0,05

10

4.

Aufgaben

Wahrscheinlichkeitsrechnung
AufgabeWl

Ein Unfallzeuge hat beobachtet, wie der Unfallverursacher Fahrerflucht begangen


hat. An das Kennzeichen des Flchtenden kann er sich allerdings nur ungenau erinnern. Er kann lediglich folgende Aussagen machen:

Ortskennbuchstaben: WEN
Buchstabengruppe AU, AV oder AY

Drei Ziffern, von denen die erste die 1 und noch mindestens eine 2 dabei war

Wie viele Kfz-Kennzeichen sind noch mglich bzw. hat die Polizei zu untersuchen,
wenn man dem Zeugen Glauben schenkt? Der Zeuge sieht die auf Grund seiner
Wahrnehmung noch mglichen Kennzeichen als gleichwahrscheinlich an. Berechnen Sie damit die Wahrscheinlichkeit dafr, dass
a) die Buchstabengruppe AY vorliegt!
b) die ersten beiden Ziffern 12 lauten!
c) die letzten beiden Ziffern 29 lauten!
d) die letzte Ziffer 2 ist!
e) unter den drei Ziffern die 0 vorkommt!
f)
die letzte Ziffer grer als die beiden anderen ist!
AufgabeW2
Eine Mnze und ein Wrfel werden gemeinsam geworfen. Wie gro ist die Wahr-

scheinlichkeit fr das Ereignis A, dass dabei Kopf und eine Augenzahl grer als 4
erscheint?
AufgabeW3

Die Ermittlung der Gewinnzahlen beim europischen Roulette stellt einen Zufallsvorgang mit den 37 mglichen und gleichwahrscheinlichen Elementarereignissen
0,1,2,3, ... , 36 dar. Die Zahlen, welche von 0 verschieden sind, sind je zur Hlfte in
rote und schwarze Felder eingeteilt. Berechnen Sie die jeweiligen Gewinnwahrscheinlichkeiten, die fr einen Spieler gelten, der sich fr die alternativen Taktiken
A: Setzt auf "rotll

B: Setzt auf "gerade Zahl" (ohne 0) und "19"


C: Setzt auf "ungerade Zahl" und die Querreihe 34, 35, 36
entscheiden kann.

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_9, Springer Fachmedien Wiesbaden 2015

11 Wahrscheinlichkeitsrechnung

296

AufgabeW4

Bei einem Automobilhersteller wurden 400 aus der Produktion kommende Pkws in
einer Kontrolle K, auf Lackmngel und einer Kontrolle K, auf Mngel im Innenraum untersucht. 50-mal trat bei K, ein positives Ergebnis auf, 40-mal bei K, und
20-mal bei beiden Kontrollen zugleich.
a) Berechnen Sie unter der Annahme, dass die ermittelten relativen Hufigkeiten
als Wahrscheinlichkeiten fr die Ereignisse A,: "das Ergebnis bei K, ist positiv"
anzusehen sind, die Wahrscheinlichkeiten peA , ) , peA2 ) und peA , n A2 )!
b) Berechnen Sie die Wahrscheinlichkeit dafr, dass ein Pkw bei K, ein positives
Ergebnis liefert und bei K, nicht!
c) Wie wahrscheinlich ist es, dass bei einem kontrollierten Pkw hchstens (tttindestens oder genau) eine der beiden Kontrollen Mngel entdeckt?
d) Wie gro ist die Wahrscheinlichkeit, dass K, Mngel entdeckt, wenn dies bereits
bei K, der Fall ist?
e) Berechnen Sie des Weiteren die Wahrscheinlichkeiten dafr, dass

K, Mngel entdeckt, wenn K, keine entdeckt!


falls genau eine der beiden Kontrollen Mngel fmdet, es sich dabei um K,
handelt!
f) Prfen Sie, ob die beiden Ereignisse A, und A, unabhngig sind!
AufgabeW5

Ein Unternehmen beabsichtigt 2 Stellen neu zu besetzen. Dazu hat es die Mglichkeit unter 4 Bewerbern auszuwhlen. Von diesen werden nun 2 zufallig ausgewhlt, da das Einstellungsverfahren eine nahezu identische Qualiftkation dieser
Bewerber ergeben hat. Tatschlich ist es aber so, dass die Bewerber A und B im
Vergleich zu C und D die Besseren sind.
Wie gro ist nun die Wahrscheinlichkeit dafr, dass die beiden besten Bewerber
"erwischtll werden?
Aufgabew6
In einer Urne befinden sich insgesamt fnf Kugeln, die von 1 bis 5 durchnumme-

riert sind. Die Kugeln 1 bis 3 sind dabei rot gefrbt. Es wird eine Stichprobe von 2
Kugeln entnommen.
a) Gesucht ist nun die Wahrscheinlichkeit P(A) des Ereignisses A: "Es befinden
sich zwei rote Kugeln in der Stichprobe". Gehen Sie dabei einmal von der behandelten Siruation III und einmal von Siruation I aus!
b) Geben Sie unter Beachrung der fr Siruation III geltenden Bedingungen des
Weiteren die Wahrscheinlichkeit dafr an, beim ersten Zug eine rote Kugel Zu
erwischen und die Wahrscheinlichkeit dafr, beim zweiten Zug eine rote Kugel
zu ziehen, wenn der erste Zug bereits eine rote Kugel ergab!

4. Aufgaben

297

AufgabeW7
In einer Schublade befinden sich 5 Kugelschreiber, denen uerlich nicht anzusehen ist, dass 2 von ihnen mit einer schwarzen und 3 mit einer blauen Mine ausge-

stattet sind. Eine Brokraft greift nun drei Tage in Folge in diese Schublade und
nimmt zufallig einen dieser Kugelschreiber zum Gebrauch heraus.
a) Mit welcher Wahrscheinlichkeit wurde am ersten Tag ein Stift mit schwarzer
Mine erwischt?
b) Wie gro ist die Wahrscheinlichkeit, dass an keinem der 3 Tage mit schwarzer
Mine geschrieben wurde? Spielt es dabei fr den Wert der Wahrscheinlichkeit
eine Rolle, ob der Schreiber jeweils am Tagesende wieder in die Schublade gelegt (Ziehen mit Zurcklegen) oder nicht mehr zurckgelegt wurde (Ziehen
ohne Zurcklegen)?
AufgabeW8

2 von 10 hergestellten Porzellanfiguren seien mangelhaft. Es werden nun zufallig


zwei Exemplare entnommen. Bestimmen Sie fr die folgenden Ereignisse sowohl
im Falle mit Zurcklegen als auch im Falle ohne Zurcklegen die Einttittswahrscheinlichkeiten!
A: "Die erste ausgewhlte Porzellanfigur ist mangelhaft."
B: "Die zweite ausgewhlte Porzellanfigur ist mangelhaft."
C: "Mindestens eine der beiden ausgewhlten Figuren ist mangelhaft."
AufgabeW9

Berechnen Sie jeweils folgende Wahrscheinlichkeiten beim zweimaligen Werfen


eines Wrfels:
a) Gegeben seien die Ereignisse A,: "Augensumme mindestens 9" und A,: "Erster
Wurf = 6". Berechnen Sie P(A, I A,)!
b) Wie gro ist die Wahrscheinlichkeit, dass der erste Wrfel eine Sechs zeigt, unter der Bedingung, dass die Augensumme mindestens 9 ist? Versuchen Sie den

Sachverhalt auch grafisch zu veranschaulichen!


AufgabeWIO
In einer Schachtel befinden sich insgesamt 6 Zndkerzen, wovon genau 2 Stck
defekt sind. Es werden zwei Zndkerzen nacheinander entnommen, ohne dass die
erste vor der Entnahme der zweiten wieder in die Schachtel zurckgelegt wird.
Gesucht ist die Wahrscheinlichkeit dafr, dass beim zweiten Zug eine brauchbare
Zndkerze erwischt wird, unter der Voraussetzung, dass bereits die erste gezogene
Zndkerze brauchbar war.
AufgabeWll

Zwei Studenten versuchen unabhngig voneinander eine Kiausuraufgabe zu lsen,


wobei jeder von ihnen mit einer Lsungswahrscheinlichkeit von 0,70 arbeitet. Wie
gro ist die Wahrscheinlichkeit, dass wenigstens einer der Studenten die korrekte
Lsung findet?

298

11 Wahrscheinlichkeitsrechnung
AufgabeW12

Zu Beginn seines Studiums rechnet ein Student damit, dieses mit einer (subjektiven) Wabrscheinlichkeit von 60 % abzuschlieen. Mit erfolgreich abgeschlossenem
Studium betrgt die Wahrscheinlichkeit, die gewnschte Position zu erhalten, 70 %.
Ohne Studienabschluss besetzt er diese nur mit 20 % Wahrscheinlichkeit.
Wie gro ist die Wahrscheinlichkeit, dass der Student die Position erhalten wird?
AufgabeW13

Ein Student bewirbt sich vor Abschluss seines Studiums bei zwei Finnen X und Y.
Er rechnet mit einer Wahrscheinlichkeit von 0,4 bei X und mit einer Wahrscheinlichkeit von 0,70 bei Y eingestellt zu werden. Zudem geht er mit einer Wahrscheinlichkeit von 0,20 davon aus, von beiden Finnen angenommen Zu werden.
Wie wahrscheinlich ist es nun, dass der besagte Student von mindestens einer der

beiden Finnen eine Zusage erhlt?


AufgabeW14

Ein Radargert auf einer Autobahn wird innerhalb einer Stunde mit einer Wahrscheinlichkeit von 90 % von mindestens 500 Fahrzeugen passiert und mit einer
Wahrscheinlichkeit von 50 % von hchstens 1000 Fabrzeugen.
Wie gro ist die Wahrscheinlichkeit, dass innerhalb der nchsten Stunde 500, 501,
502, ... oder 1000 Fahrzeuge gezhlt werden knnen?
AufgabeW15

Sie fragen in der Mensa zufllig drei Kommilitonen nach ihrem Geburtsdatum. Wie
gro ist die Wahrscheinlichkeit dafr, dass
a) alle drei am gleichen Wochentag geboren sind?
b) alle drei an verschiedenen Wochentagen geboren sind?
c) alle drei an einem Sonntag geboren sind?
d) genau zwei am gleichen Wochentag geboren sind?
AufgabeW16

Angenommen es gbe weltweit nur drei Fluggesellschaften A, Bund C. 30 % aller


Flugreisen werden bei Gesellschaft A, 20 % bei Bund 50 % bei C gebucht. Eine
Analyse von Kundenbeschwerden ergab, dass bei A 0,1 % des Gepcks bei Flgen
an den falschen Zielflughafen geschickt wird. Bei B sind dies 0,5 % und bei C genau 0,12 %.
a) Mit welcher Wahrscheinlichkeit landet das Gepck eines Passagiers, der zufallig
ausgewhlt wird, nicht an seinem Zielflughafen?
b) Ein Passagier wartet an seinem Zielflughafen vergeblich auf seinen Koffer. Dieser scheint wohl verloren gegangen oder fehlgeleitet worden zu sein. Mit welcher Wahrscheinlichkeit ist dieser Passagier mit Fluggesellschaft A geflogen?
c) Prfen Sie, ob die beiden Ereignisse E,: "Ein Passagier fliegt mit Gesellschaft B"
und E,: "Sein Gepck wird fehlgeleitet" voneinander abhngig sind!

4. Aufgaben

299

AufgabeW17
In einer Firma wird ein Produkt in zwei unabhngig voneinander und nacheinan-

der ablaufenden Arbeitsgngen hergestellt. Es gilt als Ausschuss, wenn bei einem
der beiden Arbeitsgnge ein Fehler passiert. Die Wahrscheinlichkeit fr das Entstehen eines Ausschussstcks liegt nach Erfahrungswerten bei 0,06. Dabei geschieht
mit einer Wahrscheinlichkeit von 0,04 ein Fehler im ersten Arbeitsgang.
Wie gro ist nun die Wahrscheinlichkeit fr einen Fehler im zweiten Arbeitsgang?
AufgabeW18
Um teuere Rckrufaktionen von produzierten Laptops zu venneiden, werden von
einem Hersteller eingehende Akkus, welche von Zulieferem hergestellt werden, ei-

nem zweislufigen Inspektionsplan unterzogen.


Es werden 10 Akkus aus einer eingegangenen Lieferung entnommen und auf Funktionsfahigkeit getestet. Sind alle 10 Akkus in Ordnung (Ereignis A), wird die liefe-

rung angenommen. Sind zwei oder mehr defekt (Ereignis A), wird die gesamte lieferung zurckgeschickt. Ist jedoch nur ein Stck fehlerhaft (Ereignis A,), wird eine
weitere Stichprobe von 20 Stck entnommen. Nur dann, wenn in dieser zweiten
Stichprobe alle Akkus einwandfrei sind, wird die Lieferung behalten, andernfalls
zurckgeschickt.
Wie gro ist die Wahrscheinlichkeit, dass eine Lieferung angenommen wird (Ereignis B), in welcher 30% der Akkus fehlerhaft sind? Gehen Sie dabei der Einfachheit
halber davon aus, dass die Stichproben mit Zurcklegen durchgefhrt werden. In
der Praxis der statistischen Qualittskontrolle werden Stichproben narrlich ohne
Zurcklegen gezogen, so dass die Wahrscheinlichkeit, einen defekten Akku zu finden, davon abhngig ist, ob der vorher entnommene Akku defekt war oder nicht.
AufgabeW19

Eine Fuballmannschaft bestehe aus 25 Spielern. Davon nehmen in jeder Begegnung nur 11 aktiv am Spiel teil. Die verbleibenden 14 Spieler dienen als Reserve.
Die traditionelle Aufstellung dieser Mannschaft sei:
Sturrnkette

Mittelfeldkette
Abwehrkette
Torwart

Vor einem wichtigen Entscheidungsspiel stellt sich die Situation der Mannschaft
nun wie folgt dar:

Genau 3 der 25 Spieler sind als Torhter spezialisiert und knnen nicht als
Feldspieler eingesetzt werden. Alle anderen Spieler knnen nicht im Tor, sondern nur auf dem Feld spielen.

Verletzungsbedingt knnen 3 Feldspieler nicht am Entscheidungsspiel teilnehmen.

Ein weiterer Feldspieler hat im vorhergehenden Spiel eine rote Karte kassiert,
sodass er ebenfalls ausfallt.

11 Wahrscheinlichkeitsrechnung

300

Es stehen damit fr das Entscheidungsspiel noch 5 Strmer, sieben Mittelfeldspieler


und x Verteidiger zur Verfgung.
a) Ermitteln Sie zunchst die Anzahl x der Verteidiger, die noch verfgbar sind!
b) Wie viele Aufstellungen sind beim Spiel prinzipiell mglich? Beachten Sie dabei,
dass die Spieler nur entsprechend ihrer Spezialisierung eingesetzt werden knnen. Mittelfeldspieler knnen also z.B. nur im Mittelfeld und nicht als Strmer
spielen. Welcher Mittelfeldspieler an welcher Position im Mittelfeld spielt ist jedoch unerheblich.
AufgabeW20

Gegeben seien die Wahrscheinlichkeiten P(A) - 0,6, PCB) - 0,2 und P(A n B) - O,l.
Berechnen Sie mittels dieser Werte folgende Wahrscheinlichkeiten zahlenmig:
a) P(A u B)
d) P(A I B)
f) P( n B)
b) P(A u B)

e) P(B I A)

g) P( u B)

c) P(AnB)
AufgabeW21

Beim Bingo drfen Sie 10 verschiedene Zahlen zwischen 1 und 100 whlen. Dann
werden 60 Zahlen zwischen 1 und 100 gezogen.
Wie gro ist die Wahrscheinlichkeit, dass dabei alle Ihre gewhlten Zahlen dabei
sind und Sie somit gewonnen haben?
AufgabeW22

Ein Unternehmen erhlt regelmig eine Lieferung von 50 Lithium-Ionen-Akkus.


Die Annahmekontrolle geschieht nach folgendem Inspektionsplan:
Es wird ein Akku entnommen und auf Mngel untersucht. Ist dieser in Ordnung,

wird ein zweiter Akku ohne Zurcklegen des vorher geprften Akkus entnommen.
Dieser Vorgang wird maximal 7-mal durchgefhrt. Sobald ein Akku als defekt eingestuft wird, weist man die gesamte Lieferung zurck. Sind die ersten 7 Akkus
allerdings einwandfrei, wird die Lieferung angenommen (Ereignis X).
Wie gro ist die Annahmewahrscheinlichkeit P(X) fr eine Lieferung, wenn 0, 5
oder 10 Stcke der Sendung schadhaft sind?
AufgabeW23

Wie gro ist die Wahrscheinlichkeit, dass in einer Familie mit 4 Kindern
a) alle 4 Jungen sind,
b) genau 2 Jungen und 2 Mdchen sind,
c) das lteste Kind ein Mdchen und die folgenden Jungen sind?
Gehen Sie dabei davon aus, dass das Auftreten eines Jungen oder eines Mdchens
gleich wahrscheinlich ist!

4. Aufgaben

301

AufgabeW24

Das sog. Sterling-Silber ist eine Legierung aus Kupfer und Silber. Beim Legierungsvorgang tritt in einer Silbennanufaktur mit einer Wahrscheinlichkeit von P(L)=O,OI
ein Fehler auf. Verunreinigungen im Silber bzw. Kupfer kommen mit peS) = 0,02
bzw. P(K) = 0,03 vor. Das entstehende Sterling-Silber gilt nur dann als einwandfrei,
wenn die verwendeten Materialien makellos sind und es im Produktionsverfahren
Zu keinen Fehlern kommt.
Berechnen Sie unter der Annahme, dass sich die mglicherweise auftretenden

Mngel bzw. produktionsfehler nicht gegenseitig beeinflussen, die Wahrscheinlichkeit fr die Produktion von hochwertigem Sterling-Silber!
AufgabeW25

Ein Neuling beim Pferderennen, der ber die Strken und Schwchen der einzelnen Pferde keine Kennmis hat, versucht sein Glck durch zuflliges Tippen bei
einem Rennen, an dem 10 Pferde teilnehmen.

a) Wie gro ist jeweils die Wabrscheinlichkeit, dass er die folgenden Ereignisse A,
B, C richtig tippt?
A: "siegendes Pferd"
B: "die ersten drei Pferde in der Reihenfolge ihres Einlaufes"
C: "die ersten drei Pferde ohne Bercksichtigung der Einlaufreihenfolge"
b) Angenommen, der Neuling hat einen todsicheren Wetttipp erhalten, der ihn
ber den Erstplatzierten des Rennens infonniert. Kommt es dadurch zu einer

nderung der Wabrscheinlichkeiten obiger Ereignisse?


AufgabeW26

Gegeben seien drei Urnen U, Ci = 1,2,3). Jede Urne enthlt insgesamt 10 Kugeln.
Der Wert i gibt dabei jeweils an, wie viele rote Kugeln sich in dieser Urne befinden. Die restlichen Kugeln sind schwarz.
Es wird nun gewrfelt, wobei der Ausgang des Wurfs darber entscheidet, aus
welcher Urne eine einzige Kugel entnommen wird. Wrfelt man 1 oder 2, so wird
die Kugel aus der Urne U, gezogen, bei 3 oder 4 aus der Urne U, und bei 5 oder 6
aus der Urne U3 "

Wie gro ist die Wahrscheinlichkeit, dass die eine gezogene Kugel rot ist?

302

11 Wahrscheinlichkeitsrechnung

Zufallsvariablen
AufgabeZl

Eine Mnze wird dreimal geworfen. Geben Sie fr die Zufallsvariable X: "Anzabl
von Kopf" sowohl die Wahrscheinlichkeits- als auch die Verteilungsfunktion in
Tabellenform an!
AufgabeZ2

Nehmen Sie an, Sie schreiben zusammen mit Ihrem Professor ein StatistikLehrbuch. Sie wollen eine bungsaufgabe stellen, in der die zuknftigen Leser prfen sollen, ob es sich bei der gegebenen Funktion um eine Dichtefunktion handelt.
Sie beabsichtigen, dass es sich bei der Funktion tatschlich um eine Dichtefunktion
handelt und diese im Bereich der mglichen Werte die Gestalt einer fallenden Gerade besitzt, welche bei x - 6 eine Nullstelle aufweist. Die Zufallsvariable X, die
durch diese Dichtefunktion beschrieben wird, soll nur Werte im Intervall [0;6] annehmen knnen. Welche Dichtefunktion liefern Sie Ihrem Professor?
AufgabeZ3

Eine diskrete Zufallsvariable X habe die folgende Wabrscheinlichkeitsfunktion:


0'2 fr x=1
fex) = 0~8 frx=2
{
sonst.

Berechnen Sie den Erwartungswert von X!


AufgabeZ4
Begrnden Sie, warum fr den Erwartungswert einer konstanten Gre a stets der

Zusammenhang E(a) - a gilt!


AufgabeZ5
Bestimmen Sie nicht durch Berechnung, sondern rein durch Argumentation, den

Erwartungswert einer Zufallsvariablen X mit folgender Wahrscheinlichkeitsfunktion:


fex)

4
0,2

0,6

0,2

AufgabeZ6

Ein Hndler hat zwei gleichartige High-End-Laptops auf Lager. Er mchte beide
innerhalb einer Periode zu je 1.500 Euro verkaufen. Dem Hndler sind folgende
verkaufswahrscheinlichkeiten bekannt: Beide Gerte werden mit 70 %, nur ein
Gert mit 20 % und kein Gert mit 10 % Wahrscheinlichkeit innerhalb der Periode
verkauft. Wie hoch ist damit in der Periode der erwartete Umsatz mit den Laptops?

4. Aufgaben

303

AufgabeZ7
Ein Spekulant kauft 1.000 US-Dollar fr 800 Euro, beabsichtigt diese aber nach einem Monat wieder zu verkaufen. Zum Verkaufszeitpunkt wird der Dollar-Kurs wie
folgt eingeschtzt:
Wert des Dollar in Euro

0,50

0,70

0,80

1,00

1,20

Wahrscheinlichkeit

10%

10%

40%

20%

20%

Wie hoch ist der erwartete Gewinn bzw. Verlust aus der Spekulation? Berechnen
Sie ein geeignetes Ma zur Messung des Risikos dieser Speakulation!
AufgabeZ8
in einer Studiengruppe befmden sich 6 sehr gute und 6 mittelmige Studenten.
1hr Professor bentigt nun einen dieser Studenten fr die Durchfhrung eines Mathematiktutoriums. Da er aber ein schlechtes Personengedchtnis hat, kann er nicht
unterscheiden, welche die 6 ausgezeichneten Studenten sind. Fr die Auswahl eines Kandidaten geht er nun folgendermaen vor: Er greift zufallig einen Studenten
heraus und stellt ihm eine Rechenaufgabe, von der er wei, dass diese nur von den
sehr guten Studenten gelst werden kann. Kann der befragte Student keine korrekte Antwort geben, whlt der Professor zufallig einen weiteren Studenten aus und
stellt eine neue Aufgabe. Dies macht er so lange, bis ein Student die gestellte Aufgabe lsen kann. Dieser wird dann (seine Bereitschaft vorausgesetzt) Tutor.
Die Zufallsvariable X stehe nun fr die Anzahl der befragten Studenten aus der
Studiengruppe. Berechnen Sie E(X)! Was sagt E(X) hier aus?
AufgabeZ9
Es sei folgende Funktion fex) der stetigen Zufallsvariable X gegeben:
f(x) = {

2X

O~x~l

sonst

a) Zeigen Sie, dass fex) eine Dichtefunktion ist!


b) Bestimmen Sie die Verteilungsfunktion F(x)!
c) Wie gro sind die Wahrscheinlichkeiten P(O, 3 ~ X ~ 0,7) und P(X > 0,8)?
AufgabeZlO
Berechnen Sie Erwartungswert und Varianz einer stetigen Zufallsvariablen X, die im
intervall 0 < x < 3 gleichmig mit der konstanten Dichte von 1/3 verteilt ist!
Bestimmen Sie auerdem die Wahrscheinlichkeiten P(X = 1), P(X ~ 2), P(X < 2)
sowie PO< X < 2) und P(l ~ X < 2)!
AufgabeZll
Nehmen Sie an, eine Zufallsvariable X besitzt den Erwartungswert l1x - 8 und die
Varianz cs~ - 4. Schtzen Sie ab, wie gro die Wahrscheinlichkeiten
a) p(4 < X < 12)
b) p(X ~ 2 u X:<: 14)
mindestens bzw. hchstens sind!

11 Wahrscheinlichkeitsrechnung

304

AufgabeZ12
Eine diskrete Zufallsvariable Y mit den drei Realisationen 0, 1 und 2 besitzt die folgende Wahrscheinlichkeitsfunktion:
f(y) = {0,25Ja _2-

y 1
-

fr y = 0,1,2
sonst

a) Welchen Wert muss die Konstante a annehmen?


b) Berechnen Sie E(Y) und Var(Y)!
c) Wie gro sind die Wabrscheinlichkeiten P(Y > 1), P(Y '" 1) und P(O";; Y < 5)?

AufgabeZB
Ein idealer Wrfel wird n-mal geworfen. Es sei X: "Augensumme" und Y: "Augenprodukt" . Berechnen Sie E(X) und E(Y)!
AufgabeZ14
Drei Anleger A, Bund C wollen sich ein Portfolio aus Aktien der Finnen G und H
zusammenstellen. ber die Rendite X von Finna G und Y von H ist bekannt, dass
E(X) - 0,07
E(Y) - 0,12

Var(X) - 0,16
Var(Y) - 0,25

Beantworten Sie dazu folgende Fragen:


a) Welchen Wert besitzt die Kovarianz der Aktienrenditen?
b) Anleger A entschliet sich sein gesamtes Vermgen in Aktie G zu investieren,
da diese (gemessen an der Varianz) ein geringeres Risiko hat. Anleger B entscheidet sich hingegen zu einer 50:50-Investition. Welcher der beiden Anleger
hat nun die Anlageform mit dem geringeren Risiko gewhlt?
c) Anleger C behauptet, er kenne eine optimale Strategie im Sinne eines minimalen Risikos. In welchen Relationen wird er in die Aktien G und Hinvestieren?

AufgabeZ15
Fr die Aktien zweier Unternehmen A und B ergeben sich zu verschiedenen Situa-

tionen 1, 2 und 3, die mit gewissen Wahrscheinlichkeiten auftreten knnen, folgende Renditen:
Situation i

Wahrscheinlichkeit p.

1/3

2
3

Rendite

fi

Rendite

0,385

--{),225

1/3

0,140

0,020

1/3

--{),105

0,265

riB

Untersuchen Sie die Korrelation der Renditen von A und B und geben Sie an, wie
hoch die erwartete Rendite und die Standardabweichung eines Portfolios ist, welches je zu 50 % in A und B investiert!

4. Aufgaben

305

AufgabeZ16
Aus einer Gruppe von berufsttigen Ehepaaren, die jeweils in einem Haushalt zusammenleben, wird eines zufllig ausgewhlt. Es ist bekannt, dass das erwartete
Einkommen des Mannes bei einer Varianz von Var(X) = 300 ' bei E(X) = 3.000
liegt. Fr die Frau gilt E(Y) = 2.500 und Var(Y) = 200 '. Ermitteln Sie unter der
Annahme eines Korrelationskoeffizienten von 0,50 den Erwartungswert und die
Varianz des Haushaltseinkommens Z!
AufgabeZ17
Bei einem Wettbewerb werden die besten Doktorarbeiten Deutschlands von einer
Jury hinsichtlich formaler Korrektheit X in zwei und bezglich der praktischen Verwendbarkeit Y in drei Gteklassen eingeteilt. Ein Doktorand rechnet mit folgenden
Wahrscheinlichkeiten, dass seine Arbeit bezglich der beiden Merkmale X und Y in
die einzelnen Gteklassen fallt:

?
0,15

0,20
0,10

0,05
0,05

x
1
2

Ermitteln und interpretieren Sie


a) den fehlenden Tabellenwert im Hinblick darauf, wie der Doktorand seine Leistung einschtzt,
b) fy (1) ,
feX = 21 Y = 3),
d) E(X) , E(Y), Var(X) und Var(Z),
c)

e) E(X 11) und Var(X 11) sowie


Pxy!
Prfen Sie des Weiteren, ob

f)

g) X und Y voneinander stochastisch unabhngig sind!

AugabeZ18
Eine Aktie der AW-Clan AG werfe einen mittleren Jahresgewinn von I1G = 10 ab.
Die Unsicherheit im tatschlichen Gewinn kommt in seiner Standardabweichung
von ClG = 30 zum Ausdruck.
Berechnen Sie Erwartungswert und Standardabweichung des Gewinns eines Portfolios P, das sich

a) aus drei Aktien des AW-Clans


b) aus einer Aktie des AW-Clans und zwei weiteren Gesellschaften, die jeweils
denselben Erwartungswert und dieselbe Standardabweichung aufweisen,
zusammensetzt! Unterstellen Sie bei b), dass sich die Gewinne der einzelnen Ge-

sellschaften vllig unabhngig voneinander entwickeln!

11 Wahrscheinlichkeitsrechnung

306

Verteilungen
Aufgabe VI
20 Personen gleichen Alters und gleicher physischer Konstitution, die bei einer
Versicherungsgesellschaft Lebensversicherungsvertrge abgeschlossen haben, sind
an einer schweren Grippe erkrankt. Nach Meinung der rzte betrgt die Wahrscheinlichkeit fr jeden der Erkrankten, das nchste Jahr nicht zu berleben, 10 %.
Wie wahrscheinlich ist es, dass nach einern Jahr wenigstens a) 18 bzw. b) 1 Erkrankte(r) noch am Leben sind (ist)? Bestimmen Sie die gesuchten Wahrscheinlichkeiten ohne Nutzung der Verteilungstabellen aus dem Anhang!
AufgabeV2

Ein Diktator hat eine Liste mit 12 Offizieren einer Elitetruppe vor sich. Der Diktator
wrfelt 6 der 12 Offiziere aus. Diese 6 bilden seine Leibwache. Von seinem Geheimdienst erfhrt der Diktator, dass unter den 12 Offizieren 2 Attentter sind.
Wie wahrscheinlich ist a) kein Attentter bzw. b) mindestens ein Attentter unter
der Leibwache?
AufgabeV3

Nehmen Sie an, in einern Wahlkreis beabsichtigen 45 % der Wahlberechtigten eine


Partei B zu whlen, die sich dafr einsetzt, dass Bayrisch als eigenstndige Fremdsprache anerkannt wird. Wie gro ist nherungsweise die Wahrscheinlichkeit, dass
die Whler dieser Partei in einer Zufallsstichprobe von n = 10 (ohne Zurcklegen)
die Mehrheit (mehr als 50 % der Stimmen) haben?
Aufgabev4

Eine Schachtel enthlt 500 elektrische Bauteile, von denen 100 defekt sind. Wie
gro ist nherungsweise die Wahrscheinlichkeit, dass hchstens 2 von 10 (ohne
Zurcklegen) entnommenen Bauteilen defekt sind? Bestimmen Sie die gesuchten
Wahrscheinlichkeiten ohne Nutzung der Verteilungstabellen aus dem Anhang!
AufgabeVS
In einern Telefonnetz mit 10.000 Telefonanschlssen tritt mit einer Wahrscheinlichkeit von 0,0005 pro Tag pro Anschluss eine Funktionsstrung auf. Strungen treten
dabei unabhngig voneinander auf. Die Wahrscheinlichkeit, dass pro Tag und Anschluss mehr als eine Strung auftritt, kann vernachlssigt werden.
Wie gro ist die Wahrscheinlichkeit, dass genau 5 (a), mindestens 10 (b) und
hchstens 20 (c) Strungen auftreten?
Aufgabev6
In einern Callcenter gehen im Durchschnitt pro Minute 3 Anrufe ein. Wie gro ist
die Wahrscheinlichkeit, dass die Callcenterrnitarbeiter in einer bestintrnten Minute
"arbeitslos" sind?

4. Aufgaben

307

AufgabeV7
Von 10.000 Einwohnern einer Stadt sind nur SOO daran interessiert, dass der aktuelle Brgermeister irn Amt bleibt. Dieser Brgermeister mchte nun vor der Wahl mit
SO rein zufllig ausgewhlten Brgern sprechen, um sich einen Eindruck von seinen Wiederwahlchancen zu machen.

Wie gro ist nherungsweise die Wahrscheinlichkeit, dass ihm von mindestens 7,
jedoch hchstens 10 Brgern eine positive Resonanz gegeben wird?
AufgabeV8
Nach Herstellerangaben liegt die durchschnittliche Lebensdauer einer Energiesparlampe bei 4.000 Stunden. Wie gro ist die Wahrscheinlichkeit dafr, dass die Glhbirne weniger als halb so lange (a) oder mehr als doppelt so lange (b) brennt,
wenn als geeignetes Modell fr die Verteilung der Lebensdauer X die Exponentialverteilung verwendet wird? Skizzieren Sie die gesuchten Wahrscheinlichkeiten
unter Verwendung dieser Dichtefunktion!
AufgabeV9
Die Zufallsvariable X beschreibe die Wartezeit eines Kunden an einem Bankschalter. Zeigen Sie allgemein, dass die Wahrscheinlichkeit, endlich an die Reihe zu
kommen, mit zunehmender Wartezeit w nicht zunimmt, wenn die Zeitdauer einer
Exponentialverteilung gehorcht!
AufgabeVIO
Berechnen Sie fr eine standardnormalverteilte Zufallsvariable Z die wahrscheinlichkeiten p(O S Z S 1,6), p(-1,6 < Z < 0), p(Z > 1,6) und P(-2,S S Z S 2,S)!
Erklren Sie, warum es hier keine Rolle spielt bei der Berechnung der Wahrscheinlichkeiten zwischen "<" und I1S11 bzw. ">" und rl~" Zu differenzieren!

AufgabeVll
Die Brenndauer von Glhbirnen einer speziellen Marke sei normalverteilt mit dem
Mittelwert 900 Stunden und der Standardabweichung 100 Stunden. Wie gro ist die
Wahrscheinlichkeit, dass eine zufllig aus der Produktion entnommene Glhbirne
a) mindestens 1.200 Stunden
b) hchstens 6so Stunden
c) zwischen 7S0 und 1.0S0 Stunden
brennt?
AufgabeV12
Das Gewicht (in Gramm) von Zuckerpaketen sei N(1.000; 2S)-verteilt. Ennitteln Sie
a) das Gewicht, das ein zufllig entnommenes Zuckerpaket mit einer Wahrscheittlichkeit von 90 % hchstens wiegt,
b) das Gewicht, das ein zufllig entnommenes Zuckerpaket mit einer Wahrscheittlichkeit von 9S % mindestens wiegt,
c) den zum Erwartungswert symmetrischen Bereich, der das Gewicht eines zufllig entnommenen Pakets mit einer Wahrscheinlichkeit von 98 % enthlt.

308

11 Wahrscheinlichkeitsrechnung

AufgabeV13
Eine Molkerei produziert unter anderem Butterriegel, deren Gewichte als normalverteilt angesehen werden. Aus Erfahrung ist nun bekannt, dass die Wahrscheinlichkeit dafr, dass ein zufllig entnommener Riegel maximal 1 g vom Sollwert
!1 = 250 g abweicht, bei 98 % liegt. Welche Streuung CJ implizieren diese Erfahrungswerte?

AufgabeV14
a) Bestimmen Sie das O,90-Fraktll und das O,10-Fraktil einer x'(10)-Verteilung!
b) Bestimmen Sie das O,99-Fraktil und das O,Ol-Fraktil einer t(20)-Verteilung!
c) Bestimmen Sie das 0,95- und das O,01-Fraktll einer Fe8; 10)-Verteilung!
AufgabeV15
An einer Bushaltestelle in Frankfurt fhrt exakt alle 10 Minuten ein Bus ab. Wie
gro ist die Wahrscheinlichkeit, dass ein zufllig eintreffender Fahrgast lnger als 5
Minuten warten muss?

AufgabeV16
Eine Brauerei fllt Weibier in extra groe Flaschen ab. Umfangreiche Messungen
haben ergeben, dass der Flascheninhalt mit !1 = 751,5 mI und CJ = 0,6 mI normalverteilt ist. Der Mindestinhalt einer Flasche betrgt 750 m1.
a) Wie gro ist die Wahrscheinlichkeit, dass eine Flasche unterfllt ist?
b) Wie gro ist die Wahrscheinlichkeit, dass in einer Flasche zwischen 750 und
753 ml enthalten sind?
c) Wie gro ist bei geeigneter Unabhngigkeitsannahme die Wahrscheinlichkeit,
dass beim Kauf von sechs Flaschen insgesamt eine Unterfllung vorliegt?
d) Die Abfllanlage war bisher auf 751,5 mI justiert. Wie ist die Maschine bei CJ =
0,6 mI einzustellen, wenn hchstens 2,5 % der Flaschen unterfllt sein sollen?
AufgabeV17
Von den Mitarbeitern einer Bankfiliale werden im Jahresdurchschnitt 1.000.000
berweisungen verbucht. Die Fehlerquote bei der Archivierung der berweisungsbelege liege bei 0,5 %. Fr diese Filiale werden im Rahmen der Innenrevision nun
zufllig 3.000 Belege berprft. Ein Fehleranteil von 1 % wird dabei als tolerierbar
angesehen. Andernfalls hat sich der Filialdirektor zu verantworten. Wie wahrscheinlich sind nun negative Folgen fr den Filialdirektor?
AufgabeV18
Eine Maschine fllt Mrchen in Blechdosen ab. Die Gewichte des Inhalts und der
leeren Dosen seien unabhngig normalverteilt mit dem Mittelwert 750 g bzw.
50 g und der Varianz 100 g' bzw. 5 g'. Genau 1.000 dieser befllten Dosen werden
nun rein zufllig in einen Lieferwagen verladen.
a) Wie wahrscheinlich ist es, dass eine einzelne Dose weniger als 790 g wiegt?
b) Wie gro ist die Wahrscheinlichkeit, dass die in den Lieferwagen verladenen
Dosen ein Gewicht von 801 kg berschreiten?

III INDUKTIVE STATISTIK

Hufig stellt sich in der Statistik die Aufgabe, Informationen ber bestimmte Eigenschaften einer statistischen Grundgesamtheit zu beschaffen (z.B. Durchschnittseinkommen bayerischer Studenten oder der Zusammenhang zwischen Arbeitseinkommen und Bildung bei Erwerbspersonen). Da in vielen Anwendungsfllen eine
vollstndige Datenerhebung (Einbeziehung smtlicher Elemente der Grundgesamtheit) aber unmglich oder nicht zweckmig (zu kosten- und zeitintensiv) ist,
werden durch die in einer Teilerhebung (Stichprobe; Teilmenge der Grundgesamtheit) gewonnenen Daten Rckschlsse auf die Gesamtsituation gezogen. So knnen beispielsweise Mittel- oder Anteilswerte in der Grundgesamtheit aufgrund der
Ergebnisse der Teilerhebung mehr oder weniger genau geschtzt werden.
Zur Schtzung knnen sog. Punktschtzverfahren verwendet werden, die einen
einzigen Schtzwert liefern. Es kann auerdem ein Intervallschtzverfahren herangezogen werden. Hier wird als Schtzergebnis ein Intervall bestimmt, in das
der unbekannte Parameter mit einer vorgegebenen hohen Wahrscheinlichkeit fllt.
Soll eine bezglich der Grundgesamtheit bestehende Hypothese an hand der
Stichprobenergebnisse auf ihre Richtigkeit berprft werden, so geschieht dies mit
sog. Hypothesentests. Sie sind so konstruiert, dass eine korrekte Hypothese nur
mit einer geringen Wahrscheinlichkeit abgelehnt wird.

Punktschtzung

Hufig ist es wOnschenswert, einen unbekannten charakteristischen Wert der Verteilung


einer Grundgesamtheit mglichst genau zu kennen. So kann sich z.B. eine Partei fOr
ihren Stimmanteil bei der nchsten Wahl (Anteilswert) oder eine Versicherungsgesellschaft fr die Lebenserwartung von Rauchern (Mittelwert) interessieren. Wird bei solchen
Fragestellungen fOr einen unbekannten Parameter der Verteilung der Grundgesamtheit
aufgrund des Ergebnisses einer Stichprobe ein einziger numerischer Schtzwert festgelegt, sprechen wir von einer Punktschtzung. Die Stichprobenergebnisse werden dabei in
sog. Schtzfunktionen verarbeitet, die dem Stichprobendatenmaterial einen charakteristischen Zahlenwert zuordnen. Dieser Zahlenwert dient dann als Schtzung.

1.1 Stichproben
Allgemein sind bei Teilerhebungen zwei Arten von Auswahlverfahren Zu unterscheiden. Dies sind Zufallsstichproben und Verfahren der bewussten Auswahl.
Bei Zufallsstichproben besitzen smtliche Elemente der Grundgesamtheit bestimmte, von Null verschiedene Wahrscheinlichkeiten, in die Stichprobe zu gelangen. Das einfachste Verfahren dieser Gruppe ist die reine (uneingeschrnkte) Zujallsauswahl, bei der jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit besitzt, gezogen zu werden.

Eine Zufallsstichprobe kann durch ein Urnenmodell vollstndig beschrieben werden. Die Urne enthlt dabei genau N Kugeln (- Aozahl statistischer Einheiten in
der GrundgesamtheiO, die nummeriert sind und von denen jede genau einer statis-

tischen Einheit zugeordnet ist. Fr eine reine Zufallsstichprobe vom Umfang n ziehen wir n Kugeln, notieren die Nummern und haben damit die Auswahl der statistischen Einheiten vorgenommen. Das Ziehen kann dabei mit oder ohoe Zurcklegen vorgenommen werden.
Untersuchen wir alle Objekte der Grundgesamtheit hinsichtlich eines Merktnals X,
so knnen die festgestellten Merktnalsausprgungen als Realisationen einer Zufallsvariablen X betrachtet werden. Die sich daraus ergebende Verteilung von X wird
auch als Verteilung der Grundgesamtheit bezglich des Merktnals X bezeichoet.
Daraus knnen schlielich Mittelwert und Varianz der Grundgesamtheit (bezglich
des Merktnals X) bestimmt werden. In der induktiven Statistik gehen wir nun aber
gerade einen anderen Weg. Aus einer Stichprobenerhebung sollen Verteilung, Mittelwert, Varianz und andere Charakteristika der Grundgesamtheit geschtzt werden.
Es wird daher nach bestimmten Ziehungsvorschriften eine bestimmte Aozahl von
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_10, Springer Fachmedien Wiesbaden 2015

111 Induktive Statistik

312

Objekten aus der Grundgesamtheit ausgewhlt, wobei bei jedem Objekt die Ausprgung des Merktnals X registriert wird. Die Anzahl n der so durchgefhrten Beobachtungsvorgnge wird als Sticbprobenum[ang bezeichnet. Jeden Beobachtungswert X, knnen wir als Realisierung einer Zufallsvariablen, der sog. i-ten Sticbprobenvariablen X, mit i = 1,2, ... ,n, ansehen.
Alle Stichprobenvariablen X, sind unabbngig und bezglich der Grundgesamtheit
identlscb verteilt (d.h. genau wie X), l wenn die Entnahme der Objekte aus der
Grundgesamtheit als reine Zufallsauswahl und unabhngig voneinander erfolgt.
Beim derartigen Ziehen eines Objekts aus der Grundgesamtheit handelt es sich
beim interessierenden Merktnal also um eine Zufallsvariable, die genauso verteilt ist
wie die Grundgesamtheit selbst. Wir bezeichnen eine solche unabhngige Zufallsauswahl als einfache Stichprobe vom Umfang n. Das Sticbprobenergebnls ergibt
sich durch die Realisierungen 'S,'S, ... ,". der n Stichprobenvariablen X"x" ... ,x,.
Einer einfachen Stichprobe liegt die Vorstellung eines zufalligen Zlebens mit
Zurcklegen zugrunde. Nur in einem solchen Fall ist nmiich gewhrleistet, dass
die Zge und damit auch die Stichprobenvariablen unabhngig sind. Einfache
Stichproben sind jedoch in der Praxis nicht immer zu realisieren. Beim zuBilligen
Zieben obne Zurcklegen sind die Zge abbngig voneinander. Im Folgenden
werden wir dennoch vor allem einfache Stichproben behandeln. Wenn wir von einer Stichprobe sprechen, meinen wir daher Ld.R. eine einfache Stichprobe. Die
Aussagen, die entwickelt werden, gelten beim Ziehen ohne Zurcklegen zumindest
nherungsweise, wenn die Anzahl N der Elemente der Grundgesamtheit sehr viel
grer als der Stichprobenumfang n ist. Als Faustregel sollte n S O,lN vorliegen.
Verfahren der bewussten Auswahl beruhen nicht auf dem Zufallsprinzip. Ein
hufig in der Markt-und Meinungsforschung eingesetztes verfahren dieser Richtung ist die sog. Quotenauswabl. Dabei wird versucht, die in die Stichprobe aufzunehmenden Elemente so zu whlen, dass die Teilgesamtheit einen modellgerechten Miniaturquerschnitl der zu untersuchenden Grundgesamtheit darstellt (z.B. bestimmte Frauenquote). Da die Interviewer allerdings mehr oder weniger frei bei der
Auswahl der zu befragenden Personen sind (subjektive Auswahl), knnen keine
wahrscheinlichkeitstheoretisch fundierten Aussagen ber die Zuverlssigkeit der gewonnenen Ergebnisse gemacht werden.

1.2 Schtzer und ihre Stichprobenverteilungen


1.2.1 Grundlagen der Punktschtzung
Bei einer Punktschtzung wird fr einen unbekannten Parameter i} der Verteilung
einer Grundgesamtheit aufgrund des Ergebnisses 'S,"., ... ,". einer Stichprobe ein
numerischer Schtzwert ~ festgelegt2 Ein solcher Schtzwert kann als Realisierung
einer Stichprobenfunktion
(1111: 1)

1 Diese Eigenschaften der Stichprobenvariablen bezeichnet man als i.i.d. (engl. independent
and identically distributed). Aus ihnen folgt FX1,...,x,. (xw"'x n ) = FX1 (Xl)' .... Fx,. (X n ).
2 Hinweis: ' ist der Kleinbuchstabe zu e.

1. Punktschtzung

313

betrachtet werden, die der Verarbeitung des eintretenden Stichprobenergebnisses


zu aussagekrftigen Gren dient und als Schtzfunktlon oder Schtzer bezeichnet wird. Da die n Stichprobenvariablen X" ... , X. Zufallsvariablen sind, ist auch e
als Funktion der n Zufallsvariablen eine Zufallsvariable. Die Wahrscheinlichkeitsverteilung von eheit Stichprobenverteilung von e. Fr eine konkrete Stich"robe mit den Ausprgungen x" x" ... , X, liefert der Schtzer e die Schtzung
~=g(X" ... ,Xn)' ~ ist also die konkrete Realisation der Zufallsvariable e. Der
Schtzer gibt somit an, wie aus den Ergebnissen einer Stichprobe ein Schtzwert fr
t} Zu bestimmen ist.
Unser Ziel ist es, eine konkrete Stichprobenrealisation x"x" ... ,x, durch geeignete
gewhlte Funktionen g(X" ... ,X,) so Zu verdichten, dass wir auf uns interessierende
Kennzahlen bzw. Parameter der Grundgesamtheit bzw. der Verteilung von X
schlieen knnen. Nach welchen Kriterien derartige Funktionen auszuwhlen sind,
werden wir im Abschnitt III 1.3 vertiefen. Die Schtzer fr das arithmetische Mittel,
den Anteilswert und die Varianz einer Grundgesamtheit sind in der folgenden
Tabelle enthalten und im Anschluss daran erklrt:
Parameter

Schtzer

Arithm. Mittel

Stichprobenmittel
.. _ 1
I1=X=-

LX,
n
n

(1111: 2)

i=-l

Anteilswert

Stichprobenanteilswert

_ 1 n
p=X=-LX,

Varianz

Stichprobenvarianz

0'

' =~S2 =_l_t(X -l'

n-1

fr

1=1

n-l

l" 1

X, ={10
1

A tritt ein
A tritt nicht ein

(1111: 3)

(1111: 4)

Hinsichtlich der Notation ist zunchst ZU beachten, dass wir Schtzer im Folgenden
dadurch kennzeichnen wollen, dass wir die ZU schtzenden Parameter mit
"Dchern" versehen. Fr die Realisationen der obigen Schtzer werden wir aus
Vereinfachungsgrnden auerdem keine eigene Symbolik einfhren, da stets aus
dem Kontext hervorgeht, worum es sich genau handelt.3
Die obige bersicht zeigt mit (1111: 2), dass wir als Schtzer i1 des arithmetischen
Mittels 11 einer Grundgesamtheit, das arithmetische Mittel X der Stichprobenvariablen x" ... ,x" verwenden knnen. Die Schtzung fr 11 aus einer konkreten Stichprobe ist also gerade das arithmetische Mittel der Realisationen x" ... ,x. der n
Stichprobenvariablen.

Die Verwendung von Grobuchstaben fr Schtzer und Kleinbuchstaben fr Schtzungen


(Realisationen) ergbe l.B. das Problem, dass wir den Schtzer fr ci mit t 2 und seine
Realisation mit Cf benennen mssten. Diese Symbolik ist aber bereits fr das Summenzeichen vergeben.

314

111 Induktive Statistik

Beispiel 111 1-1

Schtzung des Erwartungswerts

Von den Studenten einer Vorlesung (Grundgesamtheit) werden 5 zufllig ausgewhlt und
ihre Krpergre X in cm festgehalten. Die Stichprobe ergab die x-Werte 182, 178, 186,
180, 177. Wir knnen damit die durchschnittliche Krpergre 11 aller Studenten in der Vorlesung auf

1
LX, =-(182+
... +177) = 180,6 cm
5

1"
11= n 1_1
schtzen.

Beim Anteilswert p handelt es sich um nichts anderes als den Mittelwert einer
dichotomen Grundgesamtheit. In einer solchen Grundgesamtheit gilt fr die Stichprobenvariablen X" ... ,x" hinsichtlich des Eintritts eines Ereignisses A
I falls A eintritt
Xi = { 0 falls A nicht eintritt.
Das Stichprobenmittel beschreibt also im Fall einer dichotomen Grundgesamtheit
gerade die relative Huftgkeit der Ausprgung I in der Stichprobe und wird daher
in diesem Kontext als Stichprobenanteilswert bezeichnet.

Beispiel 111 1-2

Schtzung des Anteilswerts

Aus einer Gruppe von 5.000 Personen werden zufllig 100 befragt, ob sie einer Partei A
bei den nchsten Wahlen ihre Stimme geben werden. Nur 5 davon uern sich diesbezglich positiv. Genau 5 der X. nehmen daher die Realisation 1 an, sodass wir den unbekannten Anteil p potenzieller Whler unter den 5.000 Personen auf

_ 1"
p=n ,.,

1
LX, =-5=0,05
100

bzw. 5 % schtzen knnen.

Wie (1111: 4) zeigt, verwenden wir (beim Ziehen mit Zurcklegen) als Schtzer 6'
fr die Varianz 0' nicht - wie man vielleicht vermuten wrde - die mittlere quadratische Abweichung
S'

=.!. :t (X, n

(IIII: 5)

X)' ,

1..1

sondern modifizieren diese. Die so entstehende Stichprobenvarianz

a2

besitzt als

Schtzer bessere Eigenschaften als S'. Zu diesen zhlt etwa die Erwartungstreue, die
wir im Abschnitt III 1.3.1 noch nher betrachten werden.

Beispiel 111 1-3

Schtzung der Varianz

Fr Beispiel 111 1-1 erhalten wir (beim Ziehen mit ZurOckiegen) als Schtzung die Varianz

Cf =-I-i;(x,-x)' =_1_.(182-180,6)'+ ... +(177-180,6)')=12,8 cm' .


n-l'-1

5-1

1. Punktschtzung

315

ln den folgenden Abschnitten wollen wir uns nun den Verteilungen der bisher behandelten Schtzer zuwenden. Diese erlauben uns, WahrschelnUchkeiten dafr zu
bestimmen, dass die Sttchprobengroen In einer gezogenen Stichprobe einen bestimmten Wert annebmen. Sie werden auerdem noch im Rahmen von Intervallschtzungen (Kapitel III 2) und Testverfahren (Kapitel III 3) von Bedeutung sein.

1.2.2

Verteilung des Stichprobenmittels

Zur Herleitung der Verteilung des arlthmetischen Mittels einer Zufallsstichprobe


bedienen wir uns des Urnenmodells fr ein metrisch skaUertes Merkmal. Es werden
hier die N Elemente der Grundgesamtheit durch N Kugeln reprsentiert. Auf diesen
Kugeln sind die entsprechenden Merkmalswerte X. Ci - 1, ... ,N) aufgedruckt. Der
Mittelwert /1 der Grundgesamtheit ergibt sich als arithmetisches Mittel dieser Merkmalswerte. Wird nun eine Stichprobe im Umfang n entnommen, so hngt das Ergebnis eines jeden Zuges vom Zufall ab. Das Ergebnis des i-ten Zuges, welches wir
mit X, bezeichnen wollen, ist daher eine Zufallsvariable, die bei einer bestimmten
Ausfhrung des Zufallsexperiments die konkrete Realisation X. annimmt.
Ziehung Nr.

Stichprobenvariable

Je,

Je,

x,

Realisation

Xl

x,

x.

x.

x.

Als Funktion von n Zufallsvariablen ist das arithmetische Mittel der Stichprobe, wie
wir bereits gesehen haben, ebenfalls eine Zufallsvariable, und zwar
_

X=- LXi'
n 1..1
Die Verteilung von X hngt davon ab, ob die Ziehung mit oder ohne Zurcklegen
erfolgt. Wir wollen daher im Folgenden beide Entnahmetechniken betrachten.
1.2.2.1

Ziehen mit Zurcklegen

Bezeichnen wir das arithmetische Mittel bzw. die Varianz der Grundgesamtheit mit
/1 und ci. Da die n Zufallsvariablen X, wie die Grundgesamtheit verteilt sind, d.h.
E(Je,) - ... - E(x.,) - /1 und Var(X,) - ... - Var(x.) - 0' gilt, erhalten wir unter Anwendung der unter 11 2.7.5 behandelten Rechenregeln fr Linearkombinationen
von Zufallsvariablen fr den Erwartungswert des Stichprobenmittels
1 n ) 1 (n
1 n
1
E(X)=E ( -LXi
=-E LXi ) =-LE(X,)=-n/1

n'_1

1_1

n'_1

d.h.
E(X) = /1 .

(1111: 6)

Der Erwartungswert von X ist somit das unbekannte Mittel /1 der Grundgesamtheit. Beachten wir zudem, dass aufgrund der Unabhngigkeit der einzelnen Zge
beim Ziehen mit Zurcklegen auch die n Zufallsvariablen X, voneinander unabhngig sind, so erhalten wir die Varianz des Stichprobenmittels als

111 Induktive Statistik

316

n J=,Var
1
(nLX, J=,LVar(X,)=,nO"'.
1 n
1
-LX,
n
n
n
n

Var(}=Var ( 1

i =l

i_I

io:l

Das vorletzte Gleichheitszeichen resultiert darin aufgrund der getroffenen Unabhngigkeitsannahme. Eine weitere Vereinfachung liefert schlielich
cf
Var(X)=- .

(1111: 7)

Fr die auch als Standard/ehler des Stichprobenmittels bezeichnete Standardabweichung des arithmetischen Mittels der Stichprobe gilt daher
0". = ,Jvar(X) =

Jn.

(1111: 8)

Die Streuung oder der Standardfehler des Schtzers hngt also von der Standardabweichung 0" der Grundgesamtheit und dem Stichprobenumfang n ab. Sie wird
offensichtlich immer geringer, je grer der Stichprobenumfang n gewhlt wird.
Die Reduktion vollzieht sich jedoch nicht linear, sondern tnit dem Faktor 1/ Fn .
So ist z.B. ein 4-facher Stichprobenumfang ntig, um die Streuung des Schtzers zu
halbieren. Dieser Sachverhalt wird auch als Fn-Gesetz bezeichnet.
Mit wachsendem Stichprobenumfang n werden sich also die Realisierungen von X
immer mehr um 11 konzentrieren. Dies ist die wesentliche Aussage des Gesetzes
der groen Zahlen. Konkret besagt es, dass fr beliebig kleine E > 0
limP(1 X-111 ~ E) = 0

(1111: 9)

n->_

gilt. Die Wahrscheinlichkeit, dass X um einen beliebig kleinen positiven Wert


von 11 abweicht, geht also tnit zunehmendem Stichprobenumfang n gegen Nu1l 4

Von der Wahrscheinlichkeitsverteilung des Stichprobentnittels kennen wir nun


Erwartungswert und Varianz. Um Aussagen ber die konkrete Verteilungsform
machen zu knnen, mssen wir die drei folgenden Flle unterscheiden:

1. Normalvertellte Grundgesamthe1t mit bekannter Varianz cr'


Ist die Grundgesamtheit bzw. das Merktnal X in der Grundgesamtheit tnit bekannter Varianz cf normalverteilt, so ist die Summe X, + X, + ... + x" der n unabhngigen Zufallsvariablen x"x" ... ,x" aufgrund der Reproduktionseigenschajt der Normalverteilung (vgl. Abschnitt 11 3.2.3.3) ebenfalls normalverteilt. Es gilt konktet
X - N(I1, cf)

-+

Xi - N(I1, 0"')

-+

tXi - N(nlJ.,ncf).

(1111: 10)

i=l

Das Gesetz der groen Zahlen besagt beim Ziehen mit Zurcklegen nicht, dass Um x = IJ. ,
also die Folge der beobachteten aritlunetischen Mittelwerte gegen J.L konvergiert"7""Es lsst
E > 0 ein ~ fInden, ab welchem eine Abweichung
I Je - J.L I~ 0 gar nicht mehr vorkme. Vielmehr kann bei jedem noch so groen n eine
Abweichung um E oder mehr wohl vorkommen. Lediglich die Wahrscheinlichkeit dafr
wird immer kleiner und geht schlielich gegen Null.

sich nmlich nicht zu jedem kleinen

1. Punktschtzung

317

Damit ist auch das Stichprobenmittel X normalverteilt, da es sich von dieser Summe nur um den Faktor l/n unterscheidet.
(1111: 11)

2. Nonnalvertete Grundgesamtheit mit unbekannter Varianz cl


Ist die Grundgesamtheit normalverteilt, muss ihre Varianz jedoch mittels ' bzw.
(IIIl: 4) geschtzt werden, so ergibt sich das mit seinem Erwartungswert 11 und der
geschtzten Standardabweichung . = !.Jn transformierte Stichprobenmittel als
T=X-I1=X:::-I1.

~
.Jn

Wir sprechen bei diesem transfonnierten Stichprobenmittel T hufig auch von der
sog. t-Statistik. Durch diverse Umformungen erhalten wir daraus

X-I1.Jn

X -11
(n -1)'
T=r=!f=~ mit -o-=Z,
ci"
(n -1)'
.Jn
(n -1)0'

B, n-l=w

-+

T=

.J!'
Z

Z ist dabei offensichtlich standardnormalverteilt. B ist, wie wir unter III 1.2.4 sehen
werden, Chi-Quadrat-verteilt mit w = n - 1 Freiheitsgraden. T folgt somit nach den
Vorschriften aus Abschnitt 11 3.3.2 einer t-Verteilung mit w = n - 1 Freiheitsgraden.
X-11
T=---t(n-1)
.

.'

m,t

0.

= .Jn

(1111: 12)

3. Beliebig verteilte Grundgesamtheit


Ist die Grundgesamtheit mit 11 und 0' beliebig verteilt, so knnen wir rur groe
Stichproben auf den Zentralen Grenzwertsatz (vgl. Abschnitt 11 3.4.1) zurckgreifen, um die Verteilung von X abzuleiten. Bis auf den Faktor l!n ist das Stichprobenmittel X nmlich eine Summe von n unabhngigen und identisch verteilten
Zufallsvariablen X,. Mit wachsendem Stichprobenumfang n strebt somit die Verteilung von X gegen eine Normalverteilung mit dem Erwartungswert E(X) = 11 und
der Varianz Var(X) = cl ! n. Man sagt, dass X asymptotiscb normalverteilt ist.
H_

X~N(!l, : )

(1111: 13)

Als Faustregel kann angegeben werden, dass rur n > 30 das Stichprobenmittel in
guter Nherung normalverteilt ist. Abbildung III 1 verdeudicht rur vier ausgewhlte
Grundgesamtheiten die beschriebene Konvergenz der Verteilung des Stichprobenmittels gegen die Normalverteilung. 5 Dabei sind in der ersten Zeile die verschiedenen Grundgesamtheiten dargestellt. Die zweite, dritte und vierte Zeile zeigt die

5 Die GrafIk ist entnommen aus Bleymller et al. (2004), Kapitel 13.

318

111 Induktive Statistik

resultierenden Verteilungen der Stichprobenmittelwerte bei Stichprobenumfngen


von n - 2, n - 5 und n - 30.
1.2.2.2

Ziehen ohne Zurcklegen

wird ohne Zurcklegen gezogen, gilt fr den Erwartungswert und die Varianz des
Stichprobenmittels
(1111: 14)

Var(X)

c:l'N-n

=- - - .

(1111: 15)

n N-1

Wie zu erkennen ist, unterscheiden sich also beim Ziehen ntit und ohne Zurcklegen die Varianzen durch den Faktor (N - n)/(N - 1), den wir bereits aus Abschnitt 11 3.1.2.2 kennen und der in der induktiven Statistik auch als Korrekturfaktor
fr endliche Gesamtheiten oder kurz Endl/cbkettskorrektutjaktor bezeichnet wird.
Fr n .$"O,lNknnen wir diesen wieder vernachlssigen (vgl. Abschnitt 11 3.1.2.3),
sodass sich die Varianzen entsprechen.
Trotz der Tatsache, dass die einzelnen Zufallsvariablen X; beim Ziehen ohne Zurcklegen nicht unabhngig sind, wird auch hier mit wachsendem Stichprobenumfang der Zentrale Grenzwertsatz wirksam, sofern N im Verhltnis zu n ausreichend
gro ist. Als Faustregel knnen wir die nherungsweise Normalvertetlung des
Stichprobenmittels fr n > 30 und n.$" OSN annehmen.

x-

(11,

cr'))

n >30
0,5N

n.,
Beispiel 111 1-4

-+

-, ( cr'
N-nJ
n

X - N 11,--N-1

(1111: 16)

Verteilung des Stichprobenmittelwerts

Die von einer Unternehmung hergestellten Energiesparlampen haben eine durchschnittliche Lebensdauer von iJ. = 900 Stunden bei einer Standardabweichung von (J = 50 Stunden. Aus der laufenden Massenproduktion wird eine Stichprobe im Umfang von n = 35
StOck entnommen. Wie gro ist die Wahrscheinlichkeit dafr, dass die Stichprobe eine
durchschnittliche Lebensdauer
von weniger als 880 Stunden liefert?

Das Stichprobenmittel X ist annhernd normalverteiH, da (1111: 16) erfOlit ist. Es ist n > 30
und auerdem kann n ,; O,5N als erfllt angesehen werden, da bei einer Massenproduktion
von einem sehr groen N ausgegangen werden kann. Aufgrund des groen N ist auch die
Bedingung n ,;; 0,1 N rur die Vernachlssigung des Endlichkeitskorrekturfaktors erfllt und
wir knnen auf diesen verzichten, sodass

X!.

+.

~) = N( 900;~~) = +OO;~~) = N(900;71,43)

gilt. Die gesuchte Wahrscheinlichkeit erhalten wir daher als

P(X< 880) = FN (880)

=<I>[8~0)
= <1>(-2,37) = 1-0,9911 =0,0089.
71,43

1. Punktschalzung

319

Verteilung der Grundgesamtheit

f(xl

f(xl

f(xl

fex)

IIIIIIII,IIIIIIII,~~
J.l.

J.I.

J.I.

Verteilung des Stichprobenrruttels fr n - 2

f(xl

f(xl

f(xl

f(xl

~6,G,
x

J.I.

J.I.

J.I.

Verteilung des Stichprobenmittels fr n - 5

f(xl

f(xl

f(xl

f(xl

/\LL.
x

J.I.

J.l.

J.l.

J.I.

Verteilung des Stichprobenmittels fr n - 30

wo

!\

)
J.I.

!\

f(xl

\
J.I.

f\

f(xl

f(X)

\
J.I.

Abbildung m 1: Verteilung des Stichprobenmittels

)
x

320

111 Induktive Statistik

1.2.3

Verteilung des Stichprobenanteilswerts

Zur Herleitung der Stichprobenverteilung des Anteilswerts bedienen wir uns eines
Urnenmodells jr ein dichotomes Merkmal. Nehmen wir an, in einer Urne (Grundgesamtheit) befinden sich N Kugeln, von denen Meine besthnmte Eigenschaft A
(z.B. Farbe) aufweisen. Die restlichen N - M Kugeln besitzen diese Eigenschaft
nicht. Der Anteil der Kugeln mit der Eigenschaft A ist mit p - M/N bekannt. Es
werden nun mehrere Stichproben mit einem Umfang von n gezogen. Enthlt die
Stichprobe x Kugeln mit der Eigenschaft A, ist der Stichprobenanteilswert p - x/n.
Jede weitere Stichprobe im Umfang n kann einen anderen (zufallsabhngigen)
Stichprobenanteilswert liefern, sodass p als Realisation einer Zufallsvariablen
p = X / n: "Stichprobenanteilswert" aufgefasst werden kann. p gibt also den Anteil
der Kugeln mit Eigenschaft A in der Stichprobe an. Je nach Technik der Entnahme
ist die Wahrscheinlichkeitsverteilung dieser Zufallsvariablen p unterschiedlich.
1.2.3.1

Ziehen mit Zurcklegen

Fr den Fall der Stichprobenentnahme mit Zurcklegen ist die Zufallsvariable X:


"Anzahl der Kugeln mit Eigenschaft A in der Stichprobe", also
n

X=LX,

mit

1=1

{1 falls A eintritt
1 = 0
falls A nicht eintritt,

binomialverteilt. Fr Erwartungswert und Varianz dieser Zufallsvariablen X bzw.


der Merkmalssumme knnen wir daher
E(X)=np
Var(X) = np(1- p)
festhalten. Da sich der Anteilswert p aus dem Zusammenhang p = X / n ergibt,
lassen sich Erwartungswert und Varianz der Zufallsvariablen p: "Anteil der
Kugeln mit Eigenschaft A in der Stichprobe", d.h. des Sichprobenantei1swerts,
wie folgt besthnmen:
E(p) =

E(~X) = ~E(X) = P

(1111: 17)

= Var (-X
1 ) = - 1 Var(X) = .0....:..----"":"
p(1-p)
Var(p)
2
n

(1111: 18)

Die Standardabweichung von p wird als Standardjehler des StIchprobenanteilswertes bezeichnet und ergibt sich zu
- =
V
(.)_~p(1-P)
Var,pJ
.
n

(J. - "

(II11: 19)

Sie folgt wie jene des Stichprobenmittels dem ,;n-Gesetz. Als Spezialfall des Gesetzes der groen Zahlen (vgl. Abschnitt III 1.2.2.1) erhalten wir fr E > 0
limP(lp-pl :1:E)=O.
n~_

Dies bedeutet, dass auch fr den Stichprobenanteilswert die Wahrscheinlichkeit,


dass der Schtzer p um ein beliebig kleines positives E vom wahren Wert p ab-

321

1. Punktschtzung

weicht, mit zunehmendem Stichprobenumfang n gegen Null konvergiert. Konsequenz daraus ist, dass die unbekannte Wahrscheinlichkeit P(A) = P eines Ereignisses A durch die relative Hufigkeit p in einfachen Zufallsstichproben gengend
groen Umfangs nherungsweise bestimmt werden kann. Dieser Spezialfall des
Gesetzes der groen Zahlen ist uns bereits im Abschnitt 11 1.3.3 begegnet und war
die Rechtfertigung fr die Verwendung statistischer Wahrscheinlichkeiten.
Ist die im Abschnitt 11 3.4.2.1 behandelte Approximationsbedingung np(1-p) ~ 9 erfllt, so kann die Verteilung von p auf Basis des Zentralen Grenzwertsatzes (vgl.
Abschnitt 11 3.4.1) durch eine Normalverteilung mit den Parametern

11 = E(p) = p
c;' =

Var(p) = p(1- p)
n

approx/mtert werden. Kurz knnen wir daher


p = ~ mit X - binomialverteilt }
npCl- p) ~ 9

.!.

N (p,

P(1: P))

(1111: 20)

festhalten. Da hier eine diskrete durch eine stetige Verteilung approximiert wird,
schlagen manche Autoren bei der Wahrscheinlichkeitsberechnung eine Stetigkeitskorrektur vor. 6 Da diese Stetigkeitskorrektur aufgrund der Anwendung des Zentralen Grenzwertsatzes in den meisten Fllen nur einen sehr geringen Wert aufweist,
knnen wir sie im Folgenden vernachlssigen. Der Anteilswert wird also wie eine
stetige Variable behandelt.
BeIspIel 111 1-5

Stichprobenanteilswert (Ziehen mit Zurcklegen)

Im Land Amazonia betrgt der Anteil p weiblicher Einwohner 90 %. Wie gro ist die Wahrscheinlichkeit, dass der Frauenanteil p in einer Stichprobe von n = 500 grer als 92 % ist?
Da hier die Approximationsbedingung np(l - p) <: 9 erfllt ist, ist

p wie folgt verteilt:

p.!. N(P, P(l;P)) = N(O, 9; 0,00018)


Unter Vernachlssigung der hier sehr geringen Stetigkeitskorrektur erhalten wir so fOr die
gesuchte Wahrscheinlichkeit

P(p > 0,92) = 1-FN (0,92) = 1_<1>(0,92-0,9) = 1-<1>(1,49) = 1-0,9319 = 0,0681.


,J0,00018

1.2.3.2

Ziehen ohne Zurcklegen

Bei Stichprobenentnahme ohne Zurcklegen liegt das Modell der Hypergeometrischen Verteilung vor. Beschreibt die Zufallsvariable X wieder die Anzahl der Kugeln mit Eigenschaft A in der Stichprobe, gilt fr Erwartungswert und Varianz
6 Diese Stetigkeitskorrektur hat z.B. die Form PCp s: b) = FN(b + -t,;-). Fr eine nhere Behandlung vgl. z.B. Bleymller et al. (2004), Kapitel 12.

322

111 Induktive Statistik


M

E(X)=n-=np
N

N-n
Var(X) = np(1- p). - - .
N-1

Da sich p wieder aus dem Zusammenhang p = X / n ergibt, errechnen sich Erwartungswert und Varianz des Stichprobenanteilswertes p wie folgt:
E(p) = ~ E(X) = P

(1111: 21)

Var(jJ) = ~ Var(X) = p(1- p) N - n


n2

N-1

Gm: 22)

Wie bereits beim Stichprobenmittel unterscheiden sich die Varianzen beim Ziehen
mit und ohne Zurcklegen durch den Endlichkeitskorrekturfaktor, den wir wieder
fr n ,., O,lN vernachlssigen knnen. Die Varianz des Stichprobenanteilswertes reduziert sich dann zu (!In: 18). Wie wir in Abschnitt II 3.4.2.3 auerdem gesehen
haben, kann die Hypergeometrische Verteilung bei np(1 - p) ~ 9 und n ,., O,lN
durch eine Normalverteilung approximiert werden. Daher lsst sich bei diesen erfllten Bedingungen auch die Stichprobenverteilung des Anteilswertes p durch
eine Normalverteilung mit folgenden Parametern approxlmieren:
11 = E(p) = p
0' = Var(jJ) = p(1- p)
n

Da unsere Approximationsbedingung auch die Bedingung fr die Vernachlssigung


des Endlichkeitskorrekturfaktors beinhaltet, kann er vernachlssigt werden. Der Fall
des Ziehens ohne Zurcklegen kann also durch den des Ziehens mit Zurcklegen
approxtmtert werden.
Beispiel 111 1-6

Stichprobenanteilswert (Ziehen ohne ZUrUckiegen)

In einem Fertigungslos von N = 10.000 StOck liegt der Anteil fehlerhafter Produkte bei
p = 20 %. Es wird eine Stichprobe von n = 500 Stck ohne Zurcklegen gezogen. Wie
gro ist nun die Wahrscheinlichkeit dafiir, dass der Anteil der mangelhaften Produkte in
der Stichprobe zwischen 19,8 % und 20,5 % liegt?
Da die Voraussetzungen np(1 - p) ;, 9 und n S 0,1 N erfOllt sind, kann die Verteilung des
Stichprobenanteilswertes unter Vernachlssigung der Endlichkeitskorrektur durch die Normalverteilung
N(E(p), Var(p)) = N(P, P(1;P)) = N(0,2, O,~~~,8) = N(O,2;O,00032)
approximiert werden. Fr die gesuchte Wahrscheinlichkeit gilt unter Vernachlssigung der
Stetigkeitskorrektur
P(O 198 S - SO 205) ~ F; (0 205)- F; (0 198) = <1>[0,205-0,2)_<1>[0,198-0,2)
,
p,
N
'
N
'
.,/0,00032
.,/0,00032
= <1>(0,28)-<1>(-0,11) = 0,6103 -(1-0,5438) = 0,1541.

1. Punktschtzung

1.2.4

323

Verteilung der Stichprobenvarianz

Zur Bestirrunung der Verteilung der Stichprobenvarianz er' unterstellen wir im Folgenden die Unabhngigkeit der Ergebnisse der einzelnen Stichprobenziehungen
(d.h. Ziehen mit Zurcklegen). Zudem nehmen wir an, dass die Grundgesamtheit
mit dem Mittelwert 11 und der Varianz 0' annhernd normalverteilt ist. Unter diesen Voraussetzungen sind die n Zufallsvariablen ~ (Ergebnis des i-ten Zugs) alle
unabhngig normalverteilt mit E(~) = 11 Ci = 1, ... ,n) und Var~) = ci' Ci = 1, ... ,n).
Als Funktion von n Zufallsvariablen ~ ist die Stichprobenvarianz

' =_l_t(Xi -X)'


n-1'''1

ebenfalls eine Zufallsvariable.


Zur Herleitung der Verteilung der Stichprobenvarianz bettachten wir zunchst die n
unabhngigen standardnormalverteilten Zufallsvariablen

Z_X,-11
,-

die wir quadrieren und aufsummieren, sodass sich

X' = tz~ =
1=1

(X, -11)'

1=1

ci'

ergibt. In Abschnitt 11 3.3.1 haben wir gesehen, dass eine solche Summe quadrierter
unabhngiger Zufallsvariablen Z" die mit dem Erwartungswert 0 und der Varianz 1
normalverteilt sind, einer Chi-Quadrat-Verteilung mit w = n Freiheitsgraden gehorcht.
Fr eine Summe B, die aus X' hervorgeht, indem wir 11 durch X ersetzen, also
B=t(X,-x)'

ci'

i=l

kann gezeigt werden, dass sie ebenfalls einer Chi-Quadrat-Verteilung folgt, allerdings mit nur w = n - 1 Freiheitsgraden. Formen wir die Definition der Stichprobenvarianz in der Form
t(Xi -X)' =(n-1)'
j ..l

um und setzen diesen Tenn in den Ausdruck fr B ein, so erhalten wir


(n-1)'
B = -'-----i-0'

(1111: 23)

Diese Zufallsvariable B gehorcht einer Chi-Quadrat-Verteilung mit w = n - 1 Freiheitsgraden. Auf ein konkretes Anwendungsbeispiel wollen wir an dieser Stelle
verzichten, da sich (1111: 23) erst im Rahmen von Konfidenzintervallen und Hypothesentests als besonders hilfreich herausstellt.

324

111 Induktive Statistik

1.2.5

Verteilung weiterer Stichprobengren

Neben den Stichprobenverteilungen der Schtzer 11, p und a' sind vor allem fr
die Durchfhrung von Hypothesentests die Verteilungen der Differenz von Stichprobenmitteln bzw. von Stichprobenanteilswerten sowie der Quotienten von Stichprobenvarianzen von Bedeutung. Wir werden sie daher im Folgenden herleiten.
1.2.5.1

Differenz zweier Stichprobenmittel

Werden zwei unabhngige Zufallsstichproben des Umfangs n, und n, gezogen und


die Stichprobenmittel x, und x, erfasst, so kann deren Differenz d = x, - x, als
Realisation einer Zufallsvariablen D = X, - X, interpretiert werden. Zur Herleitung
der Verteilung dieser Differenz D zweier Stichprobenmittel rufen wir uns zunchst
ins Gedchtnis, dass die Differenz zweier unabhngiger Zufallsvariablen X und Y
nach den in Kapitel II 2.75 behandelten Vorschriften fr Linearkombinationen von
Zufallsvariablen einen Erwartungswert von E(X) - E(Y) und eine Varianz von
Var(X) + Var(Y) aufweist. Da die Stichproben aus beiden Grundgesamtheiten hier
voneinander unabhngig sind, handelt es sich bei der Differenz D = X, - X, der
beiden Stichprobenmittelwerte X, und X" genau um eine solche Form von Linearkombination. Wir erhalten daher unter Bercksichtigung der Erwartungswerte
und Varianzen beider Stichprobenmittelwerte

ci

Var(X, ) = --'n,

ci

Var(X,)=~

n,

den Erwartungswert und die Varianz der Differenz zwe1er Stlchprobenmittel- X, folgendermaen:

werte D = X,

(1111: 24)

--

-a~~

Var(D) = Var(X, - X,) = Var(X, ) + Var(X,) = - + 01

(1111: 25)

02

Die Standardabweichung bzw. der Standard/ehler der Differenz der StIchprobenmIttelwerte betrgt damit
(1111: 26)

Treffen wir nun noch die Annahmen, dass beide Grundgesamtheiten mit den Mittelwerten 11, und 11, und den Varianzen cf, und a; annhernd normalvertetlt sind
und dass sofern dies nicht gilt, fi 1 und n 2 so gro sind, dass jeweils der zentrale
Grenzwertsatz greift, so gilt fr die Verteilung von D nherungsweise

(IIII: 27)

1. Punktschtzung

325

Beispiel 111 1-7

Differenz von Stichprobenmitteln

Eine bestimmte Reifensorte 1 hat eine durchschnittliche Laufleistung von 1" = 50.000 km
bei einer Standardabweichung von '" = 10.000 km. Die durchschnittliche Laufleistung
einer Reifensorte 2 liegt bei li2 = 48.000 km bei einer Standardabweichung von "2 = 9.500
km. Aus der laufenden Produktion werden nun zufllig n, = 40 und n2 = 50 Reifen entnommen und einem Laufleistungstest (Test der Materialbelastbarkeit) unterzogen.
Wie gro ist die Wahrscheinlichkeit dafr, dass das arithmetische Mittel der Laufleistung
der 40 Reifen der Sorte 1 um mehr als 3.000 km grer ist als das arithmetische Mittel der
50 Reifen der Sorte 2?
Fr die Verteilung der Differenz der arithmetischen Mittel D =
D .! N(E{D), Var{D)) = N[I', -1'"

X, - X.

gilt hier

,,~
+ a: J= N{2.000; 4.305.000).
n n
1

Die gesuchte Wahrscheinlichkeit ergibt sich zu


P(D > 3.000) = 1-F. (3.000) = 1_<1>(3.000-2.000) = 1-<1>(048) = 1-06844 = 0 3156.
N
"4.305.000
'
,
,

1.2.5.2

Differenz zweier Stichprobenanteilswerte

Zur Untersuchung der Stichprobenverteilung der Differenz D = p, - p, zweier


Stichprobenanteilswerte p, und p, knnen wir analog zum Abschnitt III 1.2.5.1
vorgehen. Gehen wir von zwei unabbngigen Zufallsstichproben der Umfnge n,
und ~ aus, so gilt unter Verwendung der Werte
A) = p,
E(p,

Var(pA,)= p,(l-p,)
n,

E(p,) = p,

A) p,(1-p,)
Var ( P2 =
,

n,

die wir aus Abschnitt III 1.2.3.1 kennen, fr den Erwartungswert und die Varianz
der Differenz zweier Stichprobenantwellswerte D = p, - p,
E(D) = E(p, - p,) = E(p,) - E(p,) = p, - p,

(1111: 28)

Var(D) = Var(p, - p,) = Var(p,) + Var(p,) = p, (1- p,) + p,(1- p,).


n1

n2

(1111: 29)

Den Standardjebler der Differenz der Sticbprobenanteilswerte knnen wir damit


wie folgt festhalten:

"D = ,jVar(D) =

p, (1- p,) + p,(1- p,)


n1

n2

(1111: 30)

Nehmen wir nun wieder an, dass die zugehrigen Stichprobenumfange n, und n,
so gro sind, dass die Stichprobenanteilswerte p, und p, als annbernd normalverteilt angesehen werden knnen, so ist D nherungsweise normaiverteilt, d.h.

326

111 Induktive Statistik

D!. N(P' _p" p,(1-p,) + P,(1-P')).


n1

(IIIl: 31)

n2

Als Faustregel fr eine Rechtfertigung dieser Approximation sollte n,p,(1-p,) ;,: 9


und n,p,(1-p,) ;,: 9 erfllt sein.
Beispiel 111 1-8

Differenz von Stichprobenanteilswerten

Der Anteil der Stipendiaten betrgt an einer Hochschule p, = 0,15 und an einer anderen
p, 0,10. Wie hoch ist die Wahrscheinlichkeit dafr, dass die Differenz D
in zwei
unabhngigen Stichproben vom Umfang n, = n, = 100 zwischen 0,05 und 0,15 liegt?

=p,-p,

Fr die Verteilung von D gilt


D.!. N(E(D) Var(D)) = N(O 15-0 10' 0,150,85 + 0,10'0,90) = N(O 05'
100
100
.
I

0022).

Die gesuchte Wahrscheinlichkeit kann damit wie folgt bestimmt werden:


P(O,05< D < 0,15)

=F. (0,15)- F. (0,05) = <1>(0' 15-0'05J _<1>(0,05-0,05J


N

,JO,0022

,JO,0022

=<1>(2,13)-<1>(0) =0,9834-0,5 =0,4834


1.2.5.3

Quotient zweier Stichprobenvarianzen

Werden zwei unabbngige Stichproben des Umfangs n, und n, aus zwei normalverteilten Grundgesamtheiten mit den Varianzen er: und .,: gezogen, so sind die
beiden Zufallsvariablen
B = (n,
,

-1)a;

0"

B = (n,

-1)a;
a:,

wie wir unter III 1.2.4 gesehen haben, mit w, = n, - 1 bzw. w, = n, - 1 Freiheitsgraden Chi-Quadrat-verteilt. Es lsst sich zeigen, dass ein Quotient F, der sich aus
diesen beiden unabhngigen, Chi-Quadrat-verteilten Zufallsvariablen B, und B, mit
w, bzw. w, ergibt und die Form
F = B, /w,
B, /w,

aufweist, einer F(w" w)-Ver1eilung gehorcht (vgl. Abschnitt II 3.3.3). Setzen wir in
die Formel fr F die Ausdrcke fr B, und B, ein, so erhalten wir als andere Darstellung fr F den Ausdruck

(n,
F=

-1)a;

cr;w,

(n,

-1)~

cr,w,

(n,

-1)a;

(n,

-1)~

cr;(n, -1)

(IIIl: 32)

den wir im Zusammenhang mit den Hypothesentests im Abschnitt III 3 noch bentigen werden. Abbildung III 2 gibt einen abschlieenden berblick ber die wichtigsten Stichprobengren und deren Verteilungen.

327

1. Punktsch1zung

Stichprobenverteilung
N(EOn,VarCX ))
wenn: Grundgesamtheit
normalverteilt oder n > 30

Parameter

0'

Z.ffi.Z.: Var(X) = n

cr' N-n

Z.o.Z.: Var(X) = - . - n

T=X-11
mit

lt

0'-x = ~
,r.;

t(w)

w -n-l

wenn: Grundgesamtheit
normalverteilt
N(O; 1)
wenn: n > 30
N(E(p ),VarCp))

E(p)=p

wenn:np(1-p);:'9

p(1-p)

p(1-p) N-n
.-n
n-l

Z.ffi.Z.: Var(p) = '--'-----'-'n


Z.O.Z.: Var(p) =

B= (n-l)'

cr'

D=X, -X,

x'(w)

n-1

w -n-l

wenn: Grundgesamtheit
normalverteilt

N(E(D),VarCD))
wenn: Grundgesamtheiten
normalverteilt oder n, > 30
und n, > 30

E(D) = 11, -11,

ci

0'

01

n2

Var(D) = --'- + ~
fr Z.ffi.Z. und auch Z.O.Z. wenn
n, :5: O,lN, und n,:5: O,lN,

D=p,-p,

N(E(D),VarCD))
wenn: n,p, (1- p,);:' 9
und n,p,(1- p,);:' 9

E(D)=p, -p,
Var(D)= p,(1-p,) + p,(1-p,)
01

n2

fr Z.ffi.Z. und auch Z.O.Z. wenn


n, :5: O,lN, und n,:5: O,lN,
F(w1 ,w)

= 01 - 1; w 2 = n2 - 1

wenn: Grundgesamtheiten

normalverteilt
Hinweise: 1. Der Endlichkeitskorrekturfaktor kann fr n S O,lN vernachlssigt werden.
2. Z.ffi.Z. - Ziehen mit Zurcklegen, Z.o.Z. - Ziehen ohne Zurcklegen

Abbildung III 2: Wichtige Stichprobenverteilungen im berblick

328

111 Induktive Statistik

1.3 Gte von Schtzern


Bei der praktischen Durchfhrung einer Punktschtzung mssen wir damit rechnen, dass der Schtzwert ~ vom wahren Wert ~ mehr oder weniger stark abweicht. Meistens wird es sogar so sein, dass ~;t ~ gilt und nur selten ~ = ~. Der
sog. Schtzfehler ist in diesem Zusammenhang defmiert als 9 - ~. Da der Schtzer 9 eine Zufallsvariable ist, ist auch der Schtzfehler eine Zufallsgre. Er zhlt
zu den wesentlichen Kriterien zur Beurteilung der Qualitt eines Schtzers 9.
Konkret verwenden wir zur Einstufung der Gte eines Schtzers (bzw. einer
Schtzfunktion) einen Katalog von vier wnschenswerten Eigenschaften. Dazu zhlen Erwartungstreue Coder asymptotische Erwartungstreue), Effizienz, Konsistenz
und ein geringer mittlerer quadratischer Fehler.

1.3.1 Erwartungstreue
Ein Schtzer 9 wird dann als ttwartungst1"eu Cunverzerrt, eng!. unbiased) bezeichnet, wenn sein Erwartungswert E(9) bei jedem beliebigen Stichprobenumfang mit dem wahren Parameter ~ bereinstimmt.
CIII1: 33)

Eine solche Eigenschaft ist wnschenswert, da eine Schtzformel im Durchschnirt


ihrer Anwendungen den gesuchten Wert treffen sollte. Eine systematische beroder Unterschtzung ist zu vermeiden.
Zur Veranschaulichung dieser wesentlichen Eigenschaft von Schtzern betrachten

wir Abbildung III 3. Sie enthlt die Verteilungen. dreier S.chtzer 9" 9, und 9,.
Von diesen Schtzern knnen nur die Schtzer S, und S, als erwartungstreu bezeichnet werden, da sich ihre Erwartungswerte EC9,) und EC9,) mit dem Parameter ~ der Grundgesamtheit decken. Der Schtzer 9, liefert im Durchschnitt einen Wert grer als ~ und gilt daher nicht als erwartungstreu sondern als verzerrt.

9,

9, nicht erwartungstreu

9,

Abbildung III 3: Erwartungstreue und verzerrte Schtzer

329

1. Punktschtzung

Wir wollen nun im Folgenden drei ausgewhlte Schtzer hinsichtlich ihrer Erwartungstreue nher betrachten.

Das Stichprobenmittel 11 = X ist ein erwartungstreuer Schtzer fr das arithmetische Mittel 11 der Grundgesamtheit, da

E(ll) = 11
gilt. Dies haben wir bereits unter III 1.2.2.1 gezeigt.

Als Spezialfall des Stichprobenmittels ist natrlich auch der Stichprobenanteilswert p eine erwartungstreue Schtzfunktion fr den Anteilswert p der
Grundgesamtheit. Es gilt nmlich, wie wir bereits unter III 1.2.3.1 sahen
E(p) =

p.

Die Stichprobenvarianz 6' bzw. (1111: 4) ist (beim Ziehen mit Zurcklegen)

ein erwartungstreuer Schtzer fr die Varianz


E(a') =

(12

der Grundgesamtheit,1 da

a'.

Die mittlere quadratische Abweichung bezglich X, d.h. S' bzw. (1111: 5), ist
hingegen nicht erwartungstreu (erfllt aber die unter III 1.3.2 beschriebene
Eigenschaft der asymptotlschen Erwartungstreue). 8 Es lsst sich nmlich
E(S') = n -1 a'

n
zeigen. Man sagt in diesem Fall, dass die Punktschtzung um den Faktor

(n-1)/n verzerrt ist. Diese Schtzfunktion wrde nmlich die Gre 0' systematisch unterschtzen. Da die Verzerrung hiermit bekannt ist, knnen wir sie
leicht korrigieren und zwar durch Multiplikation von S' mit dem Kehrwert der
Verzerrung, also n/(n-1). Wir erhalten so den erwartungstreuen Schtzer
6' . Abschlieend ist festzuhalten, dass a' zwar ein erwartungstreuer Schtzer
fr 0' ist, jedoch 6 keinesfalls ein erwartungstreuer Schtzer fr a ist. Vielmehr kann gezeigt werden, dass E( 6) < a, 6 also a systematisch unterschtzt. 9

1.3.2 Asymptotische Erwartungstreue


Ist ein Schtzer nicht erwartungstreu, knnte es zumindest sein, dass die Verzerrung, die er aufweist, mit zunehmendem Stichprobenumfang n immer geringer
wird. Ein Schtzer wird also als asymptotlsch erwartungstreu bezeichnet, wenn
lim E(9)
n_

=~.

(1111: 34)

In praktischen Anwendungen ist es von Bedeutung, wie schnell diese Konvergenz

erfolgt. Sind sehr hohe Stichprobenumfange notwendig, um sie zu erreichen, ist


der Schtzer weniger ntzlich.

7 Den Beweis Wetfr berlassen wir in Aufgabe PSI dem Leser.


S Die mittlere quadratische Abweichung bezglich J.1 wre hingegen bei bekanntem arithmetischen Mittel J.L der Grundgesamtheit ein erwartungstreuer Schtzer fr 6.
9 Auer, B.R., Seitz, F. (2008) gehen auf dieses Problem im Kontext von Investmentfondsperfonnance ein und zeigen auerdem einen alternativen, erwartungstreuen Schtzer.

330

111 Induktive Statistik

1.3.3 Effizienz
Ein erwartungstreuer Schtzer ist dann effizienter als ein anderer ebenfalls erwartungstreuer Schtzer, wenn er eine kleinere Varianz besitzt. So ist etwa in Abbildung III 4 der Schtzer 9, effizienter als 9,.10 Unter smtlichen erwartungstreuen
Schtzern ist derjenige absolut effizient oder kurz effizient (oder wirksamster), der
die kleinste Varianz aufweist. Ein Schtzer

ist also dann effizient, wenn sowohl

(III1: 35)
als auch
(1111: 36)

erfllt sind, wobei in (IIII: 36) der Ausdruck 9' fr jeden beliebigen anderen erwartungstreuen Schtzer steht. Betrachtet man Abbildung III 4 und unterstellt, dass
nur die drei dort zu sehenden erwartungstreuen Schtzer existieren, so gilt der

Schtzer 91 als absolut effizient, da es keinen anderen erwartungstreuen Schtzer


mit geringerer Varianz gibt.

8,

effizient

Abbildung III 4: EffIzenz


Die Suche des effIzienten Schtzers unter allen erwartungstreuen Schtzern ist ein
relativ schwieriges Problem, mit dem wir uns hier nicht nher beschftigen. Wir
fhren stattdessen an dieser Stelle nur einige einschlgige Erkenntnisse auf:

Das Stichprobenmittel i1 = X ist fr den Erwartungswert ~ der Grundgesamtheit der effiziente Schtzer.
Der Stichprobenanteilswert

f> ist der effIziente Schtzer fr den Anteilswert p

einer dichotomen Grundgesamtheit.

Die mittlere quadratische Abweichung bezglich

bzw. die Stichproben-

varianz S2, ist der effiziente Schtzer fr die Varianz (/ einer NQ.L,f)-verteilten

Grundgesamtheit, wenn

bekannt bzw.

unbekannt ist.

10 In diesem Zusammenhang sei noch einmal darauf hingewiesen, dass eine breite Dichte-

funktion eine hohe Varianz und eine schmale Dichtefunktion niedrige Varianz anzeigt.

1. Punktschtzung

331

1.3.4 Konsistenz
Eine Folge von Schtzern S. gem
S, = g,(X,) , S2 = g,(X"X,) , ... , Sn =gn(X"""Xn)
wird als konsistent in Bezug auf den Parameter t} bezeichnet, wenn die
Wahrscheinlichkeit, mit der der Schtzfehler ISn - t} I ein vorgegebenes kleines
Niveau E > 0 bersteigt (oder mit ihm identisch ist), mit zunehmendem Stichprobenumfang n gegen Null strebt, d.h.
limP(ISn -t}I :1:E)=O.

n_

(1111: 37)

Anders formuliert knnen wir auch sagen, dass fr einen konsistenten Schtzer
durch die Wahl eines hinreichend groen Stichprobenumfangs die Wahrscheinlichkeit, dass der Schtzer S. ein vorgegebenes kleines Intervall [t}-E;t}+E] um t}
nicht trifft, beliebig klein gemacht werden kann.
Konsistenz liegt etwa vor, wenn die 9 n erwartungstreu oder zumindest asymptotisch erwartungstreu fr t} sind und die Varianzen Var(Sn) bei zunehmendem
Stichprobenumfang gegen Null gehen, d.h. formal folgendes gilt:

limE(Sn) = t}
n---)"

und

!im Var(Sn) = 0

n---)"

Abbildung III 5 zeigt einen nicht erwartungstreuen (jedoch asymptotisch erwartungstreuen) und konsistenten Schtzer. Wir erkennen, dass die vom Schtzer erzeugten Schtzwerte bei laufender Vergrerung des Stichprobenumfangs n im
Durchschnitt den zu schtzenden Parameter t} treffen. Auerdem ist zu erkennen,
wie mit wachsendem n die Varianz immer strker abnimmt.
n=200

Abbildung III 5: Dichten einer konsistenten Schtzfunktion fr verschiedene n


Konsistent sind z.B. das Stichprobenmittel und der Stichprobenanteilswert, da sie
bereits erwartungstreue Schtzer darstellen und wir an ihren Varianzen erkennen

111 Induktive Statistik

332

knnen, dass diese mit zunelunendem Stichprobenumfang immer geringer werden.


Die Ausdrcke Var(X) = (5' / n und Var(p) = p(1- p) / n gehen nmlich mit wachsendem n gegen Null. Die Stichprobenvarianz ist erwartungstreu und konsistent l1
Die fr die Schtzung der Varianz der Grundgesamtheit nabeliegende mittlere
quadratische Abweichung S' ist asymptotisch erwartungstreu und konsistent.
Die Konsistenz ist eine Mtntmalanjordernng an einen Schtzer. Sie kann als Versicherung dafr angesehen werden, dass ein groer Aufwand bei der Datenbeschaffung belohnt wird. Fr hinreichend groe Stichprobenumfange n drfen wir erwarten, dass konsistente Schtzer passable Schtzwerte liefern. Wenn ein Schtzer
nicht einmal konsistent ist, dann ist er meist nicht empfehlenswert.

1.3.5

Mittlerer quadratischer Fehler

Bei manchen Schtzproblemen ist ein erwartungstreuer Schtzer nicht immer der
beste, da Erwartungstreue des fteren mit einer allzu groen Varianz erkauft wird.
Um Varianzen zu verringern, ist man hufig sogar bereit kleine Verzerrungen in
Kauf zu nelunen. Letztendlich sollte die erwartete Nhe des Schtzwertes Zu seinem wahren Wert Entscheidungskriterium fr die Wahl eines Schtzers sein.
Erwartungswert und Varianz eines Schtzers, also
E(EJ) und Var(8)=E[[8-E(8)]'],
gehen in ihren sog. mittleren quadratischen Fehler (MQF) ein. Dieser kann als
Ma fr die Gte einer Schtzfunktion angesehen und durch Anwendung des Verschiebungssatzes auf die Zufallsvariable 8 in folgende Form gebracht werden:
E[(8 - ")'] = Var(S) + [E(S) - "]'
,

Mittl~

quadntillcher

Fehler

Varian2

dc5
5chi!z.ers

(1111: 38)

Qua"drat

der
Ver:zemJll8

Der MQF bercksichtigt also sowohl die Varianz als auch die Verzemmg (eng!.
bias). Wir erkennen an (1111: 38) und Abbildung III 6, dass der bergang zu einem
leicht verzerrten Schtzer 9 8 vorteilhaft sein kann, wenn damit zugleich eine wirksame Verkleinerung der Varianz erreicht wird.

Verzerrung.........

. __ _

----------j ,., (---<~- .. _--

'-----.:.::..:..--"'-..;-;...>....----"'.:....----+ S
"

Abbildung III 6: Vorteilhaftigkeit leicht verzerrter Schtzer

2
z
11 Hinweis: Es gilt E(rr) = 0 und VarC ) = ~(1l4
fr das 4. zentrale Moment E[(X-IlJ'] von X steht.

:=~ 0 4 ) fr n > 1, wobei

1'(4

abkrzend

333

1. Punktschtzung

Fr einen erwartungstreuen Schtzer ist die Verzerrung Null und somit entspricht

der MQF gerade der Varianz des Schtzers. Fr das Stichprobenmittel gilt also beispielsweise MQF(X) = ci' / n. Bei einem konsistenten Schtzer geht der MQF bei
n -+ ~ gegen Null. Streben mit wachsendem Stichprobenumfang sowohl Varianz
als auch die Verzerrung gegen Null, so weist der Schtzer auch die Eigenschaft der
Konsistenz auf.

1.4 Konstruktion von Schtzern


Zur Konstruktion von Schtzern liefert die statistische Methodenlehre zahlreiche
Verfahren, wie z.B. die Momentenmethode, die Maximum-Likelihood-Methode, die
Methode der kleinsten Quadrate, die Bayes-Methode, die Minimax-Methode usw.
Wir wollen im Folgenden exemplarisch die Methode der kleinsten Quadrate
(engl. ordinary least squares, OLS), die Maximum-Ukellhood-Methode (ML) und
die Momentenmethode (MM) vorstellen.'2 Die Maximum-Likelihood-Methode ist
ein zentrales Konzept der statistischen Schtztheorie. Die Methode der kleinsten
Quadrate ist vor allem aufgrund ihrer Einfachheit, die Momentenmethode aufgrund
ihrer Allgemeinheit interessant.

1.4_1

Methode der kleinsten Quadrate

Mittels der Methode der kleinsten Quadrate knnen in vielen Fllen brauchbare
Schtzer gewonnen werden. Sind etwa x" ... , x" die Beobachtungswerte aus einer
einfachen Stichprobe aus einer bestimmten Grundgesamtheit, so kann nach der
Methode der kleinsten Quadrate als Schtzwert fr den Erwartungswert 11 dieser
Grundgesamtheit derjenige Wert ~ verwendet werden, durch den die Summe der
quadrierten Abstnde des Schtzwertes ~ zu den Beobachtungswerten X, minimal
wird. Wir erhalten den Schtzwert also, indem wir den Term

:tex, -11)'
i=l

nach 11 ableiten, gleich Null setzen und schlielich nach 11 auflsen. Da die zweite
Ableitung dieses Terms nach 11 positiv ist, erhalten wir das Minimum
d

:t
i_ I

(x,

-11)'

dl1

~)(x,

-11)(-1)=-2L(x, -11)=0

1=1

1=1

1~

J..L=- ",-,Xl =x.


A

i=l

Wir knnen also das Stichprobenmittel X als Kleinst-Quadrate-Schtzfunktion fr 11

bezeichnen.

12 aLS werden wir im Rahmen des Kapitels IV noch intensiver betrachten. Eine umfassende

Behandlung der Momentenmethode fmdet sich bei Rottmann, H., Auer, B.R. (2011).

334

111 Induktive Statistik

1.4.2

Maximum-Likelihood-Methode

Da in der induktiven Statistik die Verteilung der Grundgesamtheit und somit auch
die gemeinsame Verteilung der Stichprobenvariablen X. unbekannt sind, ist es von
Vorteil alle als mglich erachteten Wahrscheinlichkeitsverteilungen zu betrachten.
Ist lediglich ein Parameter unbekannt, charakterisiert
fx, .....x"(x,, ... ,xn 1~)=fx(x,I~) ... fx(xn

I~)= TIfx(x, I~)

(nIl: 39)

1=1

die gemeinsame Wahrscheinlichkeitsfunktion (bzw. -dichte) der nunabhngigen


und identisch verteilten Stichprobenvariablen X" ... , X. unter der Bedingung, dass
der unbekannte Parameter den Wert ~ besitzt. (nIl: 39) wird als sog. IlkellboodFunktion bezeichnet13 Sie ist fr jeden festen Wert von ~ eine n-dimensionale
Wahrscheinlichkeitsfunktion (bzw. -dichte) und fr feste x" ... , X. einer konkteten
Stichprobe eine Funktion von ~. Im letztgenannten Fall gibt die Funktion dann die
Wahrscheinlichkeit (bzw. Dichte) dieser Stichprobe fr alle mglichen Werte von ~
an. Die Likelihood-Funktion fassen wir im Folgenden als Funktion von ~ auf und
schreiben fr sie

L(~ I x"

... ,xn) = TI fx(x,

I~)

(nIl: 40)

1=1

oder kurz L(~). Zur Schtzung des unbekannten Parameters ~ der gemeinsamen
Wahrscheinlichkeitsfunktion der Stichprobenvariablen fordert nun das MaximumIikelibood-Prinzip bei festem Stichprobenergebnis x" ... , X. denjenigen Wert if
zu whlen, der die Likelihood-Funktion L(~) (bzw. die Wahrscheinlichkeit fr das
Eintreten des beobachteten Stichprobenresultats) maximiert. Der auf diese Art und
Weise nach dem Prinzip "Nichts ist wahrscheinlicher als die Realitt" konstruierte
Schtzer
= g(X" ... ,Xn ) heit Maximum-Llkelihood-Schtzer.

Wenn sie existieren, sind Maximum-Likelihood-Schtzer Ld.R. konsistent, erwartungstreu oder zumindest asymptotisch erwartungstreu, effizient oder zumindest
asymptotisch effizient und unterliegen dem Zentralen Grenzwertsatz, d.h. sie sind

asymptotisch normalverteilt.

Beispiel 111 1-9

Schtzung des Parameters p einer B(n,p)-Verteilung

Im Anschluss an eine Studentenparty werden 10 Studenten von der Polizei kontrolliert.


Dabei wird bei den Studenten Nawid S. und Christian J. festgestellt, dass sie mehr als den
zur Fahrtauglichkeit erlaubten Promillewert Alkohol im Blut haben. Der Anteil der nicht fahrtauglichen Studenten in der Stichprobe liegt damit bei 2/10 = 0.2. Betrachten wir diese
Stichprobe als mit Zurcklegen gezogen und damit binomialverteilt, so ergibt sich die
Wahrscheinlichkeit dafr, dass die Anzahl X der nicht fahrtauglichen Studenten in der
Auswahl bei 2 liegt, in Abhngigkeit vom Anteilswert p der Grundgesamtheit als

13 Unter dem Begriff Likelihood versteht man die Wahrscheinlichkeit, dass ein Stichprobenergebnis bei einem angenommenen Wert der (des) Zu schtzenden Parameter(s) eintritt.
Dieses Konzept unterscheidet sich dadurch von dem der Wahrscheinlichkeit, dass eine
Wahrscheinlichkeit auf das Auftreten zuknftiger Ereignisse ausgerichtet ist, whrend ein
Ukelihood sich auf vergangene Ereignisse mit bekannten Ergebnissen bezieht.

1. Punktschtzung

335

P(X= 2)

=C~}'(l-P)"

Genau dies ist die Likelihood-Funktion L(p) fiir dieses Fallbeispiel. Man spricht hier gelegentlich auch von der Like/ihood-Funktion der konkreten Stichprobe. Fr ausgewhlte
Werte von p ergeben sich folgende Wahrscheinlichkeiten:
P
0,0
0,1

L(p) = P(X = 21 p)

0,0000000
0,1937102

0,6
0,7

0,2
0,3
0,4

0,3019899
0,2334744
0,1209324

0,8
0,9
1,0

0,5

0,0439453

L(p)=P(X=2Ip)
0,0106168
0,0014467
0,0000737
0,0000004
0,0000000

Wir erkennen, dass die Likelihood-Funktion bei p = 0,2 ihr Maximum erreicht. Der Maximum-Likelihood-Schtzwert fiir den unbekannten Anteilswert der Grundgesamtheit ist somit gleich dem Stichprobenanteilswert p = 0,2 .
Wir wollen nun die Funktion L(p) allgemein betrachten. Es gilt zunchst
L(p) = (:)P'(l- P)'-' .
Zur Bestimmung des Maximums dieser Funktion ist nach den Regeln der Differenzialrechnung ihre erste Ableitung nach p zu bilden und gleich Null zu setzen. Da die LikelihoodFunktion L(p) und ihr natrlicher Logarithmus In L(p), die sog. Log-Likelihood-Funktion, jedoch an derselben Stelle ihr Maximum besitzen, maximiert man meist nicht L(p) sondern In
L(p). Der Grund dafr ist darin zu finden, dass wir durch Logarithmieren das vorliegende
Produkt in eine Summe berfhren knnen, die sich leichter ableiten lsst. Wir erhalten
InL(p) = In(:)+ xlnp+ (n -x)ln(l-p),
womit sich die erste Ableitung zu
d InL(p)
dp

x
p

(n-x)
(l-p)

ergibt. Durch Nullsetzen und Auflsen dieses Terms und unter Beachtung der Tatsache,
dass die zweite Ableitung stels negativ ist, ergibt sich fr den Maximum-Likelihood-Schtzwert des Stichprobenanteilswerts

)(_(n-x)~o
p

(l-p)

->

x-xp=np-xii

_ x _

p=-=x.

Die Zufallsvariable p = X stellt also den Maximum-Likelihood-Schtzer fiir p dar.

Beispiel 111 1-10

Schtzung des Parameters 1.. einer Po(1..)-Verteilung

Liegt eine konkrete Stichprobe x" ... ,Xn vom Umfang n aus einer Poisson-verteilten Grundgesamtheit X - Po(1..) mit der Wahrscheinlichkeilsfunktion

336

111 Induktive Statistik

) _{~'xl e-'

fPo ( x -

fOr x=O,1,2, ...

sonst

vor, so erhalten wir den ML-Schtzwert fOr den unbekannten Parameter ~ > 0 wie folgl:
Die Likelihood-Funktion

L(~)" L(~lxl, ... ,X,)

der Stichproben realisation ist


x.

L(~) = IIfx(x,I~) = II-.,e-'.


1..1

1..1 XI'

Durch Logarithmieren erhalten wird daraus die Log-Likelihood-Funktion

'[~"

,
InL(~) = Lln -e-' = L(ln(~')-ln(x,!)+ln(e-'))
1=1
xII
1=1
,

= L(x,.ln~-ln(x, !)-~) = In~


1. 1

I..'

1=1

LX'- Lln(x, !)-n~.

Deren ersten beiden Ableitungen lauten


d InL(~) = ~ :tx; -n

d~

d' InL(~)

und

l'

d ~'

~ ;~1

-"lIw

LX;.
1=1

Nullsetzen der ersten Ableitung liefert

1 '

~Lx;-n=O

A i_1

1 '
1.. i_1

-->

~Lx;=n

....

1 l'
Ani. '

1
n

....

~-Lx;=-n=1

~=-Lx;=x.
A

n i_1

Da die zweite Ableitung stets negativ ist, liegt ein Maximum von In L(~) vor. Wir erhalten
also
als ML-Schtzwert von~. X ist demnach der ML-Schtzer fr den Parameter ~
einer Poissonverteilung.

Beispiel 111 1-11

Schtzung des Parameters ~ einer

Ex(~)-Verteilung

Liegt eine konkrete Stichprobe X" ... ,,," vom Umfang n aus einer exponentialverteilten
Grundgesamtheit X - Ex(~) mit der Dichte
f (x) = {~. e-'"

Ex

fOr X ;, 0
sonst

vor, so knnen wir den ML-Schtzwert fOr den unbekannten Parameter


maen bestimmen:
Die Likelihood-Funktion

L(~)" L(~lxl, ... ,X,)

> 0 folgender-

der vorliegenden Stichprobe lautet

L(~) = fJlx(X; I~) = rr~ e-'" =~'. rr e-''.


1..1

1_1

1=1

Daraus erhalten wir die Log-Likelihood-Funktion

InL(~) = In(~"

rr e-~') = In~' +In(rr e-"") = nln~+ :tlne-~' = n In~-~ :tx;


1_1

1=1

i_1

i_1

und deren Ableitungen


d InL(~) =n.~- :tx,
d~
~ '_1

und

d' InL(~)
d~'

n
- ~' .

337

1. Punktschtzung
Die Nullstelle der ersten Ableitung ist

-Lx;
n i_ 1

1..=-1-'-=='

Da die zweite Ableitung stets negativ ist, liegt ein Maximum von In L(1..) vor. Wir erhalten
also den Kehrwert des realisierten Stichprobenmittels als ML-Schtzwert fr 1... Der MLSchtzer fiir 1.. ist damit 1/ X. Dieser Schtzer ist asymptotisch erwartungstreu, konsistent
und asymptotisch effizient.

Analog zu den vorhergehenden Beispielen kann gezeigt werden,14 dass fr eine


Nonnalverteung mit dem Erwartungswert 11 und der Varianz cl als MaximumLikelihood-Schtzer fr 11 ebenfalls das Stichprobenmittel X resultiert. Als Schtzer
fr die Varianz ergibt sich nach der Maximum-Likelihood-Methode bei unbekanntem 11 der verzerrte, aber asymptotisch erwartungstreue, konsistente und asymptotisch effIZiente Schtzer S'.

1.4.3

Momentenmethode

Grundlegende Idee der Momentenmethode ist es, unbekannte Parameter einer


Grundgesamtheit so zu schtzen, dass in der Grundgesamtheit geltende Momentenbedingungen in einer vorliegenden Stichprobe mglichst genau nachgebildet werden. Dabei ersetzt man die Momente der Grundgesamtheit durch die entsprechenden Momente der Stichprobe. Um die Momentenmethode anwenden zu knnen,
mssen mindestens so viele Momentenbedingungen vorliegen, wie Parameter ge-

schtzt werden sollen. Sind die Annahmen ber die Momentenbedingungen in der
Grundgesamtheit korrekt, gelten Momentenschtzer als konsistent und asymptotisch normalverteilt.
Angenommen, wir interessieren uns fr eine Schtzung des Erwartungswerts 11
einer Zufallsvariable X. Da nur ein Parameter geschtzt werden soll, ist nur eine
Momentenbedingung erforderlich. Diese knnen wir daraus gewinnen, dass die

Abweichungen der Realisationen einer Zufallsvariable von ihrem Erwartungswert


im Erwartungswert null sind. Wir erhalten also
E[x, -111=0.

Eine mglichst genaue Nachbildung dieser Momentenbedingung in einer Stichprobe des Umfangs T wrde fr die Schtzung 11 bedeuten, dass
'
-1 L[x,
-111 = 0
i"'1

gelten muss. Auflsen dieses Zusammenhangs nach illiefert den Ausdruck

-nInLX,--nIDLI1... =-nI LX, -11=0


D

i=1

i_ I

14 Wir berlassen dies in Aufgabe PSIO dem Leser.

i=1

"

338

111 Induktive Statistik

was dem Stichprobenmittel von X entspricht. Der Momentenschtzer fr den Erwartungswert einer Zufallsvariable ist also gerade ihr Stichprobenmittel.
Interessieren wir uns hingegen fr eine Momentenschtzung der Varianz cl der Zufallsvariable X, so bentigen wir analog folgende Momentenbedingungen:

A:

E[x, - IlJ = 0

B:

E[(x, -11)' - a'J = 0

Die Momentenbedingung B ist fr eine Gewinnung der Schtzung fr die Varianz


allein nicht ausreichend, da J.L unbekannt ist und selbst geschtzt werden muss. Es

ist daher zustzlich die Momentenbedingung A fr die Schtzung von 11 erforderlich, sodass fr die Schtzung von insgesamt zwei Parametern genau zwei Momen-

tenbedingungen vorliegen. Die Stichprobengegenstcke zur den Bedingungen A


und B besitzen die Form

A:
B:

Auflsen von A nach 11 liefert daraus zunchst den Momentenschtzer fr den Erwartungswert der Zufallsvariable. Durch Auflsen von B nach 6' resultiert

er =1n tex, -11)'.


1=1

Dies entspricht der Realisation der mittleren quadratischen Abweichung (UIl: 5), da
wir durch n und nicht durch n - 1, wie bei der Stichprobenvarianz (IIIl: 4), dividieren. Bei groen Stichproben macht dies jedoch keinen Unterschied. Der Momentenschtzer fr die Varianz ist also nicht erwartungstreu, sondern nur asymptotisch
erwartungstreu. Bei bekanntem J.L wre er hingegen erwartungstreu.
Die Momentenmethode ist ein derart allgemeines Konzept, dass sich leicht zeigen
lsst, dass auch komplexere Schtzer, wie z.B. der GLS-Schtzer und der Instrumentenvariablenschtzer, die wir in Kapitel IV noch im Detail diskutieren werden,

aus ihrer Grundidee heraus entstehen. Rotttnann und Auer (2011) belegen dies anschaulich und behandeln mit der Schtzung konsumbasierter Kapita1marktmodelle
eines der wichtigsten Anwendungsgebiete der Momentenmethode in der empirischen Finanzmarktforschung.

2.

Intervallschtzung

Im vorhergehenden Abschnitt haben wir Stichprobenergebnisse verwendet, um unbekannte Parameter der Grundgesamtheit zu schtzen. Wir hatten uns dabei auf die Punktschtzung beschrnkt, die einen einzigen Schtzwert liefert. Da die in einer Stichprobe
realisierten Merkmalsausprgungen zufallsabhngig sind, wird aber ein gefundener
Punktschtzwert nur in den seltensten Fllen genau mit dem gesuchten Parameter der
Grundgesamtheit bereinstimmen. Um wenigstens Aussagen ber die Genauigkeit der
Schtzung machen zu knnen, bedienen wir uns der Intervallschtzung. Es handelt sich
dabei um ein Verfahren, das mit einer vorgegebenen Wahrscheinlichkeit ein Intervall
liefert, das den unbekannten Parameter der Grundgesamtheit enthlt.

2.1 Grundlagen
Ziel einer Intervallschtzung ist es, einen unbekannten Parameter ' einer Grundge-

samtheit so zu schtzen, dass mit einer vorgegebenen Wahrscheinlichkeit 1 - aals

Schtzergebnis ein Intervall auftritt, das den wahren 1'I-Wert berdeckt, bzw. mit
Wahrscheinlichkeit a ein Intervall liefert, das Ihn nicht berdeckt. Die Untergrenze
v. und die Obergrenze V o eines solchen Intervalls wird durch das Stichprobenergebnis festgelegt. Dies bedeutet, dass v. und V o Realisationen gewisser Stichprobenfunktionen V. = g(X"X" ... ,X,,) und Vo = g(X"X" ... ,x,,) sind. Fr diese muss
(lH2: 1)

gelten. Es muss also fr alle mglichen Stichprobenrealisierungen v. ~ Vo sein. Zudem muss die Wahrscheinlichkeit, dass der unbekannte Parameter ' der Grundgesambeit von V. und Vo eingeschlossen wird, gleich 1 - asein.
(lH2: 2)

Erfllen zwei Stichprobenfunktionen V. und Vo diese Voraussetzungen (III2: 1) und


(III2: 2), so wird das Zufallsintervall [V., VJ als Konfidenzintervall fr zum
Konfidenzniveau 1 - a bezeichnet. Die Realisierung [v., vJ heit Ergebnis der
Intervallschtzung oder auch Schtzintervall.
Das Konfidenzniveau (oder die Vertrauenswahrscheinlichkeit) 1 - a sagt grob
gesprochen aus, bei welchem Anteil von Stichproben ein Schtzintervall entsteht,
das den unbekannten Parameter enthlt. Dagegen misst a den Anteil der Stichproben, die ein Intervall liefern, das nicht enthlt. Wir bezeichnen adeshalb
auch als Irrtumswahrscheinlichkeit. Die Wahl des Konfidenzniveaus - man
whlt Ld.R. 1 - a = 0,90, 0,95 oder 0,99 - liegt im Ermessen des Statistikers. Er
kann dieses seinen Genauigkeitsbedtfnissen entsprechend festlegen. Eine Vergr-

erung des Konfidenzniveaus (d.h. eine Verkleinerung der IrrtumswahrscheinlichB. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_11, Springer Fachmedien Wiesbaden 2015

111 Induktive Statistik

340

keil) hat nmlich eine Vergrerung des Schtzintervalls und somit eine "grbere"
Schtzung zur Folge.
Ein Konfidenzintervall [V0' V.l fr

wird als symmetrisch bezeichnet, wenn

P(~<Vo)=P(~>Vo)=2

(III2: 3)

Das zweite Gleichheitszeichen gilt, da nach (III2: 2) das Komplementrereignis zu


Vo :s; ~:s; Vo die Wahrscheinlichkeit a besitzt und sich dieses Komplementrereignis
aus den beiden disjunkten Ereignissen ~ < Vo und ~ > Vo ergibt.
Als Intervallschtzung verstehen wir im Folgenden immer die Realisation eines
symmetrischen Konfidenzintervalls. Wir behandeln konkret Intervallschtzungen fr
11, p und cr'. Im Rahmen dieser gilt es Funktionen Vo und Vo zu fmden, die (zumindest nherungsweise) die Beziehungen (III2: 1) und (III2: 3) und folglich auch
(III2: 2) fr ~ = 11, ~ = p bzw. ~ = cr' erfllen.

2.2 Konfidenzintervalle fr den Mittelwert


Im Abschnitt III 1.2.2.1 bzw. in (1111: 11) sahen wir, dass die Zufallsvariable X bei

N(J1, u')-verteilter Grundgesamtheit mit dem Erwartungswert E(X) = 11 und der Vanormalverteilt ist, wobei beim Ziehen mit Zurcklegen (bzw.
rianz Var(X) =
beim Ziehen ohne Zurcklegen und erfllter Bedingung n :s; O,lN)

er.

a'

ax=~

galt. Das standardisierte Stichprobenmittel (X - 11) / a. folgte somit einer N(O; 1)Verteilung. Aus der grafischen Darstellung der Verteilung des Stichprobenmittels
(vgl. Abbildung III 7) knnen wir daher unter Verwendung des a/2-Fraktils und
des (l-a/2)-Fraktils der Standardnormalverteilung zunchst

X-11
a
=P -:s;z.
( ~
2
2
x

und

a
P (X-11
- > z _ . =~

1 2

(III2: 4)

festhalten. Die Wahrscheinlichkeit, dass das standardisierte Stichprobenmittel nun


in ein Intervall zwischen diesen beiden Fraktilen fllt, ergibt sich aufgrund der vorherrschenden Komplementrbeziehung zu

X-11

p z.!II.

~--:S;ZlJ1

(]'x

J= l -a- - -a= l - a .
2

(III2: 5)

Einige weitere Umformungen in (III2: 5) erlauben schlielich die Darstellung


P(11 + z.a.
= 1- a.
, :s; X:S; 11 + zpa.)
,
Da aufgrund der Symmetrie der Standardnormalverteilung z. = -z,~ gilt, wollen
wir im Folgenden nur noch z,_., = z bzw. z., = -z schreiben. Wir erh~lten damit
P(I1- za. :s; X:S; 11 + za.) = 1- a.

(III2: 6)

Wir sprechen bei dem in (III2: 6) vorkommenden Intervall von einem sog. Wahrschrinllcbkeitsintervall um den Mittelwert 11 der Grundgesamtheit. In dieses fllt

34t

2. Intervallschtzung

der in einer Stichprobe gefundene Mittelwert X bei bekannter Grundgesamtheit mit


einer Wahrscheinlichkeit von 1 - a. Wie Abbildung III 7 zeigt, liegen rechts des
(1 - a/2)-Fraktils der Standardnormalverteilung genau (a/2) 100 % der gesamten
Flche unter der Dichtefunktion. Da die Verteilung symmetrisch ist, liegen auch
links des (a/2)-Fraktils (a/2) 100 %. Das wahrscheinlichkeitsintervall nimmt somit
(1 - a) 100 % der Flche ein.

a
2

X
----------,i---------~)

z.,

Zl_~

X -!1

z=-O'x

Abbildung III 7: Wahrscheinlichkeitsintervall

Beispiel 111 2-1

Wahrscheinlichkeitsintervall

Fr eine Irrtumswahrscheinlichkeit von 5 % (a = 0,05) erhalten wir fr eine mit Erwartungswert 11 = 2 und Varianz rl = 16 normalverteilte Grundgesamtheit bei einem Stichprobenumfang von n = 100 und Ziehen mit Zurucklegen, das Wahrscheinlichkeitsintervall

4
4
2-z,-",' =SXS2+z ",' =
, ,,100
'-. ,,100
2-1,960,4 S X S 2+ 1,96 0,4
1,22 S X S 2,78
mit der Eigenschaft

P{I,22 S X,; 2,78) = 0,95.


Wird also aus der genannten Grundgesamtheit eine Stichprobe vom Umfang n = 100 gezogen, so liegt der resultierende Stichprobenmittelwert mH einer Wahrscheinlichkeit von
95 % zwischen 1 ,22 und 2,78.

Unsere bisherigen Ausfhrungen bezogen sich auf Wahrscheinlichkeitsintervalle fr


das Stichprobenmittel. Wir interessieren uns nun aber fr ein Verfahren, das mit
einer Wahrscheinlichkeit von 1 - a ein Intervall liefert, das den wahren Mittelwert
!1 und nicht das Stichprobenmittel X enthlt. Um ein solches zu finden, mssen
wir hinsichtlich der Verteilung der Grundgesamtheit und der Bekanntheit ihrer Varianz drei Flle (III 2.2.1 bis III 2.2.3) unterscheiden. Fr jeden der Flle erhalten
wir ein etwas anders defmiertes Konfidenzintervall.

342

111 Induktive Statistik

2.2.1

Normalverteilte Grundgesamtheit mit bekannter Varianz

Wissen wir, dass die Grnndgesamtheit normalverteilt und auerdem die Varianz d
der Grnndgesamtheit bekannt ist, so knnen wir ein Konfidenzintervall fr 11 aus
der Beziehung QII2: 6) ableiten. Wir nehmen dazu an dem darin enthaltenen
Wahrscheinlichkeitsintervall folgende Umformungen vor:
11- zax S

S 11 + zax

-zax S X-11 S zax


-zax -x ,,; -11 ,,; zax -x
zax +x :2: 11 :2: -zax + X
X-zax S

11

S X+zax

Mit Vu = X- zax und Vo = X+ zax erhalten wir so das Kondenzintervall


(III2: 7a)
fr welches
(III2: 7b)
gilt. Da X eine Zufallsvariable ist, sind die Grenzen des Konfidenzintervalls zufallsabhngig. Bei mehreren Stichproben j Ci - 1,2, ... ) im Umfang von jeweils n
werden sich unterschiedliche Stichprobenmittel xj und damit auch unterschiedliche Schtzintervalle fr 11 ergeben (vgl. Abbildung III 8).

o
X,

x,

Abbildung III 8: Intervallschtzungen fr den Mittelwert

343

2. Intervallschltzung

Legen wir um den Mittelwert der Grundgesamtheit (unter der Annalune, dass dieser
bekannt ist) ein Wahrscheinlichkeitsintervall, in das der Stichproberunittelwert XJ
mit einer wahrscheinlichkeit von 1 - a fllt (vgl. gestrichelte Unien in Abbildung
m 8), so umschliet eine Intervallschtzung um x J nur dann den gesuchten Parameter J.1, wenn dieses x j innerhalb des wahrscheinlichkeitsintervalls um J.1 liegt.
Die Wahrscheinlichkeit 1 - IX kann daher als wahrscheinlichkeit dafr interpretiert
werden, dass ein Konfidenzintervall um den Stichproberunittelwert X den gesuchten Mittelwert J.1 der Grundgesamtheit berdeckt. Betrachten wir eine durch eine
konkrete Stichprobe bestimmte Intervallschtzung, so wird diese J.1 entweder einschlieen oder nicht. Gerade daher liegt uns also mit einem Konfidenzintervall ein
verfahren vor, das bei einer groen Zahl von Stichproben in (1- a) . 100 % aUer
FiJlle eine Interoallschtzung liefert, die den unbekannten Parameter JJ umschliet.
Mit zunehmenden a verkrzt: sich die Lnge eines Konfidenzintervalls, sodass damit auch die Wahrscheinlichkeit, dass das Intervall den wahren Wert nicht berdeckt, steigt. Typische in der Praxis verwendete Irrtumswahrscheinlichkeiten und
die dazugehrigen z-Werte sind

a=0,01
a=0,05
a=0,10

~
~

z=2,575
z=1,96
z=1,645.

Boloplollil 2-2

Intervallschltzung fUr 1lQ .

Von N '" 9.000 Haltern einer bestimmten Pkw-Marke werden n '" 50 dahingegen befragt,
wie lange sie ihren Neuwagen nutzen konnten, bis der erste Defekt auftrat. Das Ergebnis
dieser Befragung war eine durchschniHliche Nutzungsdauer von x = 4,5 Jahren. Die Standardabweichung der als normalverleilt angenommenen Grundgesamtheit ist bekannt und
betragt (J" = 0,5 Jahre. Bestimmen wir nun ein 99 %-$chAtzintervall (a = 0,01) fOr die durchschniHliche Nutzungsdauer J1 der Grundgesamtheit. Es empfielt sich dazu allgemein
folgende Vorgehensweise:
1. Bestimmung des (1--a/2)-Fraklils der Standardnonnalverteilung:

z - ZI~

- ZI--11,OO5 -

zll,llll5 - 2,58

2. Ermittlung des Stlchprobenmlnelwertes x und der Standardabweichung oj(:

x=4,5
a- - ~ - 0,5 - 007

, -fri -J5ii

'

n s 0, 1N ~ Der EndlichkeitskomJkturfaktor beim Ziehen


ohne ZuriickJfJgen kann vsmachlBssigt werden.

3. Bildung des 8chltzintervalls:

-+

4,5-2,58-0,07:S J1:S 4,5+2,58-0,07


4,32S~S4,68

Dieses SchAtzintervall wird nun den unbekannten Minelwerl J.L der Grundgesamtheit mit
einer Wahrscheinlichkeit von 99 % einschlieen.

344

111 Induktive Statistik

2.2.2

Normalverteilte Grundgesamtheit mit unbekannter Varianz

Ausgehend von einer normalverteilten Grundgesamtheit mit bekannter Varianz,


haben wir bereits mehrfach von der Tatsache Gebrauch gemacht, dass fr eine solche das Stichprobenmittel X mit dem Erwartungswert J.L und der Varianz a. normalverteilt und damit das beim Ziehen mit Zurcklegen (bzw. beim Ziehen ohne
Zurcklegen und n :s; 0,1N) resultierende standardisierte Stichprobenmittel
X-J.L X-J.L
Z=--=--

N(O;1)

.rn

einer Standardnormalverteilung folgt. Ist die Varianz d einer solchen Grundgesamtheit jedoch unbekannt, was in praktischen Anwendungen der realistischere
Fall ist, so muss diese geschtzt werden, um eine Schtzung fr den Standardfehler
des Stichprobenmittels a. zu erhalten. Es empfiehlt sich dabei, die Stichprobenvarianz 0' heranzuziehen. Wir erhalten damit eine mit n - 1 Freiheitsgraden
t-verteilte Zufallsvariable T (vgl. Abschnitt III 1.2.2.1) der Form
-

T=X-J.L=X-J.L

"x

_ t(n-1).

.rn

Ist nun t~,n_1 das a/2-Fraktil und t -1, n-1 das (1 - a/2)-Fraktil der t(n - 1)-Ver'
von Abschnitt III 2.2 ein Intervall
teilung, so knnen wir analog zur Einleitung
t-t-, n-l

-----a- -

<X-J.L<
-

.rn

t1--t-, n-l

angeben, in das die Zufallsvariable T mit einer Wahrscheinlichkeit von 1 - a fallt,


Da wir aufgrund der Symmetrie der t-Verteilung vereinfacht t = t 1 n-l = -t~ n-l
schreiben knnen, ergibt sich daraus durch Umstellung das KonfidemIntervall
-.!!,

(III2: 8a)
fr welches

0
0 ) =1-a
P X-t'-:S;J.L:S;X+t,(

.rn

.rn

(III2: 8b)

er

gilt 1 Wichtig ist in diesem Zusammenhang besonders, dass durch Schtzung von
eine zustzliche Fehlerquelle entsteht, die die Schtzungsgenauigkeit beeintrchtigt.
Bei der nun verwendeten t-Verteilung sind deshalb die Fraktile im Vergleich zur

1 Bei der Aufstellung des Schtzintervalls fr eine konkrete Stichprobe empfiehlt es sich auf

eine Vereinfachung der Stichprobenvarianz zurckzugreifen, die aus dem Verschiebungssatz resultiert. Diese stellt sich wie folgt dar:

6 2 =_1_:tX~_~X2
n-1

1=1

n-1

345

2. Intervallschatzung

Standardnormalverteilung absolut grer. Dies hat zur Folge, dass das Schtzintervall verbreitert wird.

Beispiel 111 2-3

Intervallschtzung fUr J.lQ .

Eine Maschine fOllt Zahnpasta in Tuben ab. Das FOllgewicht soll als normalverteilt betrachtet werden. Eine Stichprobe im Umfang von n '" 15 aus der laufenden Produktion ergab ein
durchschnlnllches FOlIgewicht von 35 g bel einer Standardabweichung (J - 5 g. Gesucht
ist nun eine Intervallschtzung, die den tatschlichen Minelwert J.l der Grundgesamtheit mit
95 % Wahrscheinlichkeit einschIleBt.
1. Bestimmung des (1-a12)-Fraktils der t-Verteilung mit n - 1 Freiheitsgraden:
t - t~;14

- tD,I7fi;14

-=2,14

2. ErmitUung des Stichprobenminelwertes x und der Standardabweichung (Ji:

x-35

a =115=1,29
5
a, =:;r.;

n :!i 0, lN -J. Der Endlichkeitskorrekturfaktor beim Zieh9IJ


ohne Zunicldegen kann vemachlassigt werden.

3. Bildung des Schitzintervalls:

35-2, 141,29 S J.l S 35+2. 14129


32,24 SIl S 37,76

Wie wir wissen, kann die t-Verteilung bei Freiheitsgraden von w > 30 durch die
Standardnormalverteilung approximiert werden. Dies bedeutet, dass bei hinreichend groem Stichprobenumfang t .. z gilt und somit durch Ersetzen von t durch
z in (ID2: Ba) ein approximatives KonfidenztnteroaU fr J.l bei normalverteilter
Grundgesamtheit und unbekannter Varianz cl resultiert.

2.2.3 Beliebig verteilte Grundgesamtheit


Ist die Grundgesamtbeit beliebig verteilt, so besagt der zentrale Grenzwertsatz, dass
wir bei ausreichend groem Sticbprobenumfang (n > 30) die Verteilungen der
Gau- bzw. T-Statistik
X-~

X-~

Z=--=-(J

bzw.

X-~

X-~

T=--=--

.Jn

6'-

6'

.Jn

in guter Nherung durch die Standardnormalverteilung approximieren knnen. Wir


erhalten daraus analog zur Vorgehensweise in den vorhergehenden Abschnitten
folgende appro:dm.atlve Konfldenzlnterva1le:
a) bei bekannter Varianz cl der Grundgesamtheit:

[Vo,Vo1=[X-Z ;';,X+Z ;,;]

(l1l2. 9)

111 Induktive Statistik

346

b) bei unbekannter Varianz cl der Grundgesamtheit:

[V.. V.l

Bit

=[X-z ;",X+Z ;..]

Die geforderten Zusammenhnge (TII2: 2) und (ITI2: 3) sind jedoch im Falle einer
beliebig verteUten Grundgesamtheit und Approximation durch die Standarrlnonnalverteilung nur nherungsweise etfllt.

Bel.plellil 2-4

IntervalischAlzung rur j.l

Die Anzahl der in der Telefonzentrale eines Unternehmens eingehenden Anrufe pro Tag
wird als Poisson-verleill angesehen. Zur Intervallschtzung das EIW8rtungswerts j.l bzw.
des unbekannten Parameters). dieser Verteilung wurde eine Stichprobe im Umfang von
36 Tagen gezogen, die eine durchschnittliche Anruferzahl von 25 ergab. Die Varianz der
Grundgesamtheit ist nicht bekannt. Gesucht ist nun ein 90 %-Schiitzintervall tOr den unbekannlen Parameter der Grundgesamthalt.
1. Test auf Anwendbarkeit des zentralen Grenzwertsatzes:
Die Bedingung n > 30 ist hier erfClIlt.
2. Bestimmung des (1 - aI2)-Fraktlls der Standarclnormalvertellung:

3. ErmitHung des Stichprobenmittelwertes x und der Standardabweichung cl)!:

x=25
Die Standardabweichung kann hier nicht aus Einzelwerten berechnet werden, da keine
vorliegen. Auch wurde keine Stichprobenstandardabweichung genannt. Da aber fr die
Poissonverteilung J.I. '" rI =). gilt, kann wie folgt vorgegangen werden:

x =Tn=k=O,83

mit

=./X=.J25=5

4. Bildung des SchAtzintervalls:

x-zx SIJ.Sx+zx

-+

25-1,640,83 S IJ. S 25+1,640,83


23,64 SJ.l.S 26,36

2.3 Konfidenzintervall fr den Anteilswert


Wie wir im Abschnitt III 1.2.3 gesehen haben, ist der Anteilswert p einer ausreichend groen Stichprobe aus einer dichotomen Grundgesamtheit (N Objekte, wovon M die Eigenschaft A besitzen -+ p - M!N) bei erfllter Bedingung npO-p) ~ 9
mit dem Erwartungswert E(i = p und der Varianz Var(p) = (J~ approximativ
normalverteilt. Beim Ziehen mit Zurcklegen (bzw. beim Ziehen ohne Zurcklegen
mit erfllter Bedingung n S; O,lN) galt

a;

p(1-p)
n

347

2. Intervallschatzung

Analog zu den vorhergehenden Abschnitten kann aus der standardisierten und approximativ standardnonnalverteilten Zufallsvariablen

Z=p-p
0,

ein approximatives Konfldenzinterv fr den Anteilswert hergeleitet werden.

Wir erhalten das Intervall

Iv., vol = [p -z .Jp(l:p),p +z JP(1:p~l

(1112, 11)

in welches der unbekannte Anteilswert p mit einer Wahrscheinlichkeit von 1 -

CI

fllt. Da der Anteilswert p der Grundgesamtheit gerade unbekannt ist, muss als

Schtzer fr den Anteilswert der Grundgesamtheit der Stichprobenanteilswert p


verwendet werden. Auch die berprfung unserer Approximationsberungung
np(1-p) <!: 9 kann nicht direkt erfolgen. Auch hier muss die Schtzung aus der
Stichprobe verwendet werden, sodass nun also np(1- p) ~ 9 gelten muss.
Beim Konfidenzintervall fr den unbekannten Anteilswert p handelt es sich um
einen Sonderfall von 0112: 10). Der Anteilswert ist nmlich, wie wir bereits in den
Abschnitten m 1.2.1 und III 1.2.3 gesehen haben, nichts anderes als der Mittelwert
einer dichotomen Grundgesamtheit (zhlt also zu den beliebig verteilten Grundgesamtheiten), deren Varianz unbekannt ist. Es wurde in 002: 10) lediglich a durch
den Ausdruck Jp(1- p) ersetzt.
Boloplollil 25

Intervallschtzung fr p Q .

In einem Wahlbezirk mit N '" 10.000 Wahlberechtigten soll der Anteil p der Whler einer
Partei A geschtzt werden. In einer Stichprobe vom Umfang n - 100 befinden sich nun
x _ 40 Whler, die for die Partei A stimmen wOrden. Bestimmen wir nun ein Intervall, in das
der wahre Whleranteil p fUr Partei A mit einer Wahrscheinlichkeit von 95 % fllt.
1. Prufung der Normalverteilungsbedingung np(l-p) ~ 9 :

100'0,4(1-0,4) - 24 > 9
2. Bestimmung des (l-a12)-Fraktils der Standardnonnalv8rteilung:

Z - ZI~ - Zl--1l.Q25 - ZO.15 - 1,96


3. ErmitUung des Stichprobenanteilswertes p und der Standardabweichung a~:

40

P - 100 - 0,4

. t(1P)
0,--n

0,40,6 - 0 0490
100

'

n :S 0, 1N -J. Der Endlichksitskorrekurfaktor beim


ZlfJhen ohne ZunickJegsn kann
vemachl&sigt werden.

4. Bildung des Schitzintervalls:

P-zOp :S:P:S:P+ZGp

-t

O,4-1,960,0490:s:p:S:0,4+1,960,0490
0,3040 s p s 0,4960

348

111 Induktive Statistik

2.4 Konfidenzintervall fr die Varianz


Unter m 1.2.4 hatten wir gesehen, dass bei N{JJ.,ct)-verteilter Grundgesamtheit die
Zufallsvariable
Cn-l)<>'

~ fcx, -X)'

B=

,-,

0'

einer Chi-Quadrat-Verteilung mit n - 1 Freiheitsgraden folgt. Bezeichnen wir nun


mit x! !I_I bzw.
!I_I das a./2- bzw. (1 - a./2)-Fraktil einer Chi-Quadrat-Verteilung' mit n - 1 FreHieitsgraden, so knnen wir analog zur bisherigen Vorgehensweise das Intervall

X:-"

X~,II_l S

(n-1)02

ri'

S ~'1-,1I-1

fmden. Aufgrund der fehlenden Symmetrie der Chi-Quadrat-Verteilung verwenden


wir im Folgenden Cl = x! _1 bzw. C 2 = ~-". _1' Weitere Umformungen liefern das
symmetrische Kon ftderJ'd;'tervall2 fr die v~

[v v
OJ'

Q.

1=[Cn -1)6' Cn
c2

'

-l)a'_]d,i

0112: 12)

'1

in welches die unbekannte Varianz cl mit einer Wahrscheinlichkeit von 1 - a fllt.


Ein solches Konfidenzintervall ist jedoch nur bei tatschlich normalverteilter Grundgesamtheit zu empfehlen. Bei nicht normalverteilter Grundgesamtheit erhalten wir
selbst bei hohem Stichprobenumfang nicht generell eine akzeptable Intervallschtzung von cl.

Beispiel 111 2-6

Intervallschatzung 'ar c}

ZUr Bestimmung des Durchschnittsalters der Mitarbeiter in einem Gro8konzem wurde eine
Stichprobe im Umfang von n '" 20 gezogen, die ein durchschnitUiches Alter von x '" 35
Jahre bei einer Standardabweichung von i; - 3,5 Jahren ergab. Das Lebensalter in der
Grundgesamtheit sei normalverteilt. Die Varianz ,j dieser Grundgesamtheit ist jedoch
nicht bekannt. Es soll daher eine IntervalischAlzung ffir die Varianz ,j der Grundgesamtheit bei einer Irrtumswahrscheinlichkeit von 2 % durchgeffihrt werden.
1. Bestimmung des (a/2)- und des (1 - a/2)-Fraklils der t(n -1)-Verteilung:

c, = X~n_l = X~,tl1;"

= 7,63
c2 =~-t,n-' =~,ft;" = 36,19
2. Ermittlung der Stichprobenvarianz cl:

CI _ 3,52 - 12,25

2 Fr die Bezeichnung "syuunetrisches Konfldenzintervall" spielt es keine Rolle, ob die


zugrundeliegende Verteilung symmetrisch (Normal- und t-Verteilung) oder nicht symmetrisch (Chi-Quadrat-Verteilung) ist. Wichtig ist hierfr nur, dass die IrrtumswahrscheinllchkeJt auf beJde Seiten des Konfidenzintervalls gleichmjg (al2) aufgeteilt ist.

349

2. Intervallschtzung
3. Bildung des Schtzintervalls:

(n -1l<" so' S (n -1l<"


c2
C,

-->

1912,25 so' S 1912,25


36,19
7,63
6,43';; 0' ,;; 30,50

2.5 berblick ber die behandelten Konfidenzintervalle


Abbildung III 9 bietet einen berblick ber die in diesem Kapitel behandelten
Konfidenzintervalle. Es wird dabei vom Modell des Ziehens mit Zurcklegen bzw.
des Modells des Ziehens ohne Zurcklegen mit erfllter Bedingung n ,;; O,lN ausgegangen (Vernachlssigung des Endlichkeitskorrekturfaktors (N - n)(N - 1)). z ist
dabei das (1- a/2)-Fraktil der Standardnorrnalverteilung, t das (1- a/2)-Fraktil einer
t-Verteilung mit n - 1 Freiheitsgraden sowie c, das a/2-Fraktil und c, das (1 - a/2)Fraktil einer Chi-Quadrat-Verteilung mit n - 1 Freiheitsgaden.
Konfidenzintervall fr 11
Varianz

cl

bekannt

unbekannt

GG norrnalverteilt
GG beliebig verteilt,
aber da n > 30 approximativ normalverteilt

Konfidenzinvervall fr p
Dichotome GG, aber da nf>(l-f
approximativ normalverteilt

~9

p-zl'(1-P) ,;;p,;;p+zJP(1-P)
n

Konfidenzintervall fr ci'
GG norrnalverteilt

(n -1)a'

Abbildung III 9: Konfidenzintervalle im berblick

c,

< ci' ,;; (n -1)a'


c,

350

111 Induktive Statistik

2.6 Planung des Stichprobenumfangs


Bei der Planung von Stichprobenerhebungen stellt sich vorab die Frage, wie gro
die Stichprobe Zu whlen ist. Hierbei spielt natrlich die erforderliche Genauigkeit
der Untersuchung die zentrale Rolle. Die Genauigkeit kann durch die tolerierte
Lnge L des Konfidenzintervalls festgelegt werden. Bei gegebenem Konfidenzniveau und gegebener Streuung der Grundgesamtheit hngt die Lnge des Konfidenzintervalls nur noch vom Stichprobenumfang n ab. Durch die Wahl des Stichprobenumfangs kann somit ber die Lnge des Konfidenzintervalls die Untersuchungsgenauigkeit gesteuert werden.

2.6.1

Konfidenzintervall fr den Mittelwert

Die Lnge eines Konfidenzintervalls fr den Mittelwert 11 einer normalverteilten


Grundgesamtheit mit bekannter Varianz ist festgelegt als
L = Vo

Vu = (Je + zO".) - (Je - zO".) = 2zO".

(III2: 13)

Der darin vorkommende Term zO". wird in der Literatur auch hufig als absoluter
Febler e bezeichnet, sodass L = 2e gilt. L hngt hier nicht vom Stichprobenergebnis
ab, da 0" bekannt ist. Bei gegebener Vertrauenswahrscheinlichkeit 1 - a kann deshalb durch die Wahl eines geeigneten Stichprobenumfangs n erreicht werden, dass
die Lnge des Konfidenzintervalls hchstens gleich einem vorgegebenen Wert fr L
ist. Wir ermitteln den mindestens notwendigen Stichprobenumfang im Falle des
Ziebens mit Zurcklegen wie folgt:
0"

(III2: 14)

L=2z-

.,Jn

Wir sehen daran, dass beispielsweise eine Halbierung der Lnge des Konfidenzintervalls eine Vervierfachung des Stichprobenumfangs erfordert. Beim Zieben obne
Zurcklegen (und n > O,1N) ergibt sich (da anderes 0".) hingegen
n=

Beispiel 111 2-7

z'N<J'
(L/2)'(N-1)+z'

'0"'

z'N<J'
e'(N-1)+z'

'0""

(III2: 15)

Notwendiger Stichprobanumfang

Im Beispiel 111 2-2 hatten wir bei einem Stichprobenumfang von n = 50 eine IntervalIlnge
von L = 4,68 - 4,32 = 0,36 Jahren erhalten. Um ein SchAtzintervall von hchstens 0,1 Jahren Lnge zu erhalten, msste ein Stichprobenumfang von mindestens
n=(2'O'5'2'58)' =66564
0,1
'
gewhlt werden, d.h. es mssten mindestens 666 Personen befragt werden.
Im Falle unbekannter Varianz muss die Varianz in (III2: 14) bzw. (III2: 15) ge-

schtzt werden (vgl. dazu Abschnitt III 2.6.2). Aufgrund dieser Schtzung ist die Berechnung eines exakten Mindeststichprobenumfangs n zur Festlegung einer Maxi-

2. Inlervallschtzung

351

mallnge L des Konfidenzintervalls nicht mglich. Der e1jorderltche Stichprobenumfang kann nur approximativ bestimmt werden.

2.6.2

Konfidenzintervall fr den Anteilswert

Die Lnge des Konfidenzintervalls fr den unbekannten Anteilswert einer dichotomen Grundgesamtheit ergibt sich als
(III2: 16)
Zur Berechnung der Varianz des Stichprobenanteilswertes msste man p kennen,
was nun aber gerade nicht der Fall ist. Wre p bekannt, so liee sich ZU einer
vorgegebenen Lnge L des Konfidenzintervalls der dazu notwendige Stichprobenumfang n ermitteln. Beim Ziehen mit Zurcklegen ergbe sich
L=

2Z~P(ln- p)

-+

z'p(l- p)
(L! 2)'

z'p(l- p)

e'

(III2: 17)

wohingegen wir beim Ziehen ohne Zurcklegen (und n > O,lN) fr die Lnge (aufgrund des anderen CJ ) den folgenden Wert erhalten:
n=

z'Np(1- p)
(L 12)'(N -1) + z'p(1- p)

z'Np(1- p)
e'(N -1) + z'p(1- p)

(III2: 18)

Bei unbekanntem p und damit unbekannter Varianz kann im Allgemeinen kein


erforderlicher Stichprobenumfang n angegeben werden. In der Praxis haben sich
aber verschiedene Mglichkeiten herausgebildet, trotzdem Werte fr n zu erhalten.
Sowohl beim Konfidenzintervall fr den Mittelwert als auch fr den Anteilswert
wird hufig die unbekannte Varianz (bzw. p beim Konfidenzintervall fr den Anteilswert) zur Bestimmung von n durch eine Vorstichprobe kleinen Umfangs geschtzt oder aus frheren Erhebungen bernommen. Eine solche Vorgehensweise
besitzt allerdings den Nachteil, dass der so gefundene notwendige Stichprobenumfang aufgrund der Schtzung der Varianz auch zu klein ausfallen kann. Stattdessen
knnte man wie folgt vorgehen: Liegt eine Information vor, dass der Schtzwert fr
ri' mit Sicherheit kleiner oder gleich einer Konstanten k ist, so kann die Einhaltung
einer maximalen IntervalIlnge L dadurch garantiert werden, dass man mindestens
(III2: 19)
whlt. So ist beispielsweise die geschtzte Standardabweichun einer dichotomen
Grundgesamtheit mit Sicherheit kleiner oder gleich 0,5, da p(1- p) an der Stelle
p = 0,5 das Maximum 0,5 besitzt.

2.6.3

Konfidenzintervall fr die Varianz

Die Lnge des Konfidenzintervalls fr die Varianz


L = Vo

Vu = (n-1)a'

CJ'

ist wegen

(11 c, -11 c,)

(III2: 20)

selbst von der zu schtzenden Varianz abhngig. Die Bestimmung eines notwendigen Stichprobenumfangs n zur Erreichung einer festen Lnge L ist also auch hier
nur approximativ mglich.

3.

Testen von Hypothesen

In den vorhergehenden beiden Abschnitten (Punkt- und Intervallschtzung) hatten wir


uns mit der Frage beschftigt, wie man mit Hilfe von Zufallsstichproben unbekannte Parameter der Grundgesamtheit schtzen kann. Im Rahmen von Testverfahren soll nun die
Frage beantwortet werden, wie man mit Hilfe von Zufallsstichproben testen (prOfen) kann,
ob bestimmte Hypothesen (Annahmen, Behauptungen) aber unbekannte Grundgesamtheiten richtig oder falsch sind. Dabei wird eine Hypothese als statistisch widerlegt angesehen (abgelehnt, verworfen), wenn das Stichprobenergebnis im deutlichen (signifikanten) Gegensatz dazu steht. Entsprechende berprOfungsverfahren bezeichnet man daher als Hypothesentests oder kurz Tests. Wir unterscheiden allgemein Parametertests,
die Hypothesen ber unbekannte Parameter der Grundgesamtheit berprfen, und Verteilungstests, die Hypothesen aber die Verteilungsart einer Grundgesamtheittesten.

3.1

Allgemeines Testschema
Alle statistischen Tests sind nach einem einheitlichen Schema aufgebaut. Dieses
setzt sich aus den folgenden vier Schritten zusammen:
1. Fonnulierung einer Nullhypothese und einer Gegenhypothese (Altemativ-

hypothese) mit Fesdegung eines Signifikanzniveaus a


2. Ableiten einer Teststatistik V und ihrer Verteilung
3. Aufstellung einer Entscheidungsregel (Definition des sog. Verwerfungsbereiches) fr die Ablehnung der Nullhypothese
4. Entscheidung und Inte.pretation auf Basis der berechneten Teststatistik
Die Bestandteile der einzelnen Testschritte dieses Standardschemas wollen wir im

Folgenden nher betrachten:


la. Die Hypothesen H, und HA
Bei der Formulierung von Hypothesen sind allgemein zwei Typen, sog. Parameter-

und Verteilungshypothesen, Zu unterscheiden.


Verteilungshypothesen liegen vor, wenn eine Hypothese ber die unbekannte Verteilungsfonn der Grundgesamtheit aufgestellt wird. So kann beispielsweise eine
Behauptung "die Grundgesamtheit besitzt bezglich des Untersuchungsmerk:mals
eine Normalverteilung" als Verteilungshypothese betrachtet werden. Mit Hypothesen dieser Art und den dazugehrigen Tests werden wir uns in Abschnitt III 3.4
nher befassen.
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_12, Springer Fachmedien Wiesbaden 2015

111 Induktive Statistik

354

Von Parameterhypothesen sprechen wir, wenn sich die Hypothese auf einen unbekannten Parameter der Grundgesamtheit bezieht. An folgendem Beispiel wird zunchst erlutert, welche verschiedenen Fonnulierungen von Hypothesen mglich

sind:
Nehmen wir an, der Vorsitzende einer groen Partei behauptet gegenber einem

Amtskollegen, dass der Anteil p seiner Whler in der Bevlkerung bei Po liegt. Er
stellt mit dieser Behauptung in der Tenninologie der Testtheorie die sog. Nullhypothese (Ausgangshypothese, H.,) auf, die wir kurz wie folgt formulieren:
Ho:ppo
Wir sprechen in einem solchen Fall auch von einer Punkthypothese, da sie sich nur
auf einen einzigen Wert, nmlich p = Po, bezieht. Wrde der Parteivorsitzende z.B.

behaupten, der Whleranteil sei mindestens p" dann gilt Ho: P :!: Po und es lge eine sog. BereIchshypothese vor. Ebenso wre H,,: p S Po eine Bereichshypothese.
Zu diesen Nullhypothesen kann der Amtskollege des Parteivorsitzenden nun jeweils eine Gegenhypothese (Alternativhypothese, HJ formulieren. In der Regel ist
die Gegenhypothese eine Bereichshypothese:

'* Po

a) Ho: P = Po

HA: p

c) Ho: P ,,; Po -

HA: p > P.

(Gegenannahme
entweder grer
(Gegenannahme
ist kleiner als p.,)
(Gegenannahme
ist grer als p.,)

des Amtskollegen: Whleranteil


oder kleiner als p.,)
des Amtskollegen: Whleranteil
des Amtskollegen: Whleranteil

Als Gegenhypothese bei a) ist jedoch auch eine alternative Punkthypothese denkbar. So knnte der Amtskollege etwa behaupten, dass der Whleranteil nicht bei Po
sondern bei PA liegt. Es ergbe sich dann HA: p = PA' Einen solchen rticht sehr praxisrelevanten Fall behandeln wir exemplarisch in Beispiel III 3-3 und gehen sonst
generell von den Fllen a) bis c) aus.
Liegen Hypothesen des Typs a) vor, sprechen wir von zweiseitigen, in den Fllen
b) und c) von einseitigen Tests. Einige Autoren sprechen bei b) auch von rechtsseitigen und bei c) von linksseitigen Tests. Analog zu diesem Beispiel fr den Anteilswert p sind auch die Hypothesen ber den Mittelwert Il. und die Varianz ci' der
Grundgesamtheit mglich. Wie wir sehen werden, knnen auch ber Differenzen
und Quotienten von Parametern der Grundgesamtheit Hypothesen aufgestellt (und
getestet) werden. Zur berprfung dieser Hypothesen wird eine Stichprobe gezogen, deren Ergebrtis eine Wahrscheinlichkeitsaussage darber ermglichen soll,
ob Ho zutrifft oder nicht. Je nach Stichprobenergebrtis werden wir Ha entweder ablehnen (verwerfen) oder nicht ablehnen.
Ib. Das Sign/Rkanzruveau a

Die Ablehnung von Ho anhand eines konkreten Stichprobenergebnisses ist entweder richtig oder falsch. Ist Ha rticht korrekt, haben wir mit der Ablehnung die richtige Entscheidung getroffen. Ist Ho jedoch korrekt, war die getroffene Entscheidung
falsch. Wir sprechen in einem solchen Fall von einem sog. Fehler 1. Art oder auch
a-Fehler (vgl. Abbildung III 10), dem die Wahrscheinlichkeit a zugeordnet ist. Vor
Durchfhrung des Tests muss der Anwender diese Irrtumswahrscheinlichkeit (das

355

3. Testen von Hypothesen

sog. SIgn1flkanzniveau a) festlegen. Er bestinunt also, mit welcher Wahrscheinlichkeit er die Fehlentscheidung zulassen will, dass Ho zu Unrecht abgelehnt wird.
Gebruchliche Werte fr a sind 0,1, 0,05 oder 0,01. Je kleiner a gewhlt wird, desto unwahrscheinlicher wird die Fehlentscheidung. Damit wird jedoch auch die
Chance geringer, bei falschem H, zu einer Ablehnung von H, zu kommen.
Auch die Nicbtablebnung von Ho kann richtig oder falsch sein. Ist Ho korrekt, so
treffen wir die richtige Entscheidung. Bei nicht korrekter H, ist die Nichtablehnung
ein Fehler. Diesen bezeichnen wir auch als Fehler 2. Art oder li-Fehler. Auch er
ttitt mit einer gewissen Wahrscheinlichkeit auf, welche nur indirekt vom Anwender
beeinflusst werden kann. Wir werden dies z.B. im Abschnitt III 3.3.1.1 konkret
sehen. Abbildung III 10 fasst diese Gedanken nochmals zusammen.
Entscheidung
Wahrer Zustand

Nichtablehnung von Ho

Ablehnung von Ho

H, korrekt

Richtige Entscheidung

a-Fehler (Fehler 1. Art)

Ho nicht korrekt

IIIFehler (Fehler 2. Art)

Richtige Entscheidung

Abbildung III 10: Fehler 1. und 2. Art


Beispiel 111 3-1

Fehler 1. und 2. Art

Eine Person wird eines Verbrechens angeklagt, wobei nicht bekannt ist, ob sie dieses auch
wirklich begangen hat. Unter der Nullhypothese Ho: "Der Angeklagte ist unschuldig." knnen folgende juristische Entscheidungssitutationen auftreten:
Entscheidung des Gerichts
Angeklagter ist ...
... unschuldig
... schuldig

Freispruch
(Nichtablehnung von Hol

Schuldspruch
(Ablehnung von Hol

Richtige Entscheidung

Justizirrtum zuungunsten des


Angeklagten (a-Fehler)

Justizirrtum zugunsten des


Angeklagten (~-Fehler)

Richtige Entscheidung

Ziel eines Statistikers ist es, einen Test zu konzipieren, bei dem die wahrscheinlichkeit fr den a-Fehler und auch die fr den li-Fehler in vertretbaren Grenzen
gehalten wird. Prziser ausgedrckt: Es soll fr einen gegebenen a-Fehler der geringstrngliche li-Fehler (mchtigster Test) erzielt werden. Problematisch ist dabei
jedoch: Je niedriger die Wahrscheinlichkeit fr den a-Fehler ausfallt, desto hher ist
ceteris patibus (c.p., unter Konstanthaltung aller anderen Faktoren) diejenige fr
den li-Fehler. Wrden wir nmlich H, generell ablehnen (in Beispiel III 3-1: nie
Freispruch), gilt
P(a-Fehler) = P(Ablehnung I Ho korrekt) = 1
P(II-Fehler) = P(Nichtablehnung I Ho nicht korrekt) = O.

356

111 Induktive Statistik

Wrden wir Ho dagegen nie ablehnen (in Beispiel III 3-1: immer Freispruch), gilt
PCa-Fehler) = PCAblehnung I Ho korrekt) = 0
PCP-Fehler) = PCNichtablehnung I Ho nicht korrekt) = 1.
Es ist daher in der Regel nicht mglich beide Fehlerwahrscheinlichkeiten simultan
unter beliebig vorgegebene Schranken ZU drcken.
2. Die Teststatlstlk V
Die Teststattstlk oder Testfunktton V verarbeitet die vorliegende konkrete Stichprobe und liefert einen Zahlenwert, der einen Beitrag zur Entscheidung der Ablehnung
oder Nichtablehnung von H, leistet. An eine solche Funktion V stellen wir folgende
Anforderungen, die wir im Rahmen konkreter Tests noch ausfhrlicher betrachten:

Die Wahrscheinlichkeitsverteilung von V muss davon abhngen, ob Ho oder


HA richtig ist.

Die Verteilung von V muss, sofern die Nullhypothese zutrifft, zumindest ap-

proximativ bestimmt werden knnen, da nur dann nachgeprft werden kann,


ob das gegebene Signiftkanzniveau a eingehalten wird.
Je nach Testverfahren werden wir andere Funktionen fr verhalten. Wir knnen
daher festhalten, dass V die entscheidende Gre ist, die die einzelnen Tests voneinander unterscheidet.

3. Die EntscheJdungsregel
Zur Entscheidung, ob die vorliegende Nullhypothese anhand einer konkreten Stichprobe bzw. des Wertes v Cmit Daten der Stichprobe berechnete Realisation der Zufallsvariablen V), abgelehnt werden kann oder nicht, wird ein sog. Verwerfungs
bereich Coder kritischer Bereich) deftniert. Fllt v In den Verweifungshereich, so
wird H, abgelehnt. Bei der Konstruktion dieses Bereichs wird aufgrund des Problems, dass die Wahrscheinlichkeiten fr a-Fehler und p-Fehler nicht gleichzeitig
unter eine vorgegebene Grenze gedrckt werden knnen, wie folgt vorgegangen:
1. Wir stellen sicher, dass die Wahrscheinlichkeit fr den Fehler 1. Art maximal a
ist. [In den Fllen b) und c) kann es vorkommen, dass diese kleiner als a ist.
Vgl. dazu Abschnitt II 3.3.1.1.]
2. Der nach 1. noch verbleibende Spielraum wird dann dazu benutzt, die Wahrscheinlichkeit fr den p-Fehler so gering wie mglich zu halten. Wir erreichen
dies, indem wir den Verwerfungsbereich so legen, dass ein Testfunktionswert v,
der in diesen fallt, stark gegen Ho und fr HA spricht.
Diese recht allgemeine Beschreibung zur Konstruktion des Verwerfungsbereiches
werden wir bei den einzelnen Tests detaillierter betrachten.

4. EntscheJdung und Interpretation


Je nachdem, ob v in den Verwerfungsbereich fllt oder nicht, ergibt sich als Ergebnis eines Tests die Ablehnung bzw. Nichtablehnung der Nullhypothese.
Fllt v in den Verwerfungsbereich sagen wir, dass die Stichprobe in signiftkantem
Widerspruch zu Ho steht. Die daraus folgende Ablehung von Ho wird als Annahme der gewhlten Gegenhypothese HA interpretiert. Genau genommen stellen

3. Testen von Hypothesen

357

wir mit der Ablehnung von H, die statistische Behauptung auf, dass HA korrekt ist.
Diese kann richtig oder falsch sein. Die Wahrscheinlichkeit dafr, dass der Test zu
dieser Behauptung fhrt, obwohl sie falsch ist, liegt jedoch nur bei a.
Fllt v nicht in den Verwerfungsbereich, steht die Stichprobe nicht in signifikantem
Widerspruch zu Ho. H. kann demnach nlcht abgelehnt werden. Dies bedeutet
nicht, dass die Nullhypothese besttigt Ist, sondern nur, dass sie anhand der
vorliegenden Stichprobe nicht abgelehnt werden kann.
v innerhalb des Verwerfungsbereichs

Ho kann abgelehnt werden


-7 HA statistisch besttigt

v auerhalb des Verwerfungsbereichs

Ho kann nicht abgelehnt werden


-7 Ho nicht besttigt

Abbildung III 11: Interpretation eines Testergebnisses


Es gilt also allgemein, dass Tests nur zu einer Widerlegung (Falsifizierung) einer
Nullhypothese und nicht zu deren Besttigung herangezogen werden knnen. In
der Praxis wird daher die Hypothese, die "besttigt" werden soll, als Gegenhypothese
formuliert. Dementsprechend kann dann die Ablehnung von Ho als statistische Besttigung der HA mit Signifikanzniveau a interpretiert werden.

3.2 Testklassifizierung
Neben der bereits unter III 3.1 erwhnten Unterscheidung von Parameter- und Verteilungstests ist eine weitere wichtige Klassifizierung von Tests vorzunehmen:
Ist die Grundlage des Tests eine einfache Stichprobe aus einer Grundgesamtheit, so
sprechen wir von einem sog. Einstichprobentest. Zu dieser Klasse der Tests, gehren beispielsweise die Einstichprobentests fr den Anteilswert p (vgl. III 3.3.1.1),
den Mittelwert 11 (vgl. III 3.3.1.2) und die Varianz ci (vgl. III 3.3.1.4) sowie der '1.'Anpassungstest (vgl. III 3.4.1).
Hypothesen beziehen sich oft auch auf den Vergleich von Parametern verschiedener Grundgesamtheiten. Wir wollen uns hier auf zwei Grundgesamtheiten beschrnken und Behauptungen wie "Die mittlere Lebensdauer von Motorentyp A
liegt mindestens bei der von Motorentyp B." oder "Die Anteile defekter Artikel in
Lieferung A und B sind identisch." untersuchen. Sind die zum Test solcher Hypothesen gezogenen Stichproben voneinander unabhngig, sprechen wir von Zwelstichprobentests. Zu diesen zhlen etwa die Zweistichprobentests fr die Differenz zweier Mittelwerte (vgl. III 3.3.2.1), die Differenz zweier Anteilswerte (vgl. III
3.3.2.2), und den Quotienten zweier Varianzen (vgl. III 3.3.2.3).
Wird aus einer Grundgesamtheit eine Stichprobe im Umfang n gezogen, bei der
von jedem entnommenen Objekt zu zwei relevanten Untersuchungsmerktnalen X
und Y die beiden Merktnalsausprgungen registriert werden (sog. zweidimensionale Stichprobe), sprechen wir bei getrennter Betrachtung der Datenerhebung zu X
und zu Y vom Vorliegen zweier verbundener einfacher Stichproben vom Umfang
n. Ein Test, der Hypothesen bezglich solcher Stichproben untersucht, wird auch

358

111 Induktive Statistik

als Zweistichprobentest bei verbundenen Stichproben bezeichnet. Hypothesen knnen sich hierbei beispielsweise mit folgenden Fragestellungen befassen:

Hngen die Studienleistungen von Studierenden einer Hochschule in den


Fchern Mathematik und Statistik voneinander ab oder nicht?

Ist der Ernteertrag bei Verwendung des Dngemittels A hher als der bei Verwendung von Dngemittel B? Um hier die etforderliche Abbnglgkeit der
Stichproben zu gewhrleisten, wird z.B. ein Feld je zur Hlfte mit Dnger A
und B behandelt. Wrden verschiedene Felder gedngt, lge ein normaler
Zweistichprobentest (da Unabhngigkeit) vor.

Zu dieser Art von Tests zhlen etwa die Differenzentests fr zwei Mittelwerte (vgl.
Abschnitt III 3.3.3.1) sowie der Korrelationstest (vgl. Abschnitt III 3.3.3.2) und der
Kontingenztest (vgl. Abschnitt III 3.4.2).

3.3 Parametertests
3.3.1

EInstichprobentests

Bei Einstichprobentests wird die Entscheidung ber die Ablehnung oder Nichtablehnung der Nullhypothese anhand einer einzigen Stichprobe getroffen. Wir wollen
im Folgenden den Einstichprobentest fr den Anteilswert, der genau genommen
nur ein Sondetfall des Einstichprobentests fr den Mittelwert bei dichotomer
Grundgesamtheit ist, verwenden, um den konkreten Aufbau eines derartigen Tests
im Detail zu beschreiben. Die darauf folgenden Testvetfahren werden wir dann in
kompakterer Form darstellen.
3.3.1.1

Einstichprobentest fr den Anteilswert

Mit dem Einstichprobentest fr den Anteilswert, der auch als approximativer Gautest bezeichnet wird, lassen sich Behauptungen hinsichtlich des unbekannten Anteilswerts p einer Grundgesamtheit untersuchen. So knnen z.B. Hypothesen wie
"Der Anteil defekter Artikel in einer groen Lieferung liegt bei Po'" oder "Der Anteil
der Raucher unter den Studenten einer Hochschule liegt bei mindestens Po'" getestet werden. Angelehnt am allgemeinen Schema aus III 3.1 gehen wir dabei konkret
wie folgt vor:
(1) Formulierung einer Nullbypotbese und einer Gegenbypotbese

Wir knnen bei diesem Test allgemein folgende mgliche Paare von Hypothesen
Ho und HA festhalten:
a) Ho: P=Po
HA: P"'Po
b) Ho: p;" Po
(III3: 1)
HA: P<Po
c) Ho: P ~ Po
HA: P>Po
Bei der Formulierung der Nullhypothesen der einseitigen Tests b) und c) haben wir
bewusst zwei mgliche Formulierungen angegeben. Es gilt nmlich, dass die Wahrscheinlichkeit fr den Fehler 1. Art bei Test c) nur fr H,: p = Po genau beim gewhlten Signiflkanzniveau a liegt. Fr jeden anderen Wert p < Po wre die Irr-

359

3. Testen von Hypothesen

turnswahrscheinlichkeit kleiner als das gewhlte Niveau a. Das SignifIkanzniveau a


ist daher im Falle einer Formulierung H,: P " Po als maximale IrrtumswabrscbeinI/cbkeit aufzufassen. Dies gilt analog auch fr den Fall b).
(2) Ableiten einer Teststattstik V und ibrer Verteilung
Nach Wahl von Ho und HA sowie des SignifIkanzniveaus a besteht der nchste
Schritt darin, eine geeignete Teststatistik (zur Verarbeitung der vorliegenden Stichprobe) und ihre Verteilung, die sog. Testverteilung, herzuleiten. Unter der Annabme, dass die Nullbypotbese zutrifft, kann die vorliegende Stichprobe als eine
aus einer dichotomen Grundgesamtheit mit dem Anteilswert Po gezogene betrachtet
werden. Der Stichprobenanteilswert p ist dann nach den Erkenntnissen aus Abschnitt III 1.2.3 nherungsweise normalverteilt, wenn npoCl-p,) ;,: 9 gilt. Fr Erwartungswert, Varianz und Standardabweichung von p gilt dann bei Ziehen mit Zurcklegen (bzw. Ziehen ohne Zurcklegen und n" O,lN)
E(p) = Po'

-+

Var(fl) = Po Cl: Po)

0". = JpoCl: Po) .

a. '

Als Teststattstik V verwenden wir nun nicht p sondern zweckmigerweise den


standardisierten Stichprobenanteilswert (p - Po) /
sodass (bei Vernachlssigung
einer Stetigkeitskorrektur) die Teststatistik
V=

P- Po
a

P- Po

(III3: 2)

Jpo(1: Po)

resultiert. V ist bei ricbtiger Nullbypotbese aufgrund des Zentralen Grenzwertsatzes


approximativ standardnormalverteilt. Wir sagen daher auch, dass die Standardnormalverteilung die Testverteilung ist.
(3) Aufttellung der Entscbeidungsregel/Ur die Ablebnung von H,
Wie wir wissen, ist der Stichprobenanteilswert p ein geeigneter (erwartungstreuer
und konsistener) Schtzer fr den unbekannten Anteilswert p einer Grundgesamtheit. Wir knnen also damit rechnen, dass die Realisierung von p nicht allzu sehr
von p abweicht. Deshalb werden wir uns, falls p stark gegen die Nullhypothese Ho
und fr die betrachtete Gegenhypothese HA spricht, dazu entschlieen, Ho als statistisch widerlegt anzusehen. Dies bedeutet in den einzelnen Fllen aus (III3: 1):

Ho wird gegenber HA abgelehnt


a) Ho: P=Po, HA: P"Po
b) Ho: p;': Po, HA: p < Po
c) Ho: P"Po, HA: P>Po

falls

I P- Po I "sehr gro" ist.


p !I viel kleiner" als Po ist.

p "viel grer" als

(III3: 3)

Po ist.

Diese Entscheidungsregel gilt es nun zu przisieren, da noch nicht klar defmiert ist,

was unter I1 sehr groI\ "viel kleinerlt und Itviel grerll konkret zu verstehen ist. Da

die Fehlentscheidung, dass eine korrekte Nullhypothese abgelehnt wird, lediglich


mit der als zulssig vorgegebenen kleinen Irrtumswahrscheinlichkeit a vorkommen
darf, muss zudem dieses a in die Entscheidungsregel Eingang finden.

360

111 Induktive Statistik

Ob eine Abweichung des Stichprobenwerts vom hypothetischen Wert als deutlich


(signifikant, gro) angesehen werden kann, knnen wir unter Bercksichtigung der
Streuung von p beurteilen. Wir verwenden die Teststatistik (III3: 2), in die diese
Streuung direkt einfliet. Da diese (unter der Annahme einer korrekten Nullhypothese) approximativ standardnormalverteilt ist, knnen wir unter Verwendung des
(1 - a!2)-Fraktils Z,-/2 bzw. des (1 - u)-Fraktils Z'_0 der Standardnormalverteilung
und der Realisation v der Teststatistik die folgende Entscheidungsregel
Ho wird gegenber HA abgelehnt
a) Ho: P=Po, HA: P"Po
b) Ho: P;':Po, HA: P<Po

falls

c) Ho: pSPo, HA: P>Po

I v I> zl-a12
v < -zl_a

v>

(III3: 4)

Zl--a

aufstellen. Die in (III3: 4) verwendeten Fraktile der Standardnormalverteilung bezeichnet man in der Testtheorie auch als kritische Werte. Sie trennen den Ahlehnungsbereich (kritischen Bereich) fr Ho vom Nichtablehungsbereich fr H,.
Abbildung III 12 verdeutlicht diese Bereiche fr den Fall a). Fllt also v zwischen
die beiden kritischen Werte, wird die Nullhypothese Ho nicht abgelehnt, d.h. die
Abweichung von p von Po wird als nicht signifikant angesehen. Auerhalb dieses
Bereiches ist Ho zu verwerfen, d.h. die Abweichung von Stichprobe und Nullhypothese wird als signifikant bewertet. Ist die Nullhypothese korrekt, kommt es bei
Verwendung der Entscheidungsregel (III3: 4) tatschlich nur mit einer Wahrscheinlichkeit von genau u (- a!2 + a!2) zu einer flschlichen Ablehnung von Ho.
Ho :P=Po

f(v)

HA: p" Po

"
2

Ablehnungsbereich
von Ho

Nichtablehnungsbereich von H,

Ablehnungsbereich
von Ho

Abbildung III 12: Dichtefunktion von V bei korrekter Nullhypothese a)


Die entsprechenden Ablehnungs- und Nichtablehnungsbereiche fr die Flle b)
und c) aus (III3: 4) sind in den beiden Abbildungen III 13 und III 14 dargestellt. Im
Fall b) ist die Nullhypothese abzulehnen, wenn v unter -Z'_0 liegt. Im Fall c) wird
Ho verworfen, wenn v ber Z'_0 liegt. Die Irrtumswahrscheinlichkeit betrgt in beiden Fllen maximal u. Bei diesen Entscheidungsregeln ist das Signifikanzniveau
nur fr p - Po genau u. Fr die anderen mglichen Werte bei Richtigkeit der Null-

3. Testen von Hypothesen

36t

hypothese (fr den Fall b) p > p, und fr den Fall c) p < p,) wre das SignifIkanzniveau dann kleiner als a.
f(v)

H,:p~p,

HA :P<Po

Ablehnungsbereich
von Ho

Nichtablehnungsbereich von H,

Abbildung III 13: Dichtefunktion von V bei korrekter Nullhypothese b)


Ho:p~po

f(v)

HA :P>Po

a
v
z,~

NichtablehnungsbereIch von H,

Ablehnungsbereich
von Ho

Abbildung III 14: Dichtefunktion von V bei korrekter Nullhypothese c)

(4) Entscheidung auf Basis der berechneten Teststattsttk


Anhand des konkreten Wertes v und der Entscheidungsregel (III3: 4) kann letztlich
eine Testentscheidung getroffen werden. Wird die Nullhypothese zum SignifIkanzniveau a abgelehnt, sagen wir, dass der Test zu einem signifikanten Ergebnis gekommen ist. Kann die Nullhypothese nicht verworfen werden, so ist das Testergebnis nicht signifikant. Wie die Ablehnung oder Nichtablehnung zu werten sind,
wurde bereits im Abschnitt III 3.1 unter Punkr 4 behandelt. Eine Ablehnung von H,
bedeutet Besttigung von HA> die Nichtablehnung von H, jedoch keine Besttigung
von Ho'

111 Induktive Statistik

362

Alternativ knnte die Entscheidung ber die Ablehnung oder Nichtablehung von Ho
auch anband des sog. kritischen Anteilswerts PIrrII: erfolgen. Dieser ergibt sich in
den Fllen b) und c) wie folgt:
Fall b): Ablehnung von

Ho, falls v < -ZI-<1

f>a:.t - Po

(IIJ3,5)

a,

Fall c): Ablehnung von ~, falls v > ZH

PkrlI - Po

(III3, 6)

a,

Die NuIlhypothese He wird unter Verwendung dieser kritischen Anteilswerte verworfen, wenn im Fall b) die Bedingung P < PkriI erfllt ist. Im Fall c) muss entsprechend P > PkrIt gelten. Im Fall a) wird (DI3: 5) mit p~ und OII3: 6) mit p~
bezeichnet, wobei an die Stelle von ~_.. jeweils das Fraktil ZI_1I/1 tritt. Eine Ablehnung der Nullhypothese Ho erfolgt dann, wenn p auerhalb des geschlossenen
Intervalls [p~, f>~ 1liegt.
In Fall a) kann die Nullhypothese auch seht einfach mit einem Konjtdenztnlervall
geprft werden. Wie wir aus 0113: 4) wissen, wird He: P - Pe nicht abgelehnt, falls

-Ir-pol

Ivl- -----a:;- :5:

ZI--a/2

etfllt ist. Nehmen wir daran einige Umstellungen vor, erhalten wir:
-ZI_<>I2

P-Po

:s; - - :s; zl_a/2

a,

p - Zl-.J20'P S; Po S; P+ Zl_";20'~

Bit

Dieser Ausdruck entspricht genau dem Konfidenzintervall fr den Anteilswert Po.


Wir knnen daher festhalten, dass He abgelehnt werden kann, wenn der hypothetische Parameterwert Po auerhalb der vorliegenden Realisation dieses Konfidenzintetvalls liegt. Diese alternativen Methoden der Testentscheidung sind jedoch nur
zur Vollstndigkeit und Veranschaulichung des Zusammenhangs zwischen Tests
und Konfidenzmtervallen aufgefhrt. Im Folgenden beschrnken wir uns auf die
Anwendung der Entscheidungsregeln (DI3: 4).

Bel.plellil 3-2

ElnsUchprobentest for den Anmllswert

Ein Fabrikant behauptet, dass eine von ihm gelieferte Ladung eines Massenartikels einen
Ausschussameil p von hchstens 0,10 enthlt. Der Empfnger ist aber der Meinung, dass
der Anteil grOBer ist. Eine von ihm gezogene Stichprobe im Umfang von 100 StOck ergab
13 fehlerhafte Produkte. Kann aufgrund dieser Stichprobe die Behauptung des Ueferanten
bei einem Signifikanzniveau von 0,05 verworfen werden?
(1) Hypothesen und SignifikanzniveBu:
Ho: p:s: 0,10
(2) Teststatistik und deren Verteilung:
Einstichprobentest rur den Ameilswert:

a - 0,05

3. Testen von Hypothesen

V=

~!.N(O;I)'
Po(l-po)

363

falls Ho richtig,danpo(I--j)o);;'9 (hier: 1000,100,90=9)

n
In konkreter Stichprobe:
v=

,'k-O,10 =0,03=1
0,100,90 0,03
100

(3) Entscheidungsregel:
Fall c) liegt vor. --> Ho ablehnen gegenber HA, wenn v > Z,_. gilt.

Dabei ist

z1_a

= Z1_0,06 = ZO.96 = 1,64.

(4) Entscheidung:
Es gilt hier (v= 1) < (Z,_. = 1,64).
Die Nullhypothese kann nicht abgelehnt werden. Es ist damit allerdings nicht verifiziert,
dass der Ausschussanteil in der Lieferung tatschlich hchstens 0,10 betrgt. Es ist
lediglich die Aussage erlaubt, dass das Stichprobenergebnis mit der Behauptung des
Lieferanten "nicht im Widerspruch" steht, eine beobachtete grere Abweichung zwischen P und Po also mglicherweise dem Zufall zuzuschreiben ist.
Grafisch lsst sich dieser Test folgendermaen skizzieren. Der kritische Anteilswert betrgt
dabei POft =PO+Z,-."O =0,10+1,640,03=0,1492.
'N(P)
Ho :pSO,10
HA :p>0,10

(1-,,)=0,95

Po =0,10

Nlchtablehung Ho

0,13

p,Ot = 0,1492

P
)

ZO.95 = 1,64

v = P-Po
"0

Ablehnung Ho

Wenden wir uns nun kurz dem Fall zu, dass sowohl H, als auch HA Punkthypothesen sind. Dabei ist die konkrete Besthnmung der Wahrscheinlichkeit fr den Fehler mglich. Dazu folgendes Beispiel III 3-3.

364

111 Induktive Statistik


Beispiel 111 3-3

Wahrscheinlichkeit des li-Fehlers

Nehmen wir an, die Behauptung des Lieferanten aus Beispiel 111 3-2 wre p = 0,1 und die
des Empfngers, dass der Ausschussanteil in der Lieferung bei genau 0,20 liegt. Es wre
damit bei einem Signifikanzniveau von a = 0,05 die Nullhypothese Ho: p = 0,10 gegenOber
HA: p = 0,20 zu testen.
Sollte HA korrekt sein, ist
-'

OPA

P mit dem Erwartungswert E(p) = PA = 0,20 und der Varianz

p.(I-p.)
n

0,200,80

100

~
-----,

00016

'

OPA

,J00016 004
=.
=,

normalverteilt. Die Wahrscheinlichkeit des li-Fehlers, also die Wahrscheinlichkeit dafr,


dass die falsche Ho nicht abgelehnt wird, lsst sich damit unter Verwendung des zum Signifikanzniveau a berechneten kritischen Anteilswertes Pkri' bestimmen. Ho wird nicht abgelehnt, wenn die Bedingung ps P.. erfllt ist. Es ergibt sich damit
11 =

P(p'; POft) = <I>(Pkrit -P.) = <1>(0,1492-0,20) = <1>(-1,27) = 0,1 020.


0,04

<J.

p,

Die Teststatistik des Einstichprobentests fOr den Anteilswert besitzt bei GOitigkeit von Ho
eine andere Verteilung als bei GOltigkeit von HA. Beide Verteilungen sowie die Bereiche
von a- und li-Fehler sind im Folgenden skizziert:

a=0,05

(l-a) =0,95

Po =0,10

Pk. =0,1492

11=0,1020

P. =0,20
I

Z =

Nichtablehnung Ho

-1,27

Ablehnung Ho

365

3. Testen von Hypothesen

Das Risiko eine korrekte Nullhypothese abzulehnen wird durch IX, das Risiko eine falsche
Nullhypothese nicht abzulehnen durch ausgedrckt. Die Grafik zeigt sehr schn, dass
bei Reduzierung des Signifikanzniveaus IX ceteris paribus zunimmt. Eine gleichzeitige
Verminderung beider Fehlerrisiken ware nur durch eine Erhhung des Stichprobenumfangs n mglich, da dadurch die Varianz des Schtzers sinkt, die in die Berechnung der
Teststatistik eingeht.

3.3.1.2

Einstichprobentest fr den Mittelwert

Da der Einstichprobentest fr den Anteilswert ein Sondertall des Einstichprobentests den Mittelwert ist, ist die Vorgehensweise bei der Testdurchfhrung hnlich.
Wie bereits bei der Bestimmung des Konfidenzintervalls fr den Mittelwert (vgl.
Abschnitt III 2.2), mssen wir jedoch wieder vier Flle hinsichtlich der Verteilung
der Grundgesamtheit und der "Bekanntheit" ihrer Varianz cl unterscheiden. Je nach
Fall, wird eine andere Teststatistilc bzw. Testverteilung herangezogen. Auch die genaue Testbezeichnung ist jeweils anders.
(1) Formulierung einer Nullbypotbese und einer Gegenbypotbese

Es sind fr diesen Test folgende Paare von Hypothesen Ho und HA denkbar:


a) Ho: 11=110
b) Ho: 11 ~ 110

HA: 11*110
HA: 11 < 110

(III3: 7)

Typische Behauptungen, die mit diesem Test untersucht werden knnen, sind also

etwa "Eine Abfllanlage hlt die vorgeschriebene Sollabfllmenge Il. ein." (a), "Das
Durchschnittsgewicht von Mastschweinen konnte durch einen neuen Futterzusatz
auf mindestens Il. gesteigert werden." (b) oder "Das Durchschnittseinkommen liegt
in einem Landkreis bei hchstens Il.." (c).
(2) Ableiten einer Teststatistik V und ibrer Verteilung

Ist die Grundgesamtheit normalvertellt und deren Varianz (5' bekannt, ist die
Zufallsvariable X mit E(X) = 11 und Var(X) = (5/..In (beim Ziehen mit Zurcklegen bzw. beim Ziehen ohne Zurcklegen und n :<;; O,1N) normalverteilt (vgl. Abschnitt III 1.2.2.1). Als Teststatistik V bietet sich daher die Gaustatistilc an. Diese ist
unter der Bedingung, dass H" richtig ist, standardnormalverteilt.
V = X-l1o = X-l1o
O'x

0'

N(O;1)

(III3: 8)

..In

Ist die Grundgesamtheit norma1vertellt, ihre Varianz er' jedoch unbekannt,


verwenden wir als Schtzer fr die Varianz der Grundgesamtheit die Stichprobenvarianz '. Als Teststatistilc V bietet sich daher die t-Statistilc an, welcher eine
t-Verteilung mit w - n - 1 Freiheitsgraden zu Grunde liegt (vgl. Abschnitt III
1.2.2.1), sofern H" richtig ist.
X-110 = ___
X-110
V = ___

....

-x

..In

t(n -1)

(III3: 9)

366

111 Induktive Statistik

Ist die Grundgesamheit beliebig verteilt, der Stichprobenumfang n jedoch ausreichend gro, sind bei bekannter Varianz ci'
X-110 = ___
X-110
V = ___

cr

N(O;1)

(III3: 10)

N(O; 1)

(III3: 11)

..In
bzw. bei unbekannter Varianz

ci'

V = X -110 = X -110

Ox

..In

geeignete Testfunktionen. Nach dem Zentralen Grenzwertsatz sind diese beiden


Testfunktionen fr n > 30 bei zutreffender Nullhypothese Ho hinreichend genau
standardnormalverteilt. Die beim Einstichprobentest fr den Anteilswert verwendete Teststatistik V ist ein Sonderfall von (III3: 10).
Bei Fall (III3: 8) sprechen wir allgemein vom sog. einfachen Gautest. Der Fall
(III3: 9) wird hufig als t-Test bezeichnet. Die Flle (III3: 10) und 0113: 11) sind als
approximative Gautests bekannt. Abbildung III 15 gibt einen zusammenfassenden
berblick.

Gautest

Normalverteilung

N(O;l)-verteilt

X-"r-_o
V= __

cr

a' bekannt

..In

approx. Gautest

belieh. Verteilung
(n > 30)

approx. N(O;1)-verteilt

t-Test

Normalverteilung

t(n-l)-verteilt

X-"
V= __
._r-_o
cr

..In

approx. Gautest
approx. N(O;1)-verteilt

Abbildung III 15: Einstichprobentests den Mittelwert

(3) Aufstellung der Entscheidungsregel ftir die Ablehnung von H,


Fr die Teststatistiken (III3: 8), (III3: 10) und (III3: 11) gilt unter Verwendung der
konkreten Ausprgung v der Teststatistik analog zum Einstichprobentest fr den
Anteilswert
Ho wird gegenber HA abgelehnt
I v I > z'_a/2

a) Ho: 11 = 110' HA : 11;t 110


b) Ho: 11 ~ /10, HA : 11 < 110

falls

v< -z'_a

(III3: 12)

367

3. Testen von Hypothesen

Im Falle von 0113: 9) knnen zur Entscheidung der Ablehnung oder Nichtableh-

nung der Nullhypothese nicht lnger die Fraktile der Standardnonna1verteilung verwendet werden. Stattdessen sind die entsprechenden Fraktile der ebenfalls symmetrischen t-Verteilung mit n - 1 Freiheitsgraden zu verwenden.
Ho wird gegenber HA abgelehnt

lvi> t 1......,2, .._1

a) Ho: J.l = J.lo, HA: J.l #- J.lo


b) Ho: J.l~J.lo, HA: J.l<J.lo

falls

v <-t1_<>,n_l

()D3, 13)

v> t1_<>,n_l

Bei Freiheitsgraden von mehr als 30, kann die t-Verteilung bekanntlich durch die
Standardnormalverteilung approximiert werden (vgl. Abschnitt 11 3.3.2). Es knnen
dann entsprechend deren Fraktile verwendet werden, sodass dann wiederum
0][3, 12) gilt.
(4) Entscheidung auf Basis der berechneten Teststatistik
Die Entscheidungsfindung und Interpretation erfolgt wie bisher. Da bei allen Testverfahren gleich vorgegangen wird, wird der Punkt (4) des Testschemas bei der
theoretischen Besclueibung der nachfolgenden Tests nicht mehr explizit aufgefhrt.

Beispiel 111 34

Einstichprobentest fr den Mittelwert

Eine Stanzmaschine fertigt Metalltelle, deren Flche mit dem Mtnelwert von ~ _ 0,30 cm 2
und einer Standardabweichung von (J - 0,005 crrf- normalverteilt ist. Aufgrund von kQrzlich
an der Maschine durchgefhrten Warlungsarbeiten zweifelt der MaschinenfOhrer nun an
der Genauigkeit der Maschine. Eine Stichprobe Im Umfang von n - 50 ergibt ein
arithmetisches Mittel von x _ 0,302 cm 2 . Zu prOfen ist nun bei einem Signifikanzniveau von
a '" 0,05 und unter der Annahme einer gleichgebliebenen Standardabweichung (J die
Hypothese, dass die Maschine noch exakt arbeitet
(1) Hypothesen und Signifikanzniveau:
HA: J1:1:. 0,30

Ho: ~ - 0,30

a - 0,05

(2) Teststatistik und deren Verteilung:


Einfacher Gautest:
V = X -1-10 _ N(0;1) , da Grundgesamthelt normalverteIlt und Varianz cl bekannt.

Tn
In konkreter Stichprobe:
v

0,3~~~~,30

2,83

TsO
(3) Entsc:heidungsregel:
Fall a) liegt vor.

-+ Ho ablehnen gegenOber HA, wenn lvi>

Dabei ist

= ZI-(1,G5/2 = zOom = 1,96.

ZI-.'2

ZI_,.,,2 gilt.

111 Induktive Statistik

368
(4) Entscheidung:

Es gilt hier (lvi'" 2,83) > (21--<&11

'"

1,96).

Die Nullhypothese kann also abgelehnt werden. Es ist damit bei einem Signifikanzniveau von 5 % statistisch belegt, dass die Maschine nicht exakt (HA) arbeitet.
Die nachfolgende Skizze veranschaulicht den durchgeffihrten Signifikanztest. Die beiden
kritischen Mittelwerte ~ und
wurden darin wie folgt bestimmt:

x.:..

x:!. = Ilo -21-110',; =O,30-1,96'~ = 0,2986


,50

x:" = Ilo

+Z1-",,20'j(

= O,30+1,96'~ = 0,3014
,50

HD :11=0,30

HA :11:;1:0.30

~=0025
2 '
x~

=0.2986

-zo.m. = -1. 96

110 =0,30

'

x:.. =0,3014
2 0.,711 = 1,96

v- X-J1o

a,

Ablehnung Ho

Ablehnung Ho

Bit

~=0025

(1-a)=O,95

Bel.plellil 3-5

Einstichprobentest fUr den Mittelwert

Ein Bauer zchtet Mastschweine deren Gewicht mit einem Sollwert von J1 = 110 kg normalverteill ist. Er setzt seit einiger Zeit einen Futterzusatz ein, der gewichtssteigemd
wirken soll. Eine Stichprobe im Umfang von n = 10 liefert nun ein DurchschniHsgewicht von
x _ 117 kg bei einer Standardabweichung von cl _ 7 kg. Kann man aufgrund dieser
Stichprobe auf einem Signifikanzniveau von a '" 0,01 schlieen, dass sich das Durchschnittsgewicht in der Grundgesamtheit emOht hat?
(1) Hypothesen und Signifikanzniveau:
Ho:~~110

HA:~>110

a - 0,01

3. Testen von Hypothesen

369

(2) Teststatistik und deren Verteilung:


t-Test:

fn

V = X -:: 110 _ t(n -I} , da Grundgesamtheit normalverteilt, Varianz cl unbekannt


und (n-l) < 30.
In konkreter Stichprobe:

v=

117-110
7

3,16

.J1O
(3) Entscheidungsregel:
Fall c} liegt vor. --+ Ho ablehnen gegenber HA, wenn v > t,_0 ,-1 gilt.

Dabei ist t1- a ,n-1 =t1- 0,01;10-1 =t o,IIi;9 =2,82.


(4) Entscheidung:
Es gilt hier (v = 3,16) > (t,_.. ,-1 = 2,82).
Ho kann abgelehnt werden. Es lsst sich also statistisch nachweisen, dass der Futterzusatz das Durchschnittsgewicht der Mastschweine erhht hat.

3.3.1.3

Statistische Qualittskontrolle

In der Praxis kann der Einstichprobentest fr den Mittelwert dazu verwendet werden, kritische Verlufe in Produktionsprozessen zu identifizieren. Man nimmt dazu

zunchst an, dass die gefertigten Werkstcke bzgl. eines Merkmals X (z.B. Fll-

menge) mit Erwartungswert J.L und Varianz

(l

nonnalverteilt sind. Man entnimmt

dann in regelmigen Zeitabstnden Stichproben im Umfang von 5 bis 10 Stck


und testet fr jede dieser Stichproben die Hypothese, dass ein bestimmter Sollwert
Il. eingehalten wird (H,: 11 = Il. gegen HA: 11 ># 11,). Diese Hypothese wird sowohl
zum Signifikanzniveau a = 0,01 als auch zu a = 0,05 getestet.
Der Test erfolgt dabei implizit. Wie wir wissen, ist Ho bei einem zweiseitigen Gau-

test bei Vorliegen einer konkreten Stichprobe nicht abzulehnen wenn

_2 1-a.12
-

_x-O'xl1o

V -

)<

- 2 1-a.12

gilt. Durch Umstellung erhalten wir daraus folgendes Intervall, welches fr die Testentscheidung benutzt wird:
J.Lo - zl_a/2O'x S X S J.lo

Fr a

+ zl_a/2(Jx

0,01 ergibt sich das Intervall

flo - 2,5760. OS; x OS; 110 + 2,5760. '


obere~

aus dem man die sog. Kontrollgrenzen gewinnt. Liegt der in der Stichprobe festgestellte Mittelwert x auerhalb dieses Intervalls, ist die Nullhypothese H, bei einem Signifikanzniveau von a = 0,01 abzulehnen. Ist dies der Fall, wird die Produktion sofort gestoppt und eine Maschinenberptfung vorgenommen.

111 Induktive Statistik

370

--

Fr IX - 0,05 erhlt man das Intervall

J.l. o -1, 960'x S i S J.1o

welches die sog. Warngrenun liefert. wrrd

+ 1, 96ax, ,

Ha niebt zu

IX - 0,01, sondern anhand

dieses Intervalls zu einem Signifikanzniveau von IX - 0,05 abgelehnt, wird sofort


eine weitere Stichprobe entnommen. Wird Ha zu IX - 0,05 dann nicht mehr verworfen, lsst man die Produktion weiterlaufen, andernfalls stoppt man die Produktion.

Zur einfachen praktischen Arbeit mit dieser Methode werden die so definierten
Wam- und Kontro11grenzen einmal mit den Daten der Verteilung der Grundgesamtheit berechnet und in eine itbe:rwachuogsgrafik (vgL Abbildung III 16) eingetragen. In diese werden auch die Mittelwerte der einzelnen Stichproben aufgenommen. Man sieht so relativ schnell, wann weitere Stichproben zu entnehmen
sind, und wann die Produktion angehalten werden sollte. So ist in der untenstehenden Abbildung TI! 15 z.B. bei Stichprobe a eine weitere Stichprobe zu ziehen
und nach Stichprobe b die Produktion anzuhalten.
x
~-----------------------------------obereKontroll~e

------- - - - - - - - - - - - - - - - - - - - - - -------------- obere Warngrenze


~~~~~~~~~,,-------------- Sollwert

untere Wamgrenze
~------------------------------~---

untere Kontrol1grenze
Sticbprobennumrner

AbbUdung III 16: berwachungsgrafik zur statistischen Qualittskontrolle


3.3.1.4

Einstichprobentellt ft1r die Variam:

Hypothesen hinsichtlich der unbekaIUlten Varianz ti einer normalverteaten Grundgesamtheit knnen mit Einstichprobentests fr die Varianz untersucht werden. Aufgrund der VerteUung der dabei verwendeten Teststatistik bezeichnen wir diese
auch als Cht-Quadrat-TestsJardte Varianz. Man geht dabei wie folgt vor:
(1) Formulierung einer NuUhypothese und einer Gegenbypotbese:

Die Null- und Gegenhypothesen haben die folgende gewohnte Fonn:

er =a~
b) Ho: er ~a!

a) Ho:

c)

Ho:er~a!

er *a~
HA: er <~
HA: er >~
HA:

(1][3, 14)

371

3. Testen von Hypothesen

(2) Ableiten etner TeststaUsUk V und Ibrer Verteilung


Wie wir unter ID 1.2.4 gesehen haben, folgt die Gre B = (n -I)~ / ci bei normalvertelJter Grundgesamthett einer Chi-Quadrat-Verteilung mit (n - 1) Freiheitsgraden. Fr Tests, die sich auf die Varianz beziehen, kann diese Gre als Teststatisik verwendet werden. Sofern Ho richtig ist, gilt also

(n _1)6"2

a:

tio

~(XI -X)

,
X (n-I).

l-J.

Die Stichprobenvarlanz tI ist ein erwartungstreuer und konsistenter Schtzer fr


die unbekannte Varianz cl der Grundgesamtheit. Es sprechen somit kleine Werte
von V fr es' < CJo' und groe Werte von V fr es' > CJo'.
0113: 15) wird nur bei unbekanntem J.1 der Grundgesamtheit verwendet. Ist J.1 bekannt, soUte folgende Gre verwendet werden, die bei korrekter Nullhypothese
Ho dann mit n Freiheitsgraden Chi-Quadrat-verteilt ist.
V=-

L (X, -~)'

1 "

tio

x'(n)

(ill3, 16)

I_I

Bei nlcbt normalverteller Grundgesamtbeli ist das Verfahren des Chi-Quadrat-Tests


selbst bei hohem Stichprobenumfang n nicht generell anwendbar. Die Grundgesamtheit sollte zumindest approximativ normalverteilt sein und zustzlich ein Stichprobenumfang von ber 100 vorliegen.
(3) AufsteUung der Entscbeidungsregelfr die Ablehnung von Ho

Da die Chi-Quadrat-Verteilung keine symmetrische Verteilung ist, sind bei diesem


Test andere als die bisher behandelten Ent5cheidungsregeln fr symmetrisch verteilte Teststatistlken zu definieren. Es gilt bei unbekanntem p:
Ho wird abgelehnt gegenber HA

er = tio, HA: CJ' *" ~


b) Ho: er ; : cfo, HA: er < ~

a) Ho:

c) Ho:

ri

S;

s: v < X!;2,n-l) U (v > X~_II/~. n-t)


0 s: v < X!. n-l

(0

falls

cfo, HA: ri > CJ~

v> XI-II,n-1

Bei den t-Werten handelt es sich dabei jeweils um Fraktile einer Chi-QuadratVerteilung mit (n - 1) Freiheitsgraden. Ist p bekannt, sind die entsprechenden FraktUe einer Chi-Quadrat-Verteilung mit n Freiheitsgraden zu verwenden.

Boloplollil 36

Einstichprobentest fr die Varianz

Die Varianz der nonnalverteilten Lebensdauer eines bestimmten Motorentyps lag in der
Vergangenheit bei rI - 2,5 Jahren2 Nach EinfOhrung eines nauen Produktionsverfahrens
behauptet ein Mitarbeiter, dass sich dadurch die Varianz der Lebensdauer verringert hat.
Lsst sich diese Hypothese anhand einer Stichprobe im Umfang von n '" 25, die eine Varianz von (t"l. 2,3 Jahren2 lieferte, bei einem Signifikanzniveau von a 0,10 statistisch
nachweisen?
(1) Hypothesen und Signifikanzniveau:

Ho: rI ~ 2,5

HA: rI < 2,5

a - O,10

372

111 Induktive Statistik


(2) Teststatistik und deren Verteilung:
Chi-Quadrat-Test /Ur die Varianz:
V = (n -I)&'

a:

x'(n -I) , da Grundgesamtheit normalverteilt und I! unbekannt.

In konkreter Stichprobe:
v = 242,3 = 22 08
2,5
'
(3) Entscheidungsregel:
Fall b) liegt vor. --> Ho ablehnen gegenOber HA, wenn 0 Sv< x~. "-1 gilt.
Dabei ist

X:,n-1 =X~,10:24 =15,66.

(4) Entscheidung:
Hier fllt v = 22,08 nicht in das Intervall 0 ,; v < 15,66.
Ho kann nicht abgelehnt werden. Es lsst sich also nicht statistisch nachweisen, dass
das neue Produktionsverfahren die Varianz der Grundgesamtheit verringert hat.
Grafisch kann dieser Test bzw. die Dichte der nicht symmetrischen Chi-Quadrat-Verteilung
folgendermaen skizziert werden:

Ho : ci' ;, 2,50
H.:ci'<2,50

a=O,IO

X~,10: 24 = 15,66

Ablehnung Ho

3.3_2

(I-a) = 0,90

22,08

v = ,,(n'----';lCC)cl'--'

a;

Nlchtablehung Ho

Zweistichprobentests

Bisher haben wir im Rahmen der Einstichprobentests ein Untersuchungsmerkmal


aufgrund einer einfachen Stichprobe analysiert. Bei Zweistichprobentests werden
nun aufgrund zweier unabhngiger einfacher Zufallsstichproben zwei Verteilungen
bzw. deren Parameter verglichen. So vergleicht man in solchen Tests beispielsweise

3. Testen von Hypothesen

373

das durchschnittliche Einkommen in verschiedenen Gruppen oder den Lernetfolg


zweier Lehnnethoden. Ein solcher Test kann also angewendet werden, wenn
a) zwei Grnndgesamtheiten auf ein gemeinsames Merkmal hin untersucht werden.
(Bsp.: Einkommensstichproben aus einer Gruppe Frauen und einer Gruppe
Mnner)
b) aus einer Grnndgesamtheit zwei unabhngige Stichproben gezogen werden.
(Bsp: Aus der Grundgesamtheit von Schlern wird eine einfache Stichprobe
vom Umfang n rein zufllig auf zwei Gruppen mit unterschiedlichen Lehrmethoden aufgeteilt und die Leistungen jeder Gruppe untersucht.)
3.3.2.1

Vergleich zweier Mittelwerte

Liegen aus zwei unabhngigen Stichproben der Umfnge '" und n, die Stichprobenmittel x, und x, und damit auch deren Differenz d = x, - x, vor, knnen anhand dieser Stichprobenergebttlsse Hypothesen hinsichtlich der Differenz I!, - 11,
der Mittelwerte zweier Grundgesamtheiten untersucht werden. Man bedient sich
dazu des folgenden Testvetfahrens:
(1) Formuliernng einer Nullhypothese und einer Gegenhypothese

Die Hypothesen entsprechen bei diesem Test dem Schema ([[[3: 18). Mit einer Ablehnung der Nullhypothese im Fall a) lsst sich statistisch zeigen, dass die Differenz
der Mittelwerte in der Grundgesamtheit von Null verschieden ist (I!, - 11, * 0). Im
Fall b) kann bei Ablehnung von Ho eine negative Differenz CI!, - 11, < 0), im Fall c)
eine positive Differenz CI!, - 11, > 0) nachgewiesen werden.
a) Ho: J.l, =J.l,

H.:J.l,*J.l,

b) Ho: J.l, ;"J.l,

H.:J.l,<J.l,

c) Ho: J.l,

H.:J.l,>J.l,

~J.l,

([[[3: 18)

(2) Ableiten einer TeststatistIk V und Ihrer Verteilung


Da es sich bei den Stichprobenmitteln X, und X, um erwartungstreue Schtzer fr
J.l, und 11, handelt, ist die Differenz 0 = X, - X, zur berprfung der Hypothesen
([[[3: 18) geignet. Ist x, deudich grer als x, bzw. deutlich kleiner als x" ist zu
vermuten, dass I!, > 11, bzw. I!, < 11, gilt. Werte fr d = x, - x" die nahe Null liegen, sprechen fr I!, = 11,. Wieder mssen wir bei der Wahl der genauen Teststatistik die Verteilungsform der Grundgesamtheiten, sowie die Bekanntheit oder
Unbekanntheit ihrer Varianzen
und cr; bercksichtigen.

0:

Sind die beiden Grundgesamtheiten mit den Erwartungswerten I!, und 11, und
den Varianzen
und
nonna1verteilt und sind die Varianzen bekannt und
ungleich
*
verwenden wir (beim Ziehen mit Zurcklegen bzw. Ziehen
ohne Zurcklegen und n ~ O,1N) die bei korrekter Nullhypothese standardnormalverteilte Teststatistik

0:

(er, er,).

0:

N(O;1).

([[[3: 19)

111 Induktive Statistik

374

Wir sprechen bei Verwendung von (III3: 19) und Vorliegen der genannten Voraussetzungen auch von einem sog. Zweistlchproben-Gautest1 Sind die ungleichen
Varianzen
und
unbekannt, knnen diese durch Cf, und Cf, geschtzt
werden. Dadurch ergibt sich die Teststatistik

er,

er,

Xl -X 2
a~

01

n2

(III3: 20)

-+Die exakte Verteilung dieser Statistik unter Gltigkeit von Ho hngt allerdings von
und
ab und ist somit ebenso wie die beiden Varianzen unbekannt. Die Varianzen erweisen sich in diesem Zusammenhang als sog. strende Parameter, die
die Herleitung eines exakten Tests fr kleine Stichproben verhindern. Dieses Problem ist in der statistischen Literatur auch als Behrens-Fisher-Problem bekannt. 2

er,

er,

Eine Nherungslsung der Problematik fr kleine Stichproben ermglicht der


Welch-Test3 Es lsst sich nmlich zeigen, dass die Verteilung von (III3: 20) unter Ho
durch eine t-Verteilung mit Freiheitsgraden in Hhe von
(1 + Q)'

Q'

n 1 -1

n 2 -1

(III3: 21)

mit

--+-hinreichend approxintiert werden kann. Diese Verteilungsapproximation ermglicht


bei kleinen Stichprobenumfngen einen approximativen Test. Der Quotient zur Ermittlung der Freiheitsgrade ist i.d.R. nicht ganzzahlig. Wird der Welch-Test mit Hilfe
der blichen Quantil-Tabellen der t-Verteilung durchgefhrt, muss der Quotient
daher abgerundet werden.
Sind die betrachteten Grundgesamtheiten beliebig verteilt, wird bei n, > 30 und
n, > 30 sowie bekannten Varianzen
und
die aufgrund des Zentralen
Grenzwertsatzes approximativ standardnormalverteilte Teststatistik

a:

V=

Xl -X2

er, er,
-+01

.!.

er,

N(O;1)

(III3: 22)

n2

er,

verwendet 4 Bei unbekannten Varianzen ersetzen wir in (III3: 22)


und a~
durch : und ~. Auch hier sprechen wir von approximativen ZweistlchprobenGautests. Der Test fr den Vergleich zweier Anteilswerte stellt einen bedeutenden

1 Neben diesem Test, der von unterschiedlichen Varianzen der Grundgesamtheiten ausgeht,
existiert in der Literatur der sog. Zweistichproben-t-Test. Dieser spielt jedoch aufgrund seiner restriktiven Voraussetzungen (nonnalverteilte Grundgesamtheiten, gleiche Varianzen)

in der Praxis kaum eine Rolle und wird deshalb hier nicht behandelt. Interessierte fmden
eine Beschreibung des Tests in Bleymller et a1. (2004), Kapitel 17.
2 Fr Details hierzu vgl. z.B. Scheffe (1970).
3 Vg1. dazu Welch (1936, 1938).
4 Im Fall von ~ < 30 und n1 < 30 bietet sich die Verwendung des Rangsummentests von
Wilcoxon an. Vgl. dazu z.B. Bning und Trenkler (1998).

3. Testen von Hypothesen

375

Sonderfall des letztgenannten approximativen Zweistichproben-Gautests dar und


wird im Abschnitt III 3.3.2.2. separat behandelt.
(3) Aufstellung der Entscheidungsregel /Ur die Ahlehnung von H,

Da die Teststatistiken der dargestellten Zweistichprobentests fr den Mittelwert (abgesehen vom Welch-Test) einer Standardnormalverteilung folgen, gehen wir bei
der Entscheidung ber die Ablehnung oder Nichtablehnung von Ho folgendermaen vor:
Ho wird gegenber HA abgelehnt
a)

H O:).11

= ).12'

I V I> ZI_a12

HA: J.11 -::f. J.12

b) Ho: 11,;:' 112, HA: 11, < lLz

falls

J.ll:S;: J.l:.;p HA: J.ll > J.l2

c) Ho:

Beispiel 111 3-7

v< -z'_a

(III3: 24)

v> Zl_a
Approximativer Zweistichproben-Gautest

Zwei Gruppen von zufllig ausgewhlten Studenten (Gruppe 1: n, = 55, Gruppe 2: n2 = 60)
wird eine Testklausur gestellt. Die durchschnittlichen Punkte und die dazu gehrigen Standardabweichungen betragen in Gruppe 1
= 50 und 0-, = 5 und in Gruppe 2 2 = 54
und 0-2 = 4. Bei einem Signifikanzniveau von a = 0,05 soll getestet werden, ob ein signifikanter Unterschied zwischen den Klausurergebnissen der beiden Studentengruppen besteht.

x,

(1) Hypothesen und Signifikanzniveau:


Ho: 111 = /12

HA: 111

* /12

a = 0,05

(2) Teststatistik und deren Verteilung:

Approximativer Zweistichproben-Gautest
V=

X, - )(,

~ + 0-:

"1 "2

! N(O;I), da Grundgesamtheit beliebig verteilt,


n, und n2 > 30.

.,~

u. .,: unbekannt,

In konkreter Stichprobe:
v= 50-54 = -4 =-471
5' 4'
0,85
'

-+55

60

(3) Entscheidungsregel:
Fall a) liegt vor. --> Ho ablehnen gegenOber HA, wenn lvi> Z,_.12 gilt.

Dabei ist

z1_a/2

= ZO.975 = 1,96.

(4) Entscheidung:
Es gilt hier (lvi = 4,71) > (Z,_oI' = 1,96).
Die Nullhypothese kann abgelehnt werden. Es lsst sich damit statistisch nachweisen,
dass ein signifikanter Unterschied zwischen den Leistungen beider Gruppen besteht.

111 Induktive Statistik

376
3.3.2.2

Vergleich zweier Anteilswerte

Als Sonderfall von (III3: 22) mit geschtzten Varianzen wollen wir nun den Test fr
den Vergleich zweier Anteilswerte p, und p, betrachten. Auch er wird als approximativer Zweisticbproben-Gautest bezeichnet, da die Grundgesamtheit nicht normal-, sondern binomialverteilt ist. Es empfiehlt sich dabei folgendes Vorgehen:
(1) Formulterung einer Nullbypotbese und einer Gegenbypotbese

Die Hypothesenpaare dieses Tests sind folgendermaen aufgebaut:


a) Ho: p, = P2

HA: p, .. P2

b) Ho: p, '" p,

HA: p, <P2

c) Ho: p, ~ p,

HA: p, >p,

(III3: 25)

(2) Ableiten einer Teststatistik V und Ibrer Verteilung


und
der Grundgesamtheiten sind hier unbekannt, da die
Die Varianzen
Anteilswerte p, und p, der Grundgesamtheiten unbekannt sind. Die Teststatistik
(III3: 26) kann als approximativ standardnormalverteilt angenommen werden,
wenn n,p,(l-p,) '" 9 und n,p,(l-p,) '" 9 gilt.

er,

er,

= r~==~Pb'=-=,P=,'~==~

N(O;l)

p,(l- p,) + p,(l- p,)

(III3: 26)

Da die Werte p, und p, nicht bekannt sind, sind sie sowohl zur Prfung der
Approximationsbedingungen, als auch zur Berechnung von (III3: 26) mit den erwartungstreuen Schtzern PI und [>2 zu schtzen.
Wird die Nullhypothese a) berprft, ist bei Gltigkeit von H, der Zusammenhang
p, - p, - p erfllt und die Teststatistik (III3: 26) vereinfacht sich zu
.!.

Neo; 1) .

(III3: 27)

Der unbekannte Parameter p wird dabei ber den Schtzer (III3: 28) bestimmt:
(III3: 28)
(3) Aufstellung der Entscbeidungsregeljr die Ablebnung von H,

Da den Teststatistiken die Standardnormalverteilung zugrunde liegt, gilt


Ho wird gegenber HA abgelehnt
a) Ho: Pl = P2' HA: Pl

'* P2

b) Ho: Pl ~ P2' HA: Pl < P2

c) Ho: p, ~ p" HA: p, > P2

I V I> Zl_a/2

falls

v< -zl_a

(III3: 29)

377

3. Testen von Hypothesen


Beispiel 111 3-8

Approximativer Zweistichproben-Gautest

In zwei Grostdten werden je n, = n, = 500 Personen hinsichtlich ihres Jahreseinkommens befragt. Es ergibt sich dabei, dass in Stadt A ein Anteil von p, = 0,05 und in Stadt B
ein Anteil von p, = 0,03 der Befragten unter der Armutsgrenze lebt. Lsst sich anhand
dieser Stichprobe bei einem Signifikanzniveau von <X = 0,05 widerlegen, dass der Anteil
der armen Bevlkerung in beiden Stdten gleich ist?
(I) Hypothesen und Signifikanzniveau:
Ho: p, = p,

<x= 0,05

(2) Teststatistik und deren Verteilung:


Approximativer Zweistichproben-Gautest:
V=

p, -~p, N(O;I}, da n,p,(I-p,} ;, 9 und n,p,(I-p,}.;' 9.


n +n
~.-'--':==~
~p(l_ p} "L'..".<
":75
'4:" .
n1n2

In konkreter Stichprobe:

p= n1"1 + n2P2

5000,05+5000,03
500+500

n1 +n2

--;;;.~0~,0~5;--I10,~03~500

v= '004.096 500+500
.. '
,
500500

0,04

0,02
0,200,06

1,67

(3) Entscheidungsregel:
Fall a} liegt vor. --> Ho ablehnen gegenOber HA, wenn lvi> z'_o" gilt.

Dabei ist

z1_a/2

ZO.975

= 1, 96.

(4) Entscheidung:
Es gilt hier (lvi = 1,67) < (z,_"" = I ,96).
Die Nullhypothese kann nicht abgelehnt werden. Es lsst sich also anhand dieser
Stichprobe nicht widerlegen, dass der Anteil der armen Bevlkerung in beiden Stdten
gleich ist.

3.3.2.3

Vergleich zweier Varianzen

Dieser Test, welcher aufgrund der Verteilung der Teststatistik auch als Zweistichproben-F-Test bezeichnet wird, dient der berprfung von Hypothesen bezglich
der unbekannten Varianzen er, und er, zweier Grundgesamtheiten. Normalverteilte
Grundgesamtheiten sind dabei zwingende Voraussetzung fr die Testanwendung.
(1) Formulterung einer Nullhypothese und einer Gegenhypothese

Hinsichtlich der unbekannten Varianzen werden folgende Flle untersucht:


a) Ho: a~ =a~

HA:a~*a~

b)

Ho:

HA:a~<a~

c)

Ho:

0: er,
0: Ser,
~

HA:a~>a~

(III3: 30)

378

111 Induktive Statistik

(2) Ableiten einer Teststatistik V und ibrer Verteilung


Wie wir in Abschnitt III 1.2.5.3 gesehen haben, ist die Zufallsvariable
F=

Cf, / cf,
Cf,/cf,

bei normalverteilten Grundgesamtheiten mit u = (n, - 1) und w = (n, - 1) Freiheitsgraden F-verteilt. Im Fall einer korrekten Nullhypothese (cf, = <f,) ist somit
auch die folgende Teststatistik V mit eben jenen Freiheitsgraden F-verteilt.

-,

V= ~:

0,

F(n, -I,n,-1)

(III3: 31)

V ist als Teststatistik fr (III3: 30) geeigoet, da ein hoher bzw. niedriger Wert der
Statistik fr cf, > <f, bzw. fr
< <f, spricht.

0:

(3) Aufstellung der Entscbeidungsregel fr die Ablebnung von H,

Da die F-Verteilung keine symmetrische Verteilung ist, sind fr diesen Test die
scheidungsregel wieder etwas zu modifizieren. Verwenden wir die Fraktile
f'_a/2 , fa und f'_a der F(n, - I, n, - 1)-Verteilung, ergeben sich folgende
scheidungsregeln:

Entfa/2'
Ent-

Ho wird abgelehnt gegenber HA

a) Ho:
b) Ho:

0: = 0:,
0: ;" <f"

HA:
HA:

cf,

* <f,

(O:S; v < fa/2) U (v > f,_a/2)

0: < <f,

O:S; v < fa

falls

(III3: 32)

Fr die Fraktile der F-Verteilung ist in diesem Zusammenhang zu beachten, dass


1

und

Auf die Voraussetzung der Normalverteilung kann bei diesem Test auch bei groem Stichprobenumfang nicht verzichtet werden, da ansonsten das Testverfahren

das vorgegebene Sigoifikanzniveau

(l

nicht einhlt.

Beispiel 111 3-9

Zweistichproben-F-Test

Lsst sich bei einem vorgegebenen Signifikanzniveau von (l = 0,05 anhand zweier Stichproben (aus zwei normalverteilten Grundgesamtheiten), die bei Umfngen von n, = 21 und
n, = 11 Standardabweichungen von , = 480 Euro und , = 430 Euro liefern, statistisch
nachweisen, dass die Gehlter der Angestellten in einem Unternehmen Nr. 1 strker
streuen als in einem Unternehmen Nr. 2?
(1) Hypothesen und Signifikanzniveau:
(l

(2) Teststatistik und deren Verteilung:


Zweistichproben-F-Test:

= 0,05

3. Testen von Hypothesen

v= ~

,-

379

F(n, -l,n, -1), da Grundgesamtheit normalverteilt.

In konkreter Stichprobe:
v= 480' =125
430'
'
(3) Entscheidungsregel:
Fall c) liegt vor. --> Ho ablehnen gegenber HA, wenn v > "_0, ,-1, 0,-1 gilt.

Dabei ist ' 1_a. n,-1, n2 -1, = '0,\15; 20; 10 = 2,77.


(4) Entscheidung:
Es gilt hier (v = 1,25) < (1'-0, ,-1, ..,-1 = 2,77).
Die Nullhypothese kann nicht abgelehnt werden, Es lsst sich anhand dieser Stichprobe nicht nachweisen, dass die Streuung der Gehlter im Unternehmen A grer ist.

3.3.3

Parametertests bei verbundenen Stichproben

Bei den bisher behandelten Zweistichprobentests waren die Beobachtungen einer


Stichprobe stets unabhngig von denen der anderen Stichprobe, d.h. es lagen unabhngige (unvemundene) Stichproben vor. Diese Unabhngigkeit wird meist
dadurch gewhrleistet, dass die Stichproben aus unterschiedlichen Grundgesamtheiten gezogen werden.
Abhngige (verbundene) Stichproben liegen vor, wenn die Beobachtungen der
einen Stichprobe von denen der anderen abhngen. Konkret spricht man etwa von
verbundenen Stichproben, wenn die Merkmalsausprgungen der ersten Stichprobe
und die der zweiten Stichprobe jeweils an denselben Merkmalstrgern erhoben
werden.
Verbundene Stichproben mssen aber nicht zwingend am selben Merkmalstrger
erhoben werden. Sie knnen Z.B. auch an Zwillings- oder Geschwisterpaaren oder
an den Hlften von aufgeteilten Feldern durchgefhrt werden. Gerade das letztgenannte Beispiel lsst einen klaren Vorteil verbundener Stichproben verdeutlichen.
Bringt man etwa bei einer verbundenen Stichprobe Dngemittel, deren ertragssteigernde Wirkung untersucht werden soll, auf denselben Feldern (z.B. je zur Hlfte) auf, knnen keine zufaIligen Unterschiede bei der Ackerqualitt das Untersuchungsergebnis beeintrchtigen, wie es bei einer unverbundenen Stichprobe der
Fall sein knnte. Die individuellen Unterschiede der Merkmalstrger werden also

bei verbundenen Stichproben faktisch ausgeschaltet. 5 Es ist allerdings nicht inuner


mglich, verbundene Stichproben zu erheben. Untersucht man etwa die Wirkung
zweier Arzneimittel an einer kranken Person, macht es nach Heilung durch das erste Medikament keinen Sinn mehr, auch noch das zweite zu verabreichen.

5 Zur Efftzienz verbundener und unverbundener Stichproben vgl. Pfanzagl (991).

111 Induktive Statistik

380

Im Folgenden beschftigen wir uns nher mit zwei typischen Vertretern dieser

Testklasse, dem sog. Differenzentest eZweistichprobentest fr die Differenz zweier

Mittelwerte bei verbundenen Stichproben) und dem Korrelationstest.


3.3.3.1

DilJerenzentest

Beim Differenzentest handelt es sich um eine Anwendung des Einstichproben-tTests bzw. des approximativen Einstichproben-Gautests auf Differenzen von Stichprobenvariablen. Die Vorgehensweisen sind daher eng miteinander verwandt.
(1) Formulierung einer Nullhypothese und einer Gegenhypothese

Nehmen wir an, es liegt eine Grundgesamtheit vor, die bezglich zweier Untersuchungsmerkmale X, und X, die Erwartungswerte !1, und Il, besitzt, so besteht
zwischen diesen Erwartungswerten die Differenz B = III - ~. Die Hypothesen dieses Testverfahrens beziehen sich nun genau auf diese unbekannte Differenz der
Grundgesamtheit. Wir interessieren uns im Speziellen dafr, ob mittels des Ergebnisses verbundenener Stichproben festgestellt werden kann, ob diese ungleich,

grer oder kleiner als Null ist. Ist beispielsweise eine positive (negative) Differenz
statistisch nachweisbar, so bedeutet dies Il, > IJ., (Il, < IJ.,). Es sind somit folgende
Hypothesenpaare denkbar:
a) Ho: 3=0
b) Ho: 3 ~ 0
c) Ho: 3,.,0

HA: 3;<0
HA: 3< 0

([[[3: 33)

(2) Ableiten einer Teststatistik V und ihrer Verteilung


Wird eine verbundene Stichprobe im Umfang von n gezogen, erfassen wir fr jeden Merkmalstrger Ci = 1, ... , n) die Ausprgungen x" und x. der Zufallsvariablen
X" und
Wir wollen diese Zufallsvatiablen im Folgenden als normalverteilt annehmen. Ihre Erwartungswerte sind E(X,) = Il, und E(X,) = Il,. Damit stellen die
Differenzen D, = X. - x" ebenfalls nonnalverteilte Zufallsvariablen dar. Sie messen
fr jedes untersuchte Objekt aus der Grundgesamtheit die Differenz der beiden
Merktnalsausprgungen. Fr ihre Erwartungswerte gilt

x..

E(D) = E(X,) - E(X,) = IJ., -!1, = 3.


Fr die Varianz schreiben wir
Var(D,) = 0;.
Das arithmetische Mittel der n Differenzen D, ist definiert als

D=~~D
.t... ,.
n

([[[3: 34)

1...1

Auch D ist aufgrund der Reproduktionseigenschaft der Nonnalverteilung (beim


Ziehen mit Zurcklegen bzw. Ziehen ohne Zurcklegen und n ,., O,lN) mit folgenden Parametern normalverteilt:
E(D) = 3
([[[3: 35)
0'
Var(D)=~ =~
D

([[[3: 36)

3. Testen von Hypothesen

38t

Da die Varianz der Differenzen CJ~ unbekannt ist, muss sie geschtzt werden. Es
bietet sich dafr der Schtzer

a;, =_l_:tCD1-)'
n-l

0113: 37)

10:1

an. Wir erhalten damit eine geeignete Teststatistik, die aufgrund der geschtzten
Varianz bei korrekter Nullhypothese und normalverteilter Grundgesamtheit
einer t-Verteilung mit (n - 1) Freiheitsgraden folgt:
D
V=- -

t(n-1)

an

0113: 38)

Sollte die Grundgesamtheit beliebig verteilt sein, kann bei erfllter Bedingung
n > 30 ebenfalls die Teststatistik (III3: 38) verwendet werden. Diese ist dann jedoch
bei korrekter Nullhypothese approximativ standardnormalverteilt6
(3) Aufstellung der Entscbeidungsregel fr die Ablebnung von H,

Je nach zugrunde liegender Verteilung der Teststatistik V sind folgende Entscheidungsregeln zu beachten:
Ho wird gegenber HA abgelehnt
a) Ho: =O, HA: "O
falls

b)Ho:~O,HA:<O

c) Ho: ~O, HA: >O

N(O;l)

t(n -1)

I v I > Zl_u/2

I v I > t1_C&/2, n-l

v< -Zl_a

v> Zl_1l

V> t1-a,n-l

(III3: 39)

< -tl_a, n-l

Beispiel 111 3-10

Differenzenlest

Um den Einfluss der Bereifung auf den Spritverbrauch von Pkws zu untersuchen, wurden
10 Fahrzeuge zunchst mit Reifensorte A bestck! und der Spritverbrauch auf 100 km gemessen. Auf dieselben Fahrzeuge wurden dann die Reifen der Sorte B aufgezogen und
erneut der Spritverbrauch gemessen. Es ergab sich dabei (Liter je 100 km):

10

Verbrauch bei A

8,7

8,9

8,3

9,1

7,9

10,3

8,6

9,0

7,3

7,9

Verbrauch bei B

8,5

9,2

9,9

9,8

8,0

11,2

9,1

8,9

7,5

8,8

Pkw i

456

Lsst sich damit bei einem Signifikanzniveau von a = 0,05 und angenommener Normalverteilung der Grundgesamtheit statistisch nachweisen, dass der Spritverbrauch bei Verwendung von Reifensorte B hher ist als bei Verwendung von Sorte A?
(1) Hypothesen und Signifikanzniveau:

Ho: 11 ,; 0

HA: 11 > 0

a = 0,05

wobei 11 = l1B - l1A

(2) Teststatistik und deren Verteilung:


Einstichproben-t-Test als Differenzentest:

6 Im Fall von n < 30 bietet sich die Verwendung des Vorzeichen-Rangtests von Wilcoxon an.
Vgl. dazu z.B. Bning und Trenkler (1998).

382

111 Induktive Statistik

v=~ -

"0

t(n - t), da Grundgesamtheit normalverteilt und Varianz

,,~

unbekannt.

.Jn
Um die konkrete Ausprgung v in der Stichprobe zu bestimmen, sind zunchst einige
Berechnungen erforderlich:
XAi

t
2
3
4
5
6
7
8
9
10

8,7
8,9
8,3
9,1
7,9
10,3
8,6
9,0
7,3
7,9

XBi

8,5
9,2
9,9
9,8
8,0
11,2
9,1
8,9
7,5
8,8

di = XBi - XAi

d'I
0,04
0,09
2,56
0,49
0,01
0,81
0,25
0,01
0,04
0,81
5,11

--{),2
0,3
1,6
0,7
0,1
0,9
0,5
--{),1
0,2
0,9
4,9

Es ergibt sich daraus


1
- l'
d =- Ld, =-4,9 =0,49 und
n 1. 1
10
cr.= _1_~)d, _Cl)' = --,,--[~ :td~ _Cl,] =!<l[5,11_ 0'49'] = 0,30
n-l 1
n-l n 1.1
9 10
'
FOr die konkrete Ausprgung der Teststatistik gilt daher
v=

....

GD =0,55.

~:;; = 2,82.
,f1O

(3) Entscheidungsregel:
Fall c) liegt vor..... HD ablehnen gegenber HA, wenn v > t,_.. ,-I gilt.

Dabei ist t1_ II,n_1 =t o ,95;9 =1,83.


(4) Entscheidung:
Es gilt hier (v = 2,82) > (t,_.. ,-I = 1,83).
Die Nullhypothese kann abgelehnt werden. Damit kann es als statistisch gesichert angesehen werden, dass mit der Reifensorte B ein hherer Spritverbrauch entsteht.

Schreiben wir die Varianz der D, in der Form Var(D) = er;, = cri + cri - 2o'x x ,
wird unmittelbar ein Vorteil verbundener Stichproben deutlich. Sm'd die' Stichp;'benvariablen nEJIich positiv korreliert (Jx,x, > 0), gilt (J~ + (J~ > er;, und deshalb
auch Var(X, + X2 ) > Var(D). Die geringere Streuung des Mittels der Differenzen
gegenber der Differenz der Stichprobenmittel erlaubt es also, Mittelwertunterschiede mit grerer Wahrscheinlichkeit aufzudecken.
3.3.3.2

Korrelationstest

Wie wir wissen, nimmt der Korrelationskoeffizient p bei unabhngigen Zufallsvariablen Je, und Je, einen Wert von Null an. Umgekehrt kann jedoch nicht generell ge-

3. Testen von Hypothesen

383

sagt werden, dass ein Vorliegen von p = Unabhngigkeit bedeutet. Ein solcher
Rckschluss ist nur bei nonnalverteilten Zufallsvariablen mglich. Sind also zwei
Zufallsvariablen Je, und Je, (gemeinsam) normalverteilt, kann aufgrund von n Realisationen dieser Zufallsvariablen ber den Korrelationskoeffizienten p getestet
werden, ob Je, und Je, unabhngig sind.
(1) Formulierung einer Nullhypothese und einer Gegenhypothese

Da es Sinn und Zweck dieses Testverfahrens ist, Aussagen ber den unbekannten
Korrelationskoeffizienten p der Grundgesamtheit zu machen, haben die Hypothesen folgenden Aufbau:
a) Ho: p=o

(oder p;:,

b) Ho: P =
c) Ho: p=O

(oder

HA: P"O
HA: p <

0)

(III3: 40)

p~O)

In allen drei Fllen bedeutet eine Ablehnung von Ho bei (gemeinsam) normalver-

teilten Grundgesamtheiten, dass wir auch den statistischen Nachweis der Abhngigkeit der betrachteten Variablen Je, und Je, erbringen knnen.
(2) Ableiten einer TeststatistIk V und ihrer Verteilung

Falls die beiden betrachteten Merkmale der Grundgesamtheit (gemeinsam) nonnalverteilt sind, eignet sich (III3: 41) als Teststatistik fr dieses Testverfahren.?
V=

~l-R'

t(n-2)

(III3: 41)

n-2

V folgt bei korrekter Nullhypothese einer t-Verteilung ntit (n - 2) Freiheitsgraden. R


steht fr den Schtzer des unbekannten Korrelationskoeffizienten p der Grundgesamtheit, dem der Bravais-Pearson-Korrelationskoeffizient(vgl. Abschnitt I 3.2.1)
zu Grunde liegt. 8
(3) Aufstellung der Entscheidungsregel fr die Ahlehnung von Ho

Wird zum Signifikanzniveau a getestet, ist die Nullhypothese nach folgender Entscheidungsregel zu verwerfen:
Ho wird gegenber HA abgelehnt

!vi >t'_a12.n_'

a) Ho: p=O, HA: P"O


b) Ho: p;:,O, HA: p<O

falls

v <-t'_a,n_'
v>

(III3: 42)

t 1_ a , n-2

Vgl. dazu z.B. Kanji (2006).

8 Sollen Hypothesen des Typs Ho: P "" Po, Ho: P ~ Po und ~: p s; Po getestet werden, ist die
folgende Teststatistik zu verwenden, die unter Ho fr n > 30 approximativ einer standard-

nonnalverteilung folgt:

l+R
l+-Po)
~
V=O,S [ l n
---ln
- "n-3
l-R
l-po

384

111 Induktive Statistik

Beispiel 111 3-11

Korrelationstest

Zwischen den normalverteilten Renditen zweier Wertpapiere A und B wurde fOr eine Zeitreihe von n = 20 Tagen ein Korrelationskoeffizient von rAB = 0,22 festgestellt. Lsst sich
damit bei einem Signifikanzniveau von a = 0,01 statistisch nachweisen, dass die Renditen
beider Aktien voneinander abhngen?
(1) Hypothesen und Signifikanzniveau:
Ho: p = 0

HA: p ,. 0

a = 0,01

(2) Teststatistik und deren Verteilung:


Korrelationstest:

v=_R_- t(n-2)

~1_R2
n-2

In konkreter Stichprobe:
v=

0,22
= 0,96
1-0,22'
20-2

(3) Entscheidungsregel:
Fall a) liegt vor ..... Ho ablehnen gegenber HA, wenn lvi> t,_.". ,_, gilt.

Dabei ist t1- a/2 , n-2 = to,IiIQ6;18 = 2,88.


(4) Entscheidung:

Es gilt hier (lvi = 0,96) < (t'_I'. ,_, = 2,88).


Die Nullhypothese kann nicht abgelehnt werden. Es lsst sich also anhand dieser
Stichprobe nicht nachweisen, dass die Aktienrenditen voneinander abhngig sind.
Um eine Abhngigkeit zu besttigen, wre bei einer Stichprobe dieses Umfangs (n = 20)
ein Korrelationskoeffizient r erforderlich, der die Bedingung

~1- r'

>

t,_.". ,-,

n-2
erfOIit. Es gilt also hier
r.J18

288

c-;>'
,,1- r2

2
18 2 >2,882
.... r 1-r

....

r 2 >(I-r 2 ).2,882 /18 .... r 2 >(I-r 2 )O,46

.... r'>O,46/(1+0,46) .... r'>O,32 .... Irl>O,57.


Erst wenn der Korrelationskoeffizient bei diesem Stichprobenumfang und vorgegebenem
Signifikanzniveau von a = 0,01 also nicht zwischen --{),57 und +0,57 liegt, kann dieser als
signifikant angesehen und Ho: p = 0 verworfen werden.

Liegen ordinal skalierte Daten vor oder ist bei metrisch skalierten Daten keine
Normalverteilung gegeben, kann der Spearman-Rangkorrelattonskoeffiz/ent R"
(vgl. Abschnitt I 3.2.3) verwendet werden. Die Zufallsvariable R" ist dann fr

3. Testen von Hypothesen

385

n > 30 mit dem Erwartungswert E(R") = 0 und der Varianz VarCR") = 1/(n - 1) hinlnglich nonnalverteilt 9 Als Testgre eignet sich daher
V=RSp.jn-l

.!

N(O;l) .

(III3: 43)

Die Testentscheidung ist in einem solchen Fall unter Verwendung der entsprechenden Fraktile der Standardnormalverteilung ZU treffen.

3.3.4

Gtefunktionen von Parametertests

Wie wir bereits im Abschnitt III 3.1 gesehen haben, ist es nicht mglich die Wahrscheinlichkeiten fr den Fehler 1. Art (Ablehnung von HO' obwohl H, richtig ist)
und den Fehler 2. Art (Nicht-Ablehnung von H" obwohl H, falsch ist) gleichzeitig
unter ein vorgegebenes Niveau Zu drcken, da mit sinkendem Fehler 1. Art ceteris
paribus der Fehler 2. Art zunimmt. Aufgrund dieser Problematik haben wir bei der
Definiton des Verwerfungsbereiches die Anforderungen gestellt, dass
a) beim Test die Wahrscheinlichkeit fr den Fehler 1. Art maximal gleich einem
vorgegebenem Signiftkanzniveau a sein muss und
b) unter Einhaltung dieser Bedingung die Wahrscheinlichkeit fr den Fehler 2. Art
so klein wie mglich gestaltet werden sollte.
Hauptaugenmerk lag in der bisherigen Betrachtung der Testverfahren beim Fehler
1. Art, den wir mit einem Wert a vorgegeben haben. Den Fehler 2. Art haben wir
nur wenig bercksichtigt. Zur Beurteilung der Gte eines Tests ist aber zu prfen,
ob und inwieweit ein Test die belden definierten Anforderungen erfllt. Man bedient sich dazu in der Praxis der sog. Gtefunktion, der wir uns im Folgenden ausfhrlich widmen wollen:
Bezeichnen wir wie gewohnt einen beliebigen unbekannten Parameter der Grundgesamtheit mit -6, unsere Teststatistik mit V und den Verwerfungsbereich fr H, mit
B, so knnen wir eine Funktion
g(-6) = P(H, ablehnen I -6) = p(V E BI-6)

(III3: 44)

defmieren, die (fr ein vorgegebenes Signifikanzniveau a und festen Stichprobenumfang n) die Wahrscheinlichkeit dafr angibt, H, abzulehnen, wenn der unbekannte wahre Parameter der Grundgesamtheit gleich -6 ist. Diese Funktion bezeichnen wir als Macht (Mchtigkeit) oder Gtefunktion eines Tests. Voraussetzung fr die Bestimmung ihrer Funktionswerte ist, dass die Verteilung von V
bekannt ist (z.B. nicht nur bei korrekter Nullhypothese). Die Bestimmung der Gtefunktion ist bei vielen Tests kompliziert. Hufig kann sie nur nherungsweise mit
Hilfe von Simulationstechniken (z.B. Monte-Carlo-Verfahren) erfolgen.
Eine Gtefunktion kann z.B. einen Verlauf wie in Abbildung III 17 (graue Kurve)
aufweisen. Es handelt sich dabei um die Gtefunktion eines einfachen linksseitigen Gautests (H,: 11 :0; IV, die wir nun nher betrachten. Ein linksseitiger
Gautest erfllt genau dann die obige Bedingung a), ist also ein Signif/kanztest
zum Niveau a; wenn der Maximalwert der Gtefunktion im Bereich 8,: 11 :0; 11"
gleich a ist. Dies zeigt sich in Abbildung III 17 als g(1V = a. Es handelt sich bei der
dargestellten Gtefunktion also um diejenige eines Signifikanztests zum Niveau a.
9 Schlittgen, R. (2003) sieht RSp bereits bei n > 10 als hinreichend genau nonnalverteilt an.

386

111 Induktive Statistik

Ein wichtiger Indikator fr die Erfllung von Bedingung b) ist die Hhe der Funktionswerte gQ1) im Bereich EI,: 11 > 11,. Die Wahrscheinlichkeit f3 dafr, H, nicht abzulehnen, wenn der Wert 11 E EI, ist (also fr den Fehler 2. Art), kann nmlich als

f3 = P(H, nicht ablehnen 111) = 1- g(l1)

(1113: 45)

bestimmt werden. Ein Fehler 2. Art ist also umso unwahrscheinlicher, je hher gQ1)
im Bereich A ist. Eine steile Gtefunktion wre also hier wnschenswert.

Die in Abbildung III 17 abgetragene (graue) Gtefunktion stellt die Gtefunktion


eines unverflschten Tests dar. Unverflscht wird ein Gautest dann genannt,

wenn es sich bei ihm um einen Signifikanztest zum Niveau a handelt, dessen Gte-

funktion g(l1) fr alle 11 E EI, grer oder gleich (l ist. Zustzlich ist in der Abbildung die Gtefunktion eines idealen Tests enthalten. Ein Gautest wre ideal,
wenn die beiden Fehlerwahrscheinlichkeiten (l und f3 sehr klein bzw. sogar beide
Null sind. Dies wrde bedeuten, dass die Nullhypothese nicht verworfen wird, solange der wahre Wert 11 im Intervall EI, liegt. Befmdet sich 11 im Bereich EI" wird Ho
sicher verworfen. Kein Test besitzt jedoch eine derartige ideale Form.

- - - - - - - - - - - - - - - - , - - - - - --::::"....- -

Gtefuokt:lon eines
ldeaknT....

Gtefunktion eines
unverflschten Tests

a ---------------1

Il,

Abbildung III 17: Gtefunktion eines unverfalschten und eines idealen Tests
Die Differenz 1 - g(l1) = f3 wird auch als Operationscbarakteristik oder aC-Kurve
bezeichnet. Sie gibt die Komplementrwahrscheinlichkeit zur Gtefunktion an. Fr
den einfachen linksseitigen Gautest hat sie im Vergleich zur Gtefunktion den in
Abbildung 111 18 dargestellten Verlauf. Beim Vergleich beider Funktionen wird
schnell klar, dass auch die OC-Kurve zur Beurteilung der Gte eines Tests herangezogen werden knnte. Ein Signifikanztest zum Niveau a liegt vor, wenn der Mi-

nimalwert der OC-Kurve im Bereich EI, gleich 1 -

(l

ist. Von einem unverflschten

Test knnen wir sprechen, wenn seine OC-Kurve fr alle 11

9 A kleiner als 1 - a

ist. Nicht nur fr die Gtefunktion erachten wir im Bereich EI, einen steilen Verlauf
als wnschenswert, sondern auch fr die OC-Kurve. Wir wollen bereits an dieser
Stelle festhalten, dass der Verlauf von Gtefunktion und OC-Kurve allgemein umso
steiler (und damit die Gte des Testverfahrens urnso besser) ist, je grer der
Stichprobenumfang n gewhlt wird. In Beispiel 111 3-12 werden wir dies anhand eines konkreten Zahlenbeispiels sehen.

387

3. Testen von Hypothesen

1- gC)1)

a
Gtcfunktion

l-a

1-a

a
I
~.

Abbildung

m 18: Gtefunktlon vs. OC-Kurve

Boloplollil 312

Berechnung einer GOtefunktion

Im Folgenden werden wir die konkrete GCrtefunktion ffir einen linksseitigen Gautest, d.h.
einen GauBtest mit Ho: j.l S Po gegenOber HA: j.l> j.Io, nher untersuchen. Aus der allgemeinen Definition der GOtefunktion (1113: 44) und den Testvorschriften des GauIesIs aus Abschnitt 111 3.3.1.2 ergibt sich 'ar die Gotefunktion dieses Tests allgemein als

g(~) =p(Ablehnung von H"I~) =p(v >z,~I~) =p(X~",.fri >z,-H .


Zur Berechnung konkreter Werte dieser Giitefunktion knnen wir ausnutzen, dass die
Teststatistik V standardnormalverteilt ist. Dies fUhrt zu folgender Rechnung:
g(j.l) =

pe' ~1J.o Jrl

> z,_Ij.l) = p(X-j.l:;-1J.o Jrl > Z1-IIIj.l)

=p(x-".fri
>z1__
!'=h-r,;I~l=l-"(Z
_!'=h.fri)=
.. (!'=h.fri-z_)
(J
IX
(J
-""1
1_
(J
(J
1 IX
FOr die numerischen Werte j.Io _ 500, 0" _ 10, a _ 0,05 und die Stichprobenumfnge nl _ 10
und n2'" 80 ergeben sich damit die folgenden beiden GOtefunktionen gl(jJ.) und g2(j.l) mit
zugehrigen Werten:
~

499
500
501
502

g,(~)

g,(~)

0,0249
0,0500
0,0920
0,1557

0,0056
0,0500
0,2265
0,5573

503
505
510
515

g,,,,)
0,2432
0,4746
0,9354
0,9990

g,(~)

0,6505
0,9977
1,0000
1,0000

388

111 Induktive Statistik


g(l1)

1,0

n, =10

0,05 L--""""T--=="'i----.-------,r-----r-~
490
495
500
505
510
515
11
Die genauere Betrachtung dieser konkreten Gtefunktion lsst folgende Schlsse zu:
1. Grafik und Wertetabelle zeigen, dass fr die Irrtumswahrscheinlichkeit a genau gilt:
g(l1o) = <1>( -z'_o) = a
2.

Da es sich bei der Verteilungsfunktion der Standardnonmalverteilung um eine monoton


wachsende Funktion handelt, wchst auch die GOtefunktion monoton mit 11. Wir knnen generell sagen, dass die Gtefunktion des linksseitigen Gautests die gleiche
Gestalt hat wie die Verteilungsfunktion einer Normalverteilung mit geeigneten Parametern 11 und u.

3. Je grer der Abstand des wahren Mittels 11 vom hypothetischen Mittel 110, d.h. 11- 110,
ist, umso kleiner wird die Wahrscheinlichkeit ~ = 1 - g(l1) des Fehlers 2. Art. FOr sehr
groe Abstnde gilt schlielich = O. Eine Fehlentscheidung ist fast unmglich.
4.

Die Wahrscheinlichkeit des Fehlers 2. Art hngt vom Stichprobenumfang n ab. FOr ein
festes 11 mit 11 > 110 wird g(l1) mit wachsendem n grOer, d.h. die Wahrscheinlichkeit des
Fehlers 2. Art wird mit wachsendem n kleiner.

5.

Es gilt a) g(l1) ,; a fr 11 ,; 110 und b) g(l1) > a fOr 11 > 110 Dabei bedeutet a), dass die
Wahrscheinlichkeit fr den Fehler 1. Art hchstens a betrgt, d.h. das Signifikanzniveau a erweist sich als vorgebbare Obergrenze fr P(Fehler 1. Art). Aus b) ergibt
sich die Beziehung P(Fehler 2. Art) < (1 - a). Damit ist P(Fehler 2. Art) im Gegensatz
zu P(Fehler 1. Art) nicht kontrolliert klein, sondern kann "unkontrolliert gro" werden.

Bei Anwendung des Gautests auf Ho: 11'; 110 triffl man in der Praxis hufig auf die Frage,
wie gro n sein muss, damit bei Zugrundelegung einer Irrtumswahrscheinlichkeit a eine
Abweichung des tatschlich vorliegenden Wertes 111 vom hypothetischen Wert 110 mit vorgebbar groer Wahrscheinlichkeit ~ bemerkt wird. Anders ausgedrOckt, interessiert man
sich dafr, wie gro n sein muss, damit die Gtefunktion an einer vorgegebenen Stelle 11'
den vorgebbaren Wert ~ annimmt, d.h.
<1> (11,

~ 110 ,fr1 - z'_o ) = ~ .

Zur Auflsung dieser Gleichung nach n ist zunchst in der Tabelle der Standardnormalverteilung diejenige Stelle ~ mit <1>(z~) = ~ zu finden. Wir erhalten damit

389

3. Testen von Hypothesen

11,-11 v-n
c -

__
0

CJ

Z1_a

= z~,

woraus sich schlielich der gesuchte Stichprobenumfang n als

n = (Z,_. +z~)' CJ'

(11, -110)'
ergibt. Dieser Stichprobenumfang n besitzt eine interessante praxisrelevante Eigenschaft.
Er ist nmlich der kleinste Stichprobenumfang mit dessen Hilfe jede positive Abweichung
des tatschlich vorliegenden Mittelwertes von 110, die mindestens d = 111 - 110 > 0 betrgt,
mindestens mit der Wahrscheinlichkeit ~ aufgedeckt wird.

Der Vollstndigkeit halber zeigt Abbildung III 19 die Gestalt aller beim einfachen
Gautest mglichen Gtefunktionen im berblick. Dabei ist zu beachten, dass S,
im Fall des zweiseitigen Tests nur aus einem Wert, nmlich 110, besteht.

gell)

Zweiseitiger Test

Ho :11=110 -- HA: 11"110

gCIl) = <I> ( -Z,-o/2 + 11 ~Ilo ../n )

+<1> ( -Zl_CC/2

Il-Ilo../n)
0- n

a
11,

gell)

Rechtsseitiger Test
Ho :1l~1l0 -- HA: 11<110
gCIl) = <I> ( -Z'_0

11 ~Il, ../n )

all,
gell)

Unksseitiger Test
Ho :1l~1l0 - HA: 11>110
gCIl) = 1- <I> ( Z'_0

11 ~Ilo ../n )

a 11,
Abbildung III 19: Gtefunktionen beim einfachen Gautest

390

111 Induktive Statistik

3.4 Verteilungstests
Die in den vorhergehenden Abschnitten behandelten Testverfahren dienten der
Prfung von Hypothesen, die die Parameter von Grundgesamtheiten betreffen. Wir
haben sie daher auch als parametrische Testverfahren oder Parametertests bezeichnet. Im Folgenden wollen wir uns nun mit Tests beschftigen, die Hypothesen
berprfen, die die unbekannte Verteilung von Grundgesamtheiten betreffen. Wir
sprechen hier von nichtparamettischen Tests oder Vertei/ungstests.

3.4.1

Chi-Quadrat-Anpassungstest

Chi-Quadrat-Anpassungstests untersuchen, ob eine aus einer Zufallsstichprobe gewonnene Hufigkeitsverteilung mit einer fr die unbekannte Verteilung der Grundgesamtheit gemachten Annahme vereinbar ist oder nicht. Es geht darum, eine in
einer Stichprobe gewonnene Verteilung mit einer zu erwartenden Verteilung zu
vergleichen. Da hier die Genauigkeit der Anpassung einer theoretischen Verteilung
an eine empirische berprft wird, bezeichnen wir den Test als Anpassungstest. lO
Die Nullhypothese lautet hier inuner, dass die Grundgesamtheit einer bestimmten
Verteilung F, gehorcht. Je nachdem, ob es sich bei F, um eine diskrete Verteilung
(mit wenigen Merkmalsausprgungen) oder eine stetige Verteilung (oder diskrete
Verteilung mit vielen Merkmalsausprgungen) handelt, ist eine minimal andere
Testvorgehensweise zu whlen.

3A.l.l

Anpassungstest bei diskret verteilter Grundgesamtbeit

Grundstzlich gehen wir beim Chi-Quadrat-Anpassungstest davon aus, dass die


Grundgesamtheit bezglich eines Untersuchungsmerkmals X in k Klassen A" A"
... , A. eingeteilt werden kann und so jede Merkmalsausprgung a, der Grundgesamtheit zu genau einer der Klassen gehrt. Wie gro diese Klassen sein sollten,
werden wir im Folgenden noch detailliert behandeln. Im einfachsten Fall ist die
Grundgesamtheit diskret verteilt und besitzt wenige Merkmalsausprgungen, sodass
jede Merkmalsausprgung aJ als eigenstndige Klasse AJ angesehen werden kann.
Beim Test empfiehlt sich dann folgende Vorgehensweise:
(1) Formulierung einer Nullhypothese und einer Gegenhypothese

Die Nullhypothese lautet stets, dass die unbekannte Verteilung F der Grundgesamtheit (bezglich des Merkmals X) einer angenommenen theoretischen Verteilung F, entspricht, d.h.
Ho: F=Fo

(III3: 46)

Bei einer diskret verteilten Grundgesamtheit knnte F0 also beispielsweise eine


Gleich-, Binomial- oder Poissonverteilung sein.

10 Neben dem Chi-Quadrat-Anpassungstest gibt es den Kohnogorov-Smirnov-Anpassungstest


Cvgl. z.B. Massey, 1951; Miller, 1956; Stephens, 1970; Marsaglia et al., 2003). Er besitzt den
Vorteil, dass er bereits bei kleinen Stichprobenumfngen anwendbar ist.

3. Testen von Hypothesen

39t

(2) Ableiten einer Teststatistik V und ibrer Verteilung


Zur Berechnung der Teststatistik wird zunchst die Anzahl h , der Elemente der
Stichprobe notiert, die in die einzelnen Klassen A, (fr j - I, 2, ... , k) fallen. Anschlieend wird fr jede der k Klassen eine erwartete absolute Hufigkeit h~ berechnet, die angibt, wie viele Elemente in die jeweilige Klasse fallen mssten, wenn
die Grundgesamtheit wie in der Nullhypothese angenommen (also gem F,) verteilt ist. Diese Hufigkeit, die nicht unbedingt ganzzahlig sein muss, ergibt sich als
(III3: 47)
wobei n der Stichprobenumfang ist und P, die wahrscheinlichkeit dafr angibt,
dass ein Beobachtungswert X, bei korrekter Nullhypothese in die Klasse A, fallt. Es
gilt also formal P, = P(X E A, I Fo ) .
Im Anschluss daran vergleichen wir die 11,' mit den 11, in den einzelnen Klassen.
Eine Zusammenfassung aller Differenzen zwischen 11, und h,' fhrt zur Teststatistik
V=

L
k

(h -h')'
I h' I

(III3: 48)

j_ 1

Es werden also die Differenzen zwischen den empirischen und theoretischen Hufigkeiten quadriert und durch die zugehrigen erwarteten Hufigkeiten dividiert.
Die letztgenannte Operation dient der Gewichtung der Abweichungen. Eine Differenz von 10 ist nmlich z.B. bei einer erwarteten Hufigkeit von 20 als hoch einzustufen, whrend sie bei einer erwarteten Hufigkeit von 1.000 nur geringfgig ist.
Bei der Berechnung der konkreten Realisation der Teststatistik wird folgendes
Schema empfohlen:
Klasse

A,

...

I:

Hufigkeiten in Stichprobe
Wahrscheinlichkeiten unter H,

h,
p,

...
...

h.

=npl
(h, - h;)'

...
...
...

n
1

= npk

Erwartete Hufigkeiten unter H,


(hI - h')'
I
(hI -h')'
Ih'I
I

h~

(h, - h;)' I h;

h~

(hk - h~)'

(hk - h~)' I h~

Abbildung III 20: Hilfstabelle fr den Chi-Quadrat-Anpassungstest


Die hier verwendete Testgre V zeigt deutlich die Grundidee des Chi-QuadratAnpassungstests: Es wird fr jede Klasse A, die Anzahl h , der Beobachtungen, die
tatschlich in A, fallen, mit der Anzahl h ,' der Werte verglichen, die in A, bei korrekter Nullhypothese zu erwarten sind. Ein hoher Testfunktionswert v ist daher ein Indiz dafr, dass die hypothetische Verteilungsfunktion F, nicht richtig ist.
Es lsst sich zeigen, dass V unter Hf nberungsweise einer Cbi-Quadrat-Verteilung
mit (k - 1) Freiheitsgraden folgt.' Voraussetzung fr die Anwendung der ChiQuadrat-Verteilung ist jedoch, dass die erwarteten absoluten Hufigkeiten h,' (oder
beobachteten absoluten Hufigkeiten h~ nicht zu klein sind. Als Faustregel dient
11 Diese Anzahl von Freiheitsgraden ergibt sich, da bei k Klassen und vorgegebenem Stichprobenumfang n nur in k - 1 Klassen die Besetzungszahlen frei variieren knnen.

392

111 Induktive Statistik

V.!.X'(k-1)

falls

h;;>,5 fr j=1.2..... k.

(III3: 49)

Wird diese Bedingung nicht von jeder der k Klassen erfllt. behilft man sich hufig
damit. benachbarte Klassen zusammenzulegen. Dabei ist jedoch zu bedenken. dass
sich im Allgemeinen durch Reduktion von k die Wahrscheinlichkeit fr den Fehler
2. Art (d.h. eine falsche Nullhypothese nicht abzulehnen) erhht. Gerade daher
sollte man bei einem Testergebnis. welches nicht zur Ablehnung von H, fhrt. beachten, ob dies nicht evtl. auf eine zu grobe Klasseneinteilung zurckzufhren ist.
Bei der Berechnung der erwarteten Hufigkeiten h ,' wird die hypothetische Verteilung Fo bentigt. Die Verteilung der verwendeten Teststatistik ist jedoch von der
hypothetischen Verteilung unabhngig. Man spricht daher beim Chi-QuadratAnpassungstest auch von einem verteilungsfreien Test.
(3) Aufstellung der Entscheidungsregel fr die Ablehnung von Ho

Zur Entscheidung der Ablehnung oder Nichtablehnung der Nullhypothese nutzen


wir das (l-a)-Frakti1 der Chi-Quadrat-Verteilung mit (k - 1) Freiheitsgraden. Es gilt
Ho wird abgelehnt gegenber

falls

HA: F-:f.Fa ,

(III3: 50)

v>X~_a,k_l'

X2 -Anpassungstest (diskrete Verteilung)

Beispiel 111 3-13

Ein Wrfel wird 120-mal geworfen. Es ergeben sich dabei die Augenzahlen von 1 bis 6 mit
folgenden Hufigkeiten:
Augenzahl aJ
Hufigkeit hj in der Stichprobe

24

18

4
17

3
19

22

20

Es soll nun anhand dieser Stichprobe bei einem Signifikanzniveau a = 0.01 geprft werden. ob es sich bei dem Wrfel um einen fairen WOrfel handelt. also die Augenzahlen
gleichverteilt sind.
(1) Hypothesen und Signifikanzniveau:
Ho: Die Augenzahlen sind gleichverteilt.
HA: Die Augenzahlen sind nicht gleichverteilt.
Alternativ lasst sich dieses Hypothesenpaar auch folgendermaen formulieren. wobei
die Aj gleich den einzelnen Augenzahlen aj sind:
Ho: P(A,) = 1/6. P(A.) = 1/6 ... P(A.) = 1/6 bzw. P(I) = 1/6. P(2) = 1/6... P(6) = 1/6
HA: P(A,)

1/6. P(A2)

1/6... P(A.)

1/6 bzw. P(I)

1/6. P(2)

1/6 ... P(6)

1/6

(2) Teststatistik und deren Verteilung:


Wie wir der Tabelle auf der Folgeseite entnehmen knnen. erhalten wir fr die vorliegende Stichprobe eine konkrete Ausprgung der Teststatistik von v = 1.70. Wir erkennen auerdem. dass fr alle j die Bedingung hj" 5 erfOIit ist. Es gilt somit fr die Verteilung der Teststatistik V !. X2(k -1) bzw. konkret V !. X'(5) .
(3) Entscheidungsregel:
Ho ablehnen gegenber HA. wenn v>

Dabei ist X:-a,k-1 =X~.99;5 =15,09.

X:-a , ,_, gilt.

3. Testen von Hypothesen

393

Augenzahl aJ
bzw. Klasse j
hJ
Pi

h; = np,
(hi -h;)'
(h -h')'/h'

1:

24

t8

t9

t7

22

20

t20

1/6

1/6

1/6

1/6

1/6

1/6

20

20

20

20

20

20

16

0,80

0,20

0,45

0,20

0,00

0,05

120
1,70

(4) Entscheidung:
Es gilt hier (v = 1,70) < (x;'-a,k-l = 15,09).
Ho kann nicht abgelehnt werden. Die vorliegende Stichprobe liefert also keinen statistischen Nachweis dafr, dass der betrachtete Wrfel manipuliert wurde.

Da die Chi-Quadrat-Verteilung zu den stetigen Verteilungen gehrt, V aber eine


diskrete Verteilung besitzt, wre genau genommen eine Stetigkeitskorrektur (sog.
Yates-Korrektur) etforderlich, sodass sich

V=

t (I h -hi 1-0,5)'
J

h~

j=1

ergibt. In der Praxis wird diese Stetigkeitskorrektur jedoch nur angewendet, wenn
die Anzahl der Freiheitsgrade bei Eins liegt. Wir wollen sie daher im Folgenden
vernachlssigen.
Mssen zur Ermittlung der erwarteten Hufigkeiten zunchst g Parameter der
hypothetischen Verteilung F, geschtzt werden, vennindert sich die Anzahl der
Freiheitsgrade der zu verwendenden Chi-Quadrat-Verteilung auf k - g - 1. Es muss
k - g - 1 > gelten, da die Anzahl der Freiheitsgrade einer Chi-Quadrat-Verteilung

inuner positiv sein muss.

Beispiel 111 3-14

x2-Anpassungstest (diskrete Verteilung)

Die Anzahl der an einem abgelegenen Grenzbergang in einem 10-Minuten-lntervall ankommenden Pkws, ist in folgender Tabelle wiedergegeben.
Klassej

Anzahl der ankommenden Pkws aj

~6

Hufigkeit hj in der Stichprobe

21

42

14

14

Es soll geprOft werden, ob die Anzahl der Pkw-AnkUnfte als Poisson-verteilt betrachtet werden kann (Signifikanzniveau a = 0,05).
(1) Hypothesen und Signifikanzniveau:
Ho: Die Pkw-AnkOnfte sind Poisson-verteilt.
HA: Die Pkw-AnkOnfte sind nicht Poisson-verteilt.

a= 0,05

394

111 Induktive Statistik


(2) Teststatistik und deren Verteilung:
Zur Bestimmung der erwarteten Hufigkeiten hj muss der Funktionalparameter ~ der
Poissonverteilung geschtzt werden. Da ~ dem Erwartungswert der Poissonverteilung
entspricht, knnen wir ~ mit dem arithmetischen Mittel der Stichprobe schtzen. Es gilt
7

LaJhJ

i= X =_J"_'- = 301 =301.


7
100'

Lh J
1=1

Mit Hilfe der Wahrscheinlichkeitsfunktion der Poissonverteilung (vgl. Abschnitt 11 3.1.3)


~.

fp,(x) =-e-
x!
lassen sich unter Verwendung des geschtzten ~-Wertes die zur Ermittlung der hj
notwendigen Wahrscheinlichkeiten PI berechnen. Wir erhalten die folgende Tabelle, in
der sich der Wert 0,0849 als Komplementrwahrscheinlichkeit 1 - p, - ... - ps ergibt.

Bj

1
0

hi

Klassej

Pi = fPo(a~
hj = nPI

4
3

6
5

7
;,6

21

42

14

14

0.2233

0.2240

0.1686

0.1015

0.0849

100
1

22,33

22,40

16,86

10,15

8,49

100

2
1

3
2

0.0493

0.1484

4,93

14,84

Wir stellen nun aber fest, dass die Klasse 1 die Bedingung h:;, 5 nicht erfllt. Wir fassen sie daher mit der benachbarten Klasse 2 zusammen und erhalten so die folgende
Tabelle, die uns v liefert.

,,1

2
2

3
3

4
4

5
5

6
;'6

a;
hl

21

42

14

14

100

Klassej

0,1977

0,2233

0,2240

0,1686

0,1015

0,0849

hj = npj

19,77

22,33

22,40

16,86

10,15

8,49

(h l -hj)'

115.99

1.77

384.16

8.18

14.82

72.08

5,87

0,08

17,15

0,49

1,46

8,49

PI = fPo(a~

(h I -h')'/h'
I
J

(3) Entscheidungsregel:
Ho ablehnen gegenber HA, wenn v> X:_.

k-,-,

100

33,54

gilt.

Dabei ist X:-. k-,-, =X:-O.""-H =X:.95;4 =9,49. Es giH hier g = 1, da genau ein Parameter der hypothetischen Verteilung, d.h. konkret der Parameter ~ der Poissonverteilung, geschtzt werden muss.
(4) Entscheidung:
Es gilt (v = 33,54) > (X:_.

k-,-,

= 9,49).

Ho kann abgelehnt werden. Wir knnen die Anzahl der Pkw-Ankunfte also nicht als
Poisson-verteilt betrachten.

395

3. Testen von Hypothesen

3.4.1.2

ADpasswagstest bei stetig verteilter Grundgesamtbeit

Liegt ein stetiges Merkmal oder ein diskretes Merkmal mit sehr vielen Merkmalsausprgungen vor, ist eine Klassenbildung unerlsslich. Wir wollen dies am Beispiel des sog. Normalittstests CChi-Quadrat-Anpassungstest mit der Nullhypothese
der Nonnalverteilung) veranschaulichen.

7.2-Anpassungstest (stetige Verteilung)

Boloplollil 315

Eine Stichprobe im Umfang von n '" 70 lieferte fr die Lebensdauer von Gllihbirnen die folgende bereits in Klassen eingeteilten Werte (in Jahren) mit dazugehrigen Klassenhufigkeiten. Der aus der Urliste berechnete StichprobenmiHelwert lag bei x _ 3,5 Jahren, die
Stichprobenstandardabwaichung bei a", 0,7 Jahren.

[0; 2,51

12,5; 3,01

h;

13,0; 3,51
24

13,5; 4,01

14,0; 4,51

22

15,0; 00[
5

Wir wollen anhand dieser Stichprobenergebnisse auf einem Signifikanzniveau von 5 % testen, ob die Lebensdauer der Glhbirnen in der Grundgesamtheit normalverteilt ist.
(1) Hypothesen und Signifikanzniveau:

a",O,05

Ho: Die Lebensdauer ist normalverteilt.


HA.: Die Lebensdauer ist nicht normalverteilt.
(2) Teststatistik und deren Verteilung:

Zur Bestimmung der erwarteten Hufigkeiten h~ mssen die zwei Funktionalparameter


J1 und "der Normalverteilung geschtzt werden. Als erwartungstreue Schtzer eignen
sich daffir der StichprobenmiHelwert und die Stichprobenvarianz. Unter Verwendung
der SchAtzwerte )1 - 3,5 und CI - 0, 7 2 bzw. der geschAtzten hypothetischen Verteilungsfunktion Fa = N(3,5;0, 7 1 ) erhalten wir v daher aus folgender Tabelle:

"h,

2,5

3,0

3,S

4,0

4,_

24

22

0,077

0,238

0,500

0,762

0,923

1,000

PI - ,z,(zl)-41(ZI_l)

0,077

0,161

0,262

0,28.2

0,161

0,077

h'

5,359

11,267

18,373

18,373

11,267

5,359

70

(hl_hj)Z

1,848

18,210

31,860

13,153

10,675

0,129

(h l - hj)1 I hj

0,345

1,616

1,723

0,716

0,947

0,024

P(X!i: 811 Fg )

~(Zl)

E
70

5,37

Die darin vorkommenden Werte 8j entsprechen den Obergrenzen der Klassen aus der
Aufgabenstellung. Jede Klassenobergrenze wird miHels der Schtzungen 11 und ~
standardisiert. Aus den daraus entstehenden Werten zJ werden dann die dazu gehrigen Werte der Verteilungsfunktion der Standardnonnalverteilung ermiHelt. Aus zwei
aufeinander folgenden Werten 4t(ZI_l) und eIt(z]) lAsst sich schlielich durch Differenzenbildung ffir jede Klasse j ein Wert Pi ermiHeln. Alle weiteren Werte der Arbeitstabelle ergeben sich nach dem gewohnten Muster.
Es ergibt sich demnach die konkrete Ausprgung der Teststatistik als v '" 5,37, wobei
die TeslBtatistik V aufgrund der erforderlichen Schtzung zweierVerteilungsparameter

396

111 Induktive Statistik


und der fOr alle j erfllten Bedingung hj " 5 nherungsweise einer Chi-Quadrat-Verteilung mit k - g - 1 (bzw. 6 - 2 - 1 = 3) Freiheitsgraden 101gt. 12 Wegen hj ,,5 lur alle j
ist keine weitere Klassenzusammenlassung notwendig.
(3) Entscheidungsregel:

Ho ablehnen gegenber HA, wenn v> X:_., k-,-. gilt.


Dabei ist

X:-Q,k-g-1

=X~.Q6:3 =7,81.

(4) Entscheidung:
Es gilt (v

= 5,37) < (X:-.,k-'-' = 7,81).

Ho kann nicht abgelehnt werden, Die vorliegende Stichprobe widerspricht also nicht der
Normalverteilungshypothese. Auch bei Verwendung der Chi-Quadrat-Verteilung mit
nur (k - 1) Freiheitsgraden ergibt sich keine Ablehnung.
Bei der Anwendung des Chi-Quadrat-Anpassungstests in der Praxis ist zu beachten, dass er mitunter sehr groe -Febler (geringe Macht) aufweist,13 Ein Anpassungstest ist deshalb Ld.R. kein geeignetes Verfahren zur Bestimmung des Typs
einer Verteilung. In vielen Fllen knnen nmlich Nullhypothesen, wie etwa "X ist
nonnalverteilt", "X ist lognonnalverteilt" oder lIX ist exponentialverteilt" allesamt
nicht verworfen werden. Gerade deshalb wurden speziellere Testverfahren entwickelt. Dazu zhlt beispielsweise der Jarque-Bera-Test auf Normalverteilung (vgl.
Abschnitt IV 3.3).

3.4_2

Chl-Quadrat-Unabhnglgkeltstest

Dieses auch als Kontingenztest bezeichnete Testverfahren berprft, ob zwei in


der Grundgesamtheit beobachtete Merkmale X und Y voneinander unabhngig
sind oder nicht. Seine Anwendung ist bereits bei nominal skaUerten Daten mglich.
Man geht bei ihm nach dem gleichen Prinzip vor, das auch dem Chi-QuadratAnpassungstest zugrunde liegt.
(1) Formulierung einer Nullbypotbese und einer Gegenbypotbese

Unter der Voraussetzung, dass eine zweidimensionale Stichprobe bzw. zwei verbundene einfache Stichproben aus einer greren Grundgesamtheit mit den Stichprobenvariablen X, Ci = 1, ... ,n) zu X und Y, Ci = 1, ... ,n) zu Y gegeben sind, werden
folgende Hypothesen getestet:
Ho: Die beiden Merkmale X und Y sind unabhngig.
HA: X und Y sind abhngig.

(III3: 51)

Anders als beim Korrelationstest (vgl. III 3.3.3.2) ist die (gemeinsame) Norrnalverteilung von X und Y keine Voraussetzung fr diesen Test auf Unabhngigkeit.
12 Werden die Schtzungen der unbekannten Verteilungsparameter aus der Urliste und nicht
aus den klassierten Daten gewonnen, ist die Grenzverteilung der resultierenden Testgre
V genau genommen keine Chi-Quadrat-Verteilung mehr. Das zur Grenzverteilung von V
gehrende (l--a)-Fraktil, liegt allerdings zwischen den entsprechenden Fraktilen der
X'(k - g - I) und der X'(k -I)-Verteilung, Vgl. dazu Albrecht (1980). Fr hinreichend groes k sind diese drei Fraktile auerdem nahezu identisch.

13 Vgl. dazu z.B. Kadis und Xekalaki (2000).

3. Testen von Hypothesen

397

(2) Ableiten einer Teststatistik V und ihrer Verteilung


Als Stichprobenergebnis erhalten wir Paare (x, y), deren Hufigkeiten in einer Kontingenztabelle der in Abbildung III 21 dargestellten Fonn aufbereitet werden. Dabei
werden zunchst die in der Stichprobe auftretenden Ausprgungen von X in k :2: 2
disjunkte, aneinander angrenzende Klassen A" ... , A,. aufgeteilt. Gleiches gilt fr
die Ausprgungen von Y, die in m :2: 2 Klassen B" ... , Bm aufgegliedert werden. Bei
diskreten Merkmalen X und Y mit wenigen mglichen Ausprgungen kann es vorkommen, dass eine Klasse nur aus einer einzigen Merkmalsausprgung von X bzw.
Y besteht. Die Anzahl derjenigen Paare (x, y), die sowohl in Klasse A. als auch B;
fallen, wird mit h, (gemeinsame Hufigkeit) bezeichnet. Interessieren wir uns dafr,
wie viele Paare (x, y) in die Klasse A. (ungeachtet von B? fallen, so ist dies aus der
Randhufigkeit h(A) abzulesen. Dies gilt analog fr BJ und h(BJ).
Wir wollen zustzlich zu den Stichprobenergebnissen auch gleich die Gren
h~ = _h_(A--,I_)_.h_(_B,-)
J

(III3: 52)

in die Kontingenztabelle aufnehmen. Es handelt sich dabei um die bei Gltigkeit


der Nullhypothese in der Stichprobe erwarteten absoluten Hufigkeiten. Dies lsst
sich wie folgt begrnden: Da die relativen Hufigkeiten der Stichprobenelemente,
die in die Klasse AI bzw. BJ fallen, also
h(A)
f(A) = - n

CI =1, ... ,k)

und

erwartungstreue Schtzer fr die unbekannten Randwahrsch..lnllcbkeiten in


der Grundgesamtheit darstellen, muss bei Unabhngigkeit der beiden Merkmale X
und Y nach dem Multiplikationssatz fr unabhngige Ereignisse fr alle i und j
f(A, nB j IHo)=f(A).f(Bj)=h(A). h(B j)
n

Ci=l, ... ,k; j=I, ... ,m)

gelten. Wir erhalten daraus durch Multiplikation mit dem Stichprobenumfang n genau die unter (III3: 52) defmierte Gre. Die erwarteten absoluten Hufigkeiten ergeben sich also allgemein als Produkt aus den jeweiligen Randhufigkeiten dividiert durch den Stichprobenumfang n.
Y

B,

A,
A,

A.
1:

h 12

h"
h~l

h 21

h~2

h"
h~l

h k,

...

B,

h' ,
heB,)

h k,

h;2

h' ,
heB,)

...

hirn

...

hzm

. ..
...

1:

Bm
h~m

h;m
h km
h~

h(B rn )

h(A,)
h(A,)

h(A k )
n

Abbildung III 21: Kontingenztabelle fr den Chi-Quadrat-Unabhngigkeitstest

398

111 Induktive Statistik

Aus der Kontingenztabelle in Abbildung III 21 lsst sich schlielich, wie auch bereits beim Chi-Quadrat-Anpassungstest, die Teststatistik
V=

:t f.
1_ 1

1=-1

(h'j -,h;)'
hij

(III3: 53)

aufstellen. Da bei Unabhngigkeit von X und Y Zu erwarten ist, dass h 'j = hij gilt,
spricht ein kleiner Teststatistikwert v fr Unabhngigkeit und ein hoher Wert v fr
Abhngigkeit. V folgt hier unter H, niiberungsweise einer Cbi-Quadrat-Verteilung
mit Ck - l)(m - 1) Freiheitsgraden. Diese Anzahl lsst sich wie folgt erklren: Die
Testgre V hat so viele Summanden, wie die Kontingenztabelle Zellen hat. Dies
fhrt zunchst zu k m - 1 Freiheitsgraden, da bei Kenntnis von k m - 1 Feldinhalten und bekanntem Stichprobenumfang der letzte Feldinhalt nicht frei variieren
kann. Da unbekannte Parameter (Randwahrscheinlichkeiten) aus der Stichprobe
geschtzt werden mssen, sind diese Freiheitsgrade um k - 1 Freiheitsgrade fr die
Randverteilung von X und m - 1 Freiheitsgrade fr die Randverteilung von Y zu
reduzieren. Daher gilt km -1- (k -1) - (m -1) = km - k - m + 1 = (k -1)(m -1).
Von einer approximativen X'[Ck - l)(m - l)]-Verteilung der Gre V kann aber
wieder nur dann ausgegangen werden, wenn die Faustregel
fr

h~ ~5

alle i=1,2, ... ,k und j=1,2, ... ,m

(III3: 54)

erfllt ist. Treten elWartete Hufigkeiten auf, die kleiner als 5 sind, sind wieder
Spalten bzw. Zeilen zusammenzufassen.
Liegt eine Kontingenztabelle mit k - m - 2 vor, vereinfacht sich die Berechnung
der Teststatistik. Es gilt dann einfach
V

n(hllh" - h 12 h,,)'
h(A,)' h(A,)' h(B,)' heB,)

(III3: 55)

(3) Aufstellung der Entscbeidungsregel fr die Ablebnung von Ho

Zur Entscheidung der Ablehnung oder Nichtablehnung der Nullhypothese bedienen wir uns des (1 - a)-Fraktils der Chi-Quadrat-Verteilung mit Ck - 1)(m - 1) Freiheitsgraden. Es gilt
Ho wird abgelehnt gegenber
HA:

X und Y sind abhngig,

falls

v > Xl-li, (k-1Xm-l)

Beispiel 111 3-16

(III3: 56)

Chi-Quadrat-Unabhngigkeitstest

Im Rahmen eines Einstellungstests werden 20 Ingenieure, 40 Betriebswirte und 20 Volkswirte einem Intelligenztest unterzogen, der ihre Eignung fOr das Unternehmen bestimmen
soll. Es ergab sich dabei folgende Kontingenztabelle:
Abschluss

Ingenieur

Betriebswirt

Volkswirt

1:

geeignet
nicht geeignet

5
15

25
15

10
10

40
40

1:

20

40

20

80

Eignung

399

3. Testen von Hypothesen

Es soll anhand dieses Ergebnisses bei einem Signifikanzniveau a = 0,01 getestet werden,
ob die Eignung (Merkmal X) vom Studienabschluss (Merkmal Y) unabhngig ist oder nicht.

(I) Hypothesen und Signifikanzniveau:


Ho: Die Merkmale X und Y sind unabhngig.

a= 0,01

HA: Die Merkmale X und Y sind abhngig.


(2) Teststatistik und deren Verteilung:

Zur Berechnung der konkreten Ausprgung von V wollen wir zunchst die Kontingenztabelle aus der AufgabensteIlung um die bei GOltigkeit der Nullhypothese erwarteten
absoluten Hufigkeiten h; (z.B. h:, = (20 40}/80 = 10 ) erweitern.
Y

Ingenieur

geeignet

Betriebswirt
25

10

10
15

nicht geeignet

20
15

20

10
10

10

!:

Volkswirt

20
40

10
20

!:
40
40
80

Da alle hij grOer als 5 sind, ist die Teststatistik V nherungsweise mit (k - l}(m - I) =
(2 - 1}(3 - I) = 2 Freiheitsgraden Chi-Quadrat-verteilt. Die konkrete Ausprgung v ergibt sich zu

=:tt
1..1

J.. 1

(h, -.h}2

hg

(5-10)' (25-20)' (10-10)' (15-10)' (15-20)' (IO-IO)'


10
+
20
+
10
+
10
+
20
+
10

= 2,5+1,25+0+2,5+1,25+0 = 7,5.
(3) Entscheidungsregel:
Ho ablehnen gegenber HA, wenn v > X:-a. ('-1)(m-1) gilt.
Dabei ist

X:-a.,(k-1)lm-1)

=X~,99:2 =9,21.

(4) Entscheidung:
Es gilt hier (v = 7,5) < (X:-a.('-1)(m-1) = 9,21}.
Ho kann nicht abgelehnt werden. Wir knnen also nicht statistisch nachweisen, dass
die Eignung vom Studienabschluss abhngig ist.

Bisher sind wir davon ausgegangen, dass die Randwahrscheinlichkeiten in der

Grundgesamtheit unbekannt sind. Wir hatten sie daher mit den relativen Randhufigkeiten in der Stichprobe geschtzt und konnten so die h; bestimmen. Sollten
die Randwahrscheinllchkeiten Pi = P(Ai ) und q. = P(B) in der Grundgesamtheil bekannt sein, mssen zur Bestimmung der h; nicht lnger die Randhufigkeiten aus der Stichprobe verwendet werden. Wir rechnen in einem solchen Fall
(III3: 57)

400

111 Induktive Statistik

Bei bekannten Randwahrscheinlichkeiten der Grundgesamtheit ndert sich auch


die Zahl der Freiheitsgrade der zu verwendenden Chi-Quadrat-Verteilung. Wir erhalten nun (k. m - 1) Freiheitsgrade. Der schtzungsbedingte Abzug, den wir im
Fall unbekannter Randwahrscbeinlichkeiten vorgenommen hatten, ist nun nicht
mehr erforderlicb.

Beispiel 111 317

Chi-Quadrat-Unabhngigkeitstest

Eine Befragung unter 500 zufllig ausgewhlten Auszubildenden, die Aufschluss Ober ihr
Geschlecht (Merkmal Y) und ihre Ausbildungsrichtung (Merkmal X) geben soll, liefert die
folgende Kontingenztabelle, in der an Stelle der Randhufigkeiten der Stichprobe, die bekannten Randwahrscheinlichkeiten der Grundgesamtheit eingetragen sind. PI bzw. q ist also dabei als die Wahrscheinlichkeit dafOr zu interpretieren, dass ein zufllig ausgewhlter
Auszubildender beruflich bzw. geschlechtlich zur Gruppe i bzw. j gehrt.
Geschlecht Y
Ausbildungsrichtung X

mnnlich

weiblich

PI

ISO
100
50
0,45

100

0,45
0,30
0,25

Handwerk
Industrie und Handel
ffentlicher Dienst
qJ

50
50
0,55

Es soll auf einem Signifikanzniveau von <X = 0,05 geprft werden, ob die Wahl der Ausbildungsrichtung (Merkmal X) vom Geschlecht (Merkmal Y) unabhngig ist.
(I) Hypothesen und Signifikanzniveau:
Ho: Die Merkmale X und Y sind unabhngig.

<X=

0,05

HA: Die Merkmale X und Y sind abhngig.


(2) Teststatistik und deren Verteilung:
Zur Berechnung der konkreten Ausprgung von V werden zunchst die hij anhand der
bekannten Randwahrscheinlichkeiten der Grundgesamtheit berechnet. Wir stellen diese zusammen mit den h'J aus der Stichprobe in folgender Tabelle dar:
Y

X
Handwerk
Industrie und Handel
ffentlicher Dienst

mnnlich

ISO
100
50

101,25
67,50
56,25

weiblich

100
50
50

123,75
82,50
68,75

Die Teststatistik V ist nherungsweise mit k m - I = 3 2 - I = 5 Freiheitsgraden ChiQuadrat-verteilt. Die konkrete Ausprgung v lautet
~~

(h __ hO)' = (ISO -I 01, 25)' + (100 -123, 75)' + ,,(I-'C00=----'6:.c7'.::,5"'0)'-'


,
101,25
123,75
67,50
h~

v=L.JL.J
i=1 j=1

3. Testen von Hypothesen

40t

v = 23,47 +4,56+15,65+12,80+0,69+5,11 = 62,28.


(3) Entscheidungsregel:
Ho ablehnen gegenber HA, wenn v >

x:_.

k.m-1

gilt.

Dabei ist X:-II,k.m-1 =X~,95:5 =11,07.

(4) Entscheidung:
Es gilt hier (v = 62,28) > (x:-.: k.m-1 = 11,07).
Ho kann abgelehnt werden. Man kann also annehmen, dass die Wahl der Ausbildungsrichtung vom Geschlecht des Auszubildenden abhngig ist.

Abschlieend sei erwhnt, dass der Chi-Quadrat-Unabhngigkeitstest auch als Anpassungstest zu verstehen ist. Es wird nmlich die Anpassung an eine unabhngige
Verteilung getestet. Dies erklrt auch die hnliche Vorgehensweise und die Anzahl
der zu verwendenden Freiheitsgrade der Testverteilung.

3.4.3

Chi-Quadrat-Homogenittstest

Der Chi-Quadrat-Anpassungstest aus Abschnitt III 3.4.1 gehrte zur Gruppe der
Einstichprobentests. Er untersucht, ob die in einer Sticbprobe beobachtete Verteilung mit der fr die unbekannte Verteilung der Grundgesamtheit gemachten Annahme in Widerspruch steht oder nicht. Der Chi-Quadrat-Homogenittstest ist in
die Gruppe der Zwei- und Mehrstichprobentests einzuordnen. Es wird nmlich hier
untersucht, ob mebrere unabbngige Sticbproben aus der gleichen Grundgesamtheit (oder aus verschiedenen Grundgesamtheiten mit gleicher Verteilung) stammen
oder nicht. Wir werden daher eine hnliche Vorgehensweise wie beim ChiQuadrat-Unabhngigkeitstest feststellen.
(1) Formulterung einer Nullbypotbese und einer Gegenbypotbese

Die Nullhypothese beinhaltet bei diesem Test immer die Behauptung, dass die Verteilungen Fi Ci = 1, ... , m), aus denen die m vorliegenden Stichproben gewonnenen
wurden, gleich sind.
Ho: F1 =F2 = ... =Fm

HA: F,

'* I) fr mindestens ein Paar (i,i)

(III3: 58)

Beim Vergleich der Verteilungen zweier Stichproben wrden wir also H,: F,
gegenber HA: F, F, testen.

'*

F,

(2) Ableiten einer Teststattstik V und ibrer Verteilung


Wie beim Chi-Quadrat-Unabhngigkeitstest empfiehlt sich auch hier die Verwendung einer Art von Kontingenztabelle. Diese kann wie in Abbildung III 22 gestaltet
werden. Dort geben die h, an, wie oft in der j-ten Verteilung ein Wert aus der Klasse A, vorkommt. Folglich sind die h(SP~ die Anzahl der Stichprobenbeobachtungswerte in der Verteilung j und h(A,) die Klassenhufigkeiten insgesamt. Die Werte
h; ergeben sich wie beim Chi-Quadrat-Unabhngigkeitstest. Auch die Teststatistik
V ist identisch. Wieder ist V nherungsweise mit (k - l)(m - 1) Freiheitsgraden ChiQuadrat-verteilt, wenn h; :<: 5 fr alle i und j gilt.

402

111 Induktive Statistik

Verteilung aus
Stichprobe 1

h ll

A,

Verteilung aus
Stichprobe 2
h 12

h~l

h 21

A,

h~2

h 22

h;2

h~l

h kl

A,.

h.,
h~l

h(SP, )

Verteilung aus
Stichprobe m

...

h~2

...

h ,m

...

h'm

...

h km

h~m

h;m

h'km

...

h(SP,)

h(A, )
h(A,)

h(A.)

h(SPm )

Abbildung III 22: Kontingenztabelle fr den Chi-Quadrat-Homogenittstest


Wir erkennen deutlich die Verwandtschaft des Chi-Quadrat-Homogenittstests zum
Chi-Quadrat-Unabhngigkeitstest. Die Nullhypothese beim Unabhngigkeitstest besagt nmlich, dass die bedingten Verteilungen alle gleich sind. Beim Homogenittstest entsprechen die einzelnen Verteilungen F" F,. ... , Fm genau den bedingten Verteilungen des Chi-Quadrat-Unabhngigkeitstests.
(3) Aufstellung der Entscbeidungsregel ftir die Ablebnung von H,

ber Ablehnung und Nicht-Ablehnung der Nullhypothese wird nach folgender


Regel entschieden:
Ho wird abgelehnt gegenber
HA : F,

* F fr mindestens ein Paar (i,P,


I

Beispiel 111 318

V>X'l-a, (k-1Xm-l)

falls

(J1I3: 59)

Chi-Quadrat-Homogenittstest

In einem Bundesland wurde bei 50 Kleinunternehmen, die seit mehr als zehn Jahren bestehen ("alte Unternehmen"), sowie bei 100 Kleinunternehmen, die seit weniger als zehn
Jahren bestehen ("junge Unternehmen"), der Fremdkapitalanteil am Firmenkapital bzw. die
sog. Fremdkapitalquote erfasst. Es ergab sich daraus folgende Kontingenztabelle:
Fremdkapitalquote

alte Unternehmen

junge Unternehmen

1:

o-

25%

20

15

35

25 -

50%

15

15

30

50 -

75%

10

35

45

75 - 100%

35

40

50

100

150

1:

Es soll nun anhand dieser Daten bei einem Signifikanzniveau von a = 0,02 geprOft werden,
ob die beiden Unternehmensgruppen bezglich ihrer Verschuldungssituation als homogen
betrachtet werden knnen.

3. Testen von Hypothesen

403

(t) Hypothesen und Signifikanzniveau:


Ho: Der Verschuldungssituation in beiden Gruppen stimmt Oberein.

U=

0,02

HA: Der Verschuldungssituation in beiden Gruppen stimmt nicht berein.


(2) Teststatistik und deren Verteilung:
Wir bentigen zunchst wieder die Werte h;, die wir nach der bereits bekannten Formel (1113: 53) errechnen knnen.
Fremdkapitalquote
0

25%

25

50%

50

75%

75

-100%

alte Unternehmen
20
11,67
15
10
10
15
5
13,33

junge Unternehmen
15
23,33
20
20
35
30
30
26,67

Die Teststatistik V ist nherungsweise mit (k - I}(m - I) = (4 - 1}(2 - I) = 3 Freiheitsgraden Chi-Quadrat-verteilt. Die konkrete Ausprgung vergibt sich wie folgt:

~~ (h, -h:J )'

v=L.J~

;_1 ;- 1

h;

(20-II,S7)' (15-23,33)' (15-10)'(,_2=0-c--=2~0},-'


+
+
+II,S7
23,33
10
20

(10-15)' (35-30)' (5-13,33)'(,3_",0_-2=S""S",7,--}'


+
+
+15
30
13,33
2S,67
= 5,95 +2,97 +2,50+ 0,00+I,S7 +0,83 +5,21 +0,42

= 19,55
(3) Entscheidungsregel:
Ho ablehnen gegenber HA, wenn v > X:_. ('-1)(m-1) gilt.
Dabei ist X:-a.,(k-1)lm-1) =X~,98:3 =9,84.
(4) Entscheidung:

Es gilt hier (v = 19,55) >

(x:-..

('-1)(m-1)

= 9,84).

Ho kann abgelehnt werden. Wir knnen also davon ausgehen, dass die Verschuldungssituation in beiden Unternehmensgruppen nicht bereinstimmt.

3.5 Einfache Varianzanalyse


Unter einer Varianzanalyse (engI. analysis of variaoce, ANOVA) verstehen wir
einen statistischen Test, der die Frage berprft, ob die Differenz bzw. die Differenzen der Mittelwerte von zwei oder mehr Grundgesamtheiten signifikant von
Null verschieden ist bzw. sind oder nicht. Im Vergleich zum Zweistichprobentest
fr den Mittelwert (vgl. Abschnitt III 3.3.2.1) knnen also mit diesem Test mehr als
zwei Mittelwerte gleichzeitig auf Homogenitt (Gleichheit) getestet werden. Wir
knnten daher auch von einem "Mehrstichprobentest fr die Differenz von Mittel-

111 Induktive Statistik

404

werten" sprechen. Da in die Teststatistik dieses Testverlahrens die Stichprobenvarianzen eingehen, hat sich in der Literatur jedoch die Bezeichnung Varianzanalyse
eingebrgert.
(1) Formulierung einer Nullhypothese und einer Gegenhypothese
Liegen r :2: 2 unabhngige einfache Stichproben vor, knnen die Stichprobenvariablen der j-ten Stichprobe, welche den Umfang 11, besitzt, mit Xj" ... ,XjnJ bezeichnet werden. Die Mittelwerte der betrachteten Grundgesamtheiten wollen wh
mit !Lj benennen.
Der sog. einfachen Varlanzanalysel 4 liegt die Modellannahme zu Grunde, dass die
Stichprobenvarlablen jeweils mit dem Mittelwert Il, und der Varianz ci' normalvertet sind. Die Varianzen sind also alle identisch. Wir sprechen dabei von Varlanzhomogenltt (auch hufig Homoskedastizitt genannt).15 Die x" sind also
N(Il"cr)-verteilt.
Getestet wird nun unter diesen Annahmen, ob die Verteilungen, aus denen die r
Stichproben stammen, alle denselben Erwartungswert besitzen oder nicht. Wir formulieren also das Hypothesenpaar

=!L, = ... =!L,


Mindestens zwei der !Lj sind verschieden..

Ho: !1,

HA:

(III3: 60)

(2) Ableiten einer Teststatistik V und ihrer Verteilung


Es gilt allgemein, dass sich die Gesamtstichprobenvarianz '<;e, aller

n=Lnj

j-'

Beobachtungen als Summe der externen und internen Stichprobenvarianz


darstellen lsst. Wir knnen also zunchst festhalten, dass

_m

..

zwI8chen den Gruppendurchschnla:en)

(Variation innerhalb der Gruppen)

(Variation

gilt, wobei
und
das Stichprobenmittel der j-ten Stichprobe und das Gesamtstichprobenmittel aller n
Beobachtungen sind. Diese Streuungszerlegung zeigt auf, ob sich die Varianz vor
allem durch die Variation innerhalb der Gruppen oder durch Unterschiede zwischen den Gruppen ergibt. Definieren wir nun

Q, =

LnpC
j-'

j -

Xc;.,)'

(III3: 61)

14 Weitere Verfahren der Varianzanalyse sind z.B. in Hochstdter, D., Kaiser, U. (1988),
Mickey, R.M., Dunn, OJ., Clark, V.A. (2004) oder Zfel, P. (1992) zu fmden.
15 Im Unterschied ZU Varianzheterogenitt (Heteroskedastizitt).

3. Testen von Hypothesen

405

sowie
Q, =

, "

LL(X;i -X)'

(III3: 62)

j_ 1 1... 1

und verwenden diese Gren in der Teststatistik (III3: 63), gengt diese, sofern die
Nullhypothese 11, = 11, = ... = 11. richtig ist, einer F-Verteilung mit (r - 1) und (n - r)
Freiheitsgraden. Dies beruht darauf, dass sich zeigen lsst, dass Q, bzw. Q, nach
Abschnitt III 3.3.1 mit (r - 1) bzw. (n - r) Freiheitsgraden Chi-Quadrat-verteilt sind
und somit nach Abschnitt III 3.3.3 die Testgre V F-verteilt ist16
_l_ Q ,

V= r-1

_l_ Q ,

F(r-1,n-r)

(III3: 63)

n-r

Da die XI erwartungstreue Schtzer fr ~ sind, ist bei korrekter Nullhypothese zu


erwarten, dass in einer konkreten Stichprobe die Ausprgung q, von Q, und damit
auch v gering ausfallt. Ein hoher Wert von q, fhrt umgekehrt zu einer hohen Ausprgung v und deutet damit darauf hin, dass die Gegenhypothese HA zutrifft.
Die Berechnung von q, und q, in einer konkreten Stichprobe kann durch Anwendung des Verschiebungssatzes erheblich vereinfacht werden. Es gilt nmlich

und

(3) Aufstellung der Entscbeldungsregel fr die Ablebnung von H,


Ablehnung oder Nichtablehnung wird bei diesem Testverfahren mittels des (1 - a)Fraktils der F(r - I, n - r)-Verteilung entschieden. Es gilt
H, wird abgelehnt gegenber
HA: Mindestens zwei der 11; sind verschieden,

falls

> fl-a, r-l, n-r

. (III3: 64)

Im Fall r = 2 ergibt sich bei der Varianzanalyse die gleiche Testentscheidung wie
beim Zweistichproben-t-Test mit zweiseitiger Gegenhypothese, auf dessen Behandlung wir im Abschnitt III 3.3.2.1 verzichtet hatten.
Die Varianzanalyse fhrt auch dann noch ZU brauchbaren Ergebnissen, wenn die
Modellannalune einer norrnalverteilten Grundgesamtheit nicht exakt erfllt ist.
Beim F-Test handelt es sich nmlich um einen sog. robusten Test, der auf Abwei-

chungen von der Nonnalverteilung nur schwach reagiert. Auch bei nur nherungsweise nonnalverteilter Grundgesamtheit ist also die Varianzanalyse anwendbar. Auf
die Voraussetzung der Homoskedastizitt kann dagegen nicht verzichtet werden.

16 Bei der Berechnung von Ql (Q) wird (werden) ein Cr) Mittelwert(e) geschtzt. Deswegen
reduziert sich die Anzahl der Freiheitsgrade auf r - 1 und n - f.

406

111 Induktive Statistik

Beispiel 111 3-19

Einfache Varianzanalyse

In einem Unternehmen wurden jeweils 5 Bewerber der Hochschulen I, 11, 111 und IV einem
Eignungstest unterzogen, bei dem folgende Punktzahlen erreicht wurden:
Bewerber
Hochschule
I

11
111
IV

2
4
4
16
8

2
5

8
9

2
2

7
7

7
11

Es soll anhand dieser Daten getestet werden, ob die Absolventen der einzelnen Hochschulen gleich qualifiziert sind (a = 0,01). Als Qualifikationsma soll die mittlere Punktzahl
dienen. Wir nehmen dabei an, dass die vorliegenden Ergebnisse Realisierungen normalverteilter unabhngiger Zulallsvariablen mit stets derselben Varianz sind.
(1) Hypothesen und Signifikanzniveau:
Ho: Alle vier Hochschulen besitzen die gleiche mittlere Punktzahl.

a= 0,01

(1'1 = 1'<2 = 1'3 = .,.)


HA: Nicht alle Hochschulen besitzen die gleiche mittlere Punktzahl.
(Wenigstens zwei der 1'1 sind ungleich.)
Alternativ:
Ho: Smtliche Studenten der drei Hochschulen bilden eine einzige Grundgesamtheit,
in der die Punktzahl N(I', <>")-verteilt ist.
HA: Es liegen verschiedene Grundgesamtheiten vor, in denen die Punktzahl N(l'j, <>")verteilt ist, wobei nicht alle 1'1 gleich sind.
(2) Teststatistik und deren Verteilung:
Zur Berechnung der notwendigen Mittelwerte empfiehlt sich zunchst die Verwendung
der folgenden Tabelle:
Bewerber (i)
Hochschule
I

11
111
IV
Stichprobengesamtsumme
Stichprobengesamtmittel
14/5=2,8

Stichproben-

summe

Stichprobenmittel

14

2,8

24

4,8

16

7
8

7
11

9,0

7
7

45

43

8,6

126

6,3 **
126/ (4 5) = (2,8 + 4,8 + 9,0 + 8,6) / 4 = 6,3

407

3. Testen von Hypothesen


Aus diesen Ergebnissen knnen wir folgende Werte bestimmen:

CI, = Lnjxf -nx~ = (52,8' +54,8' +59' +58,6')-(45)6,3'


j _1

=929,2-793,8 = 135,4
q, =

LLx; - Lnjxf = (4' +5' +2' + ... +11')-929,4 = 1026-929,2 =96,8

J=l 1. 1

J=l

Es ergibt sich so fOr die konkrete Ausprgung der Teslgre

v = (n -r)CI, = (45-4) 135,4


(r-l)q,
(4-1)96,8

2.166,4 = 7 46
29Q,4
"

wobei V mit r - 1 = 3 und n - r = 16 Freiheitsgraden F-verteilt ist.


(3) Entscheidungsregel:

Ho ablehnen gegenber HAI wenn v> fl _a , r-1, n-r gilt.


Dabei ist f1-a,r-1,n-r =10,.;3;1(1 =5,29.
(4) Entscheidung:
Es gilt hier (v = 7,46) > (f,_. Ho ,_, = 5,29)
Ho kann abgelehnt werden. Es kann also nicht angenommen werden, dass die Studenten der vier Hochschulen die gleiche Qualifikation aufweisen.

3.6 berblick ber die behandelten Testverfahren


Die folgende Tabelle bietet einen berblick ber die wichtigsten in diesem Kapitel
besprochenen Testverfahren. Der Begriff Grundgesamtheit ist darin mit GG abgekrzt. Es wird generell davon ausgegangen, dass sehr groe Grundgesamtheiten
vorliegen, sodass Auswahlstze von kleiner als 10 % resultieren.
Nullhypothese

11=!1,
(0" bekannt)

Teststatistik V

Verteilung von V

X -110

.Jn

0"

Standardnonnalverteilung,

wenn GG normalverteilt
oder GG beliebig verteilt mit

n > 30

11=!1,
(0" unbekannt)

p = Po

X ~ 110

.Jn

0"

f> - Po

~Po(1:po)
a'=<f,

(n-1)'

<f,

t-Verteilung mit n - 1 Frei-

heitsgraden,
wenn GG normalverteilt
Standardnormalverteilung,
wenn GG beliebig verteilt
undn>30
Standardnonnalverteilung,
wenn np,(l-p,) ~ 9

Chi-Quadrat-Verteilung mit

n - 1 Freiheitsgraden,
wenn GG nonnalverteilt

408

111 Induktive Statistik


IL,-IL,
(0'1' 0'2

und a,

bekannt

" a,>

und

Pt

0'1

wenn GG nonnalverteilt
oder GG beliebig verteilt
und n, > 30 und n, > 30

a~

~~+ n2

IL,-IL,
(0'1' 0'2

Standardnormalverteilung,

X, -X2

Standardnormalverteilung,
wenn GG nonnal- oder
beliebig verteilt und jeweils
n,>30undn,>30

Xl -X 2

Cf.,

unbekannt
-:F

0)

'2
2

~~+ 2
p, -P2

P2

..}P(1- P)~
mit p =

+n 2

01

n 1n 2

PI

n,p2(1- P2);'9

nS)1 + n2 P2
01 +n 2

a;=<f,

'2

F-Verteilung mit 11, - 1 und


nz - 1 Freiheitsgraden, wenn

0,

'2
2

1\-0

Standardnormalverteilung,
wenn n 1 (1- PI) ~ 9 und

GG normalverteilt

t-Verteilung, mit n - 1

~,;n

Freiheitsgraden, wenn GG

normalverteilt und n :s; 30


Standardnormalverteilung,

p-o
(Bravais-Pearson)

wennn> 30
R.Jn-2
..}1- R2

p-o

R.Jn-1

(Spearman)
Stichprobe
stammt aus einer
GG mit bestimmter Verteilung.

Zwei Merkmale X

und Y sind unabhngig voneinan-

Ch-h
I
I
j=1

f
1_1 j_1

h~

Ch'j -oh;/

hij

der.

t-Verteilung mit n - 2 Freiheitsgraden,

wenn GG normalverteilt
Standardnormalverteilung,
wenn n > 30 und Merkmale
mindestens ordinal skaliert
Chi-Quadrat-Verteilung mit
k - g - 1 Freiheitsgraden,
wenn h~ ;, 5 fr alle j
Chi-Quadrat-Verteilung mit
l)(m - 1) Freiheitsgraden, wenn h; ~ 5 fr alle i
undj
(k -

Bei bekannten Randwahr-

scheinlichkeiten sind km - 1
Freiheitsgrade zu verwenden.

11, =112 ==11,

Cn - r)Q,
Cr -l)Q2

F-Verteilung mit r - 1 und


n - r Freiheitsgraden,
wenn GG normalve:rteilt und
Homoskedastizitt

4.

Aufgaben

Punktschtzung
Aufgabe PSI
Beweisen Sie rechnerisch den im Fall des Ziehens mit Zurcklegen geltenden Zusammenhang E(') = 0' !
AufgabePS2
Im Rahmen des Qualittsmanagements wurde zwischen einem Unternehmen und

einem Lieferanten die Vereinbarung getroffen, dass eine Lieferung 000.000 Stck)
dann abgelehnt wird, wenn bei einer Stichprobe (ohne Zurcklegen) von 500
Stck mehr als 5 % der Artikel nicht die vorher vereinbarte Qualitt aufweisen.
Wie gro ist die Wahrscheinlichkeit, dass eine bestimmte Lieferung abgelehnt wird,
wenn sie einen Anteil von 3 % mangelhafter Artikel enthlt?
AufgabePS3
Ein Wirtschaftsforschungsinstitut stellt bei Erhebungen zum Geschftsklima fest,
dass von 3.000 Unternehmen in Sddeutschland 1.200 einen Konjunkturaufschwung erwarten. Die Wahrscheinlichkeit dafr, dass in einer Stichprobe (ohne
Zurcklegen) von 200 aus den 3.000 befragten Unternehmen der Anteil der optimistischen Unternehmer hchstens b betrgt, liege bei 80 %.
Bestimmen Sie b!
AufgabePS4
In einem Lager fr Feingold gingen in einem Monat 350 Lieferungen ein. Nach den

vorliegenden Materialeingangsscheinen ergibt sich ein durchschnittlicher Lieferwert


von 1.550 Euro bei einer Standardabweichung von 150 Euro. Aus diesen Materialeingangsscheinen wird eine Stichprobe im Umfang von 50 (ohne Zurcklegen)
entnommen.

Wie gro ist die Wahrscheinlichkeit, dass der durchschnittliche Lieferwert der
Stichprobe zwischen 1.500 Euro und 1.600 Euro liegt?
AufgabePS5
In einer Schachtel befinden sich drei Diamanten mit den Gewichten 2, 4 und 6

Gramm. Es werden nun zwei Diamanten zufallig (mit Zurcklegen) gezogen.

a) Bestimmen Sie Erwartungswert und Varianz der Grundgesamtheit und des


Stichprobenmittelwertes!
b) Geben Sie die Wahrscheinlichkeitsverteilung des Stichprobenrnittels an!

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_13, Springer Fachmedien Wiesbaden 2015

111 Induktive Statistik

410

AufgabePS6

Zwei Maschinen fllen unabhngig voneinander Konserven ab, wobei fr das


durchschnittliche Fllgewicht der Dosen von Maschine A und B gilt:
Maschine i
1

850 g

4g

850 g

6g

Es werden nun Stichproben im Umfang von n, - 100 und n, - 120 entnommen.


Bestimmen Sie die Wahrscheinlichkeit dafr, dass sich die durchschnittlichen Fllgewichte in den Stichproben um hchstens 2 g unterscheiden!
AufgabePS7

Angenommen der Anteil der Koalitionswhler unter den Wahlberechtigten eines


groen Wahlkreises betrage 52 %.
a) Wie gro ist die Wahrscheinlichkeit, dass bei einer Zufallsstichprobe im Umfang
von 500 Personen der Anteil der Koalitionswhler kleiner als 50 % ist?
b) Wie gro msste der Stichprobenumfang sein, wenn
soll?

pep

< 0,5) - 0,0367 gelten

AufgabePS8

Eine Partei mchte in zwei Wahlkreisen A und B mit NA - 20.000 und NB - 10.000
Wahlberechtigten die Anteile PA und PB der ihr positiv gesinnten Wahlberechtigten
und den unbekannten Gesamtanteil p schtzen. Dazu werden einfache Stichproben
im Umfang von n A und n. gezogen, in der die Wahlberechtigten nach ihrer Einstellung zur Partei befragt werden (Befrwortung, keine Befrwortung). Ein Parteifunktionr schlgt folgende Schtzfunktionen vor, in denen PA bzw. PB den Zufallsabhngigen Anteil der Befrworter aus den jeweiligen Stichproben bezeichnen:
(1)
(2)

(3)

_ 1(_

_)

p=- PA +PB
2

Beurteilen Sie die Gte dieser Schtzfunktionen hinsichtlich ihrer Erwartungstreue


und bestimmen Sie fr zwei Stichproben des Umfangs nA - 80 (30 Befrworter)
und n. - 20 (10 Befrworter) mittels der erwartungstreuen Schtzfunktion die
Schtzwerte fr PA> PB und p!
AufgabePS9

Zeigen Sie, dass X und S' die Maximum-Likelihood-Schtzer fr die Parameter I!


und ci' einer Nortnalverteilung sind!

4. Aufgaben

411

Intervallschtzung

AufgabelSt
In einer Grobckerei sticht eine Maschine aus einer durchlaufenden Teigmasse
runde Pltzchen aus. Aufgrund langer Erfahrung sieht man die Durchmesser der
dabei entstehenden Pltzchen als nonnalverteilt mit einem bestimmten Erwartungswert von !l. mm und einer Standardabweichung von CJ = 0,66 mm an. Aus der
laufenden Produktion werden nun 10 Pltzchen zufallig entnommen und ihr
Durchmesser festgehalten. Dabei ergeben sich folgende mm-Werte:
20,1

20,4

20,3

20,7

20,1

21,0

20,3

20,2

20,1

19,9

a) Fhren Sie eine Intervallschtzung fr den Erwartungswert !l. zu einer Irrtumswahrscheinlichkeit von 5 % durch!
b) Nehmen Sie nun an, die Standardabweichung CJ der Grundgesamtheit sei unbekannt. Wie verndert sich dadurch die Intervallschtzung aus a)?

AufgabelS2
Das Durchschnittsgewicht von 2.000 Konservendosen soll bei einem Konfidenzniveau von 95 % und einem absoluten Fehler von 1 g geschtzt werden.
Wie gro muss eine ohne Zurcklegen gezogene Stichprobe dazu mindestens sein,
wenn die Varianz der Grundgesamtheit mit ci' = 35 g' bekannt ist?

AufgabelS3
In einer Studie zum Sprirverbrauch von Pkws wurden 60 Pkws eines bestimmten
Modells mit 50 Liter Benzin ausgestattet und anschlieend auf einer Rennstrecke
bei 100 km/h gefahren. Mit dieser Fllung legten die Fahrzeuge im Durchschnitt
x = 550 km bei einer Standardabweichung von " = 25 km zurck.
a) Berechnen Sie das Ergebnis einer Intervallschtzung (Vertrauenswahrscheinlichkeit 95 %) fr die durchschnittliche Kilometerleistung !l. und interpretieren
Sie das geschtzte Intervall!
b) Ist es mglich, einen exakten Mindeststichprobenurnfang n anzugeben, der garantiert, dass bei gegebener Vertrauenswahrscheinlichkeit die Intervallschtzung
fr die durchschnittliche Kilometerleistung !l. eine bestimmte Lnge aufweist?

AufgabelS4
Ein Wirtschaftsforschungsinstitut fragt in einer Region 700 von 5.000 Unternehmen
nach ihrem Monatsumsatz. Es ergab sich dabei ein durchschnittlicher Monatsumsatz
von x = 25.550 bei einer Standardabweichung von " = 9.120 .
a) Bestimmen Sie ein Schtzintervall fr den Mittelwert !l. der Grundgesamtheit mit
einer Vertrauenswahrscheinlichkeit von 99 %!
b) In welchen Grenzen wird der Umsatz aller Unternehmen der Region mit 99 %
Wahrscheinlichkeit liegen?

111 Induktive Statistik

412

AufgabeIS5
Von 50.000 Gsten der internationalen Autoausstellung in Frankfurt am Main wurden 200 zufllig hinsichtlich des Pkw befragt, den sie halten. Unter den befragten
Personen befanden sieb 50, die die Marke XY besaen.
Bereebnen Sie das 95,45 % - Schtzintervall fr den Anteil p der Personen der
Grundgesamtheit, die die Marke XY besitzen!

AufgabeIS6
In einem Versandhaus wurde fr 40 Tage die Anzahl X der Bestellungen erfasst,
die fr einen bestimmten Artikel pro Tag eingehen. Es ergab sich
8; 3; 10; 9; 13; 15; 17; 8; 9; 10i 12; 15; 5; 7; 8; 20; 10; 2; 5; 18;
7; 5; 17; 1; 12; 14; 11; 1; 2; 19; 13; 10; 9; 6; 6; 21; 11; 2; 5; 22.

Fhren Sie eine Intervallsebtzung zum Konfidenzniveau von 95 % fr die unbekannte Wahrscheinlichkeit p durch, dass mindestens 10 Bestellungen pro Tag fr
den Artikel eingehen!

AufgabeIS7
Eine Blitzumfrage unter 1.000 zufllig ausgewhlten wahlberechtigten Bundesbrgern soll Aufschluss ber den derzeitigen Whleranteil einer Partei A geben. Die
Befragung ergab, dass im Moment nur 80 Personen fr diese Partei stimmen wrden. Der Rest wrde sich fr andere Parteien entscheiden.
a) Bestimmen Sie ein Schtzintervall zum Konfidenzniveau von 99 % fr den Anteil P detjenigen Wahlberechtigten, auf die sich die Partei verlassen kann und
interpretieren Sie dieses!
b) Aufgrund des Befragungsergebnisses wird als sicher angesehen, dass sich der
Stichprobenanteilswert p bei Erhhung des Stichprobenumfangs n hchstens
noch auf den Wert 0,1 erhht. Welcher Stichprobenumfang garantiert
eine Lnge des Konfidenzintervalls von 1 %?

AufgabeIS8
Eine Untersuchung ZU den Kontofhrungsgebhren bei Kreditinstituten in der
Bundesrepublik ergab fr die jhrlieben Kosten eines "Modellkontos" bei 20 Banken die folgenden Euro-Werte:
10

46

86

33

51

99

47

90

91

59

72

83

22

15

54

52

65

58

46

75

Es wird angenommen, dass die Grundgesamtheit nonnalverteilt ist.

a) Schtzen Sie die Varianz


scheinlichkeit von 90 %!
b) Bestimmen Sie fr

IX -

cr' durch ein Konfidenzintervall zur Vertrauenswahr-

0,05 ein Schtzintervall fr die mittleren Kosten 11!

4. Aufgaben

413

Testen von Hypothesen


Aufgabe Tl
Fr eine bevorstehende Bundestagswahl wurde von einem Meinungsforschungsinstitut fr eine Partei eine Umfrage unter 1.500 Whlern durchgefhrt. Diese ergab,
dass von diesen Whlern derzeit genau 105 fr diese Partei stimmen wrden.
a) Testen Sie die Hypothese H" dass der Stimmenanteil p dieser Partei unter den
Wahlberechtigten hchstens 5 % betrgt! Das zu verwendende Signifikanzniveau sei a = 0,02.
b) Ab welchem Whleranteil in der Stichprobe kann die unter a) verwendete Gegenhypothese als besttigt angesehen werden?

AufgabeT2
Zehn Trageseile eines bestimmten Herstellers wurden der Produktion zufllig entnommen und einem Belastungstest unterzogen. Die Traglast wurde dabei so lange
erhht, bis das Seil riss. Der Riss geschah bei folgenden kg-Gewichten x,:
2.000, 2.030, 2.010, 2.040, 2.035, 1.995, 2.025, 2.005, 1.975, 2.050
a) Testen Sie unter der Annahme, dass die Seile hinsichtlich des Reigewichts X
einer Normalverteilung gengen, die Hypothese Ho, dass das mittlere Reigewicht 11 mindestens 2.000 kg betrgt! Gehen Sie dabei von einem Signiftkanzniveau von Cl = 0,01 aus! Interpretieren Sie Ihr Ergebnis, wenn der Test von
einem Konkurrenzunternehmen dazu verwendet wird, ZU beweisen, dass die
Seile des Herstellers bereits bei Gewichten von unter 2.000 kg reien!
b) berprfen Sie ebenfalls bei a - 0,01 und der Annahme einer normalverteilten
Grundgesamtheit die Hypothese H,: rI - 440 gegen die Hypothese HA: rI 440!
rI ist dabei die Varianz des Reigewichts in der Grundgesamtheit aller produzierten Seile.

Aufgaben
Durch den Bau einer Umgehungsstrae soll das Verkehrsaufkommen an einer vielbefahrenen Kreuzung reduziert werden. Vor Bau der Umgehungsstrae (Situation
1) wurden bei 100 zufalligen Beobachtungen im Durchschnitt 25 Fahrzeuge/Minute
bei einer Varianz von 7 an der Kreuzung registriert. Nach Bau der Umgehungsstrae (Situation 2) wird eine erneute Stichprobe gezogen, die Folgendes ergibt:
Anzahl passierender
Fahrzeuge:

10

15

20

21

25

28

30

34

Huftgkeit in der
Stichprobe:

10

Testen Sie Ho: 11, S 11, gegen HA: 11, > 11, bei einem Signifikanzniveau von a - 0,01
und interpretieren Sie Ihr Ergebnis im Sinne der geschilderten Situation!

111 Induktive Statistik

414

AufgabeT4
Zwei Gruppen von Studenten (n, = 16, n, = 10) absolvieren einen Test, wobei sich
in Gruppe 1 eine mittlere Punktzahl von x, - 40 bei einer Standardabweichung von
0, - 4,5 Punkten ergibt. 1n Gruppe 2 stellt man x, - 43,5 bei 0, - 2,2 fest.
Prfen Sie auf einem Signifikanzniveau von Cl = 0,02, ob der beobachtete Unterschied der beiden Stichprobenstandardabweichungen signifikant ist! Welche Annahme bzgl. der Verteilung der Grundgesamtheiten mssen Sie treffen, damit der
Test, den Sie fr die Prfung verwenden, angewendet werden kann?
AufgabeTS
Krzlich wurde in einer Fernsehshow untersucht, ob die Betrachtung einer erotischen Darbietung den Puls im gleichen Ausma ansteigen lsst, wie sportliche Bettigung. Dazu wurden 50 Mnner fr 10 Minuten auf ein Laufband geschickt und
dauernd ihr Puls festgehalten. Danach durften dieselben Mnner eine erotische
Tanzeinlage betrachten. Auch hier wurde 10 Minuten lang der Puls registriert. Diese
Stichprobe ergab, dass der Puls durch die sportliche Bettigung strker angestiegen
war. Der Unterschied lag im Durchschnitt bei 20 Schlgen pro Minute bei einer
Standardabweichung von 8 Schlgen pro Minute.
Testen Sie bei einem Signifikanzniveau von Cl = 0,01 die Nullhypothese, dass sich
in der Grundgesamtheit die Mittelwerte der Pulsfrequenzen in beiden Situationen
nicht unterscheiden! Erklren Sie, warum sich hier durch verbundene Stichproben
im Vergleich zu unabhngigen Stichproben ein EfftZienzgewinn erzielen lsst!
AufgabeT6
In der Filiale einer Bank wurden zufallig 40 Kunden ausgewhlt und gebeten hinsichtlich ihrer allgemeinen Zufriedenheit mit der Filiale und der Freundlichkeit der
Angestellten Noten von 1 bis 4 zu vergeben. Es ergab sich aus den Befragungsergebnissen ein Rangkorrelationskoeffizient von 0,46.
Testen Sie auf einem Signifikanzniveau von a = 0,05, ob diese Korrelation signifikant von Null verschieden ist!
AufgabeT7
Eine Stichprobe im Umfang von n = 100 ergibt fr zwei normalverteilte Zufallsvariablen X und Y einen Korrelationskoeffizienten von r = 0,08.
a) Kann hieraus mit einer Irrtumswahrscheinlichkeit von Cl = 0,05 die Behauptung
p > statistisch abgesichert werden?
b) Wie gro msste der Stichprobenumfang n mindestens sein, damit der Korrelationskoeffizient r = 0,08 mit IX = 0,05 signifikant grer als Null ist?

AufgabeT8
Eine Mnze, die Kopf oder Zahl zeigen kann, wird 200-mal geworfen. Es fllt dabei
80-mal Kopf und 120-mal Zahl.
Kann durch diese Stichprobe nachgewiesen werden, dass es sich um eine manipulierte Mnze handelt (Signiftkanzniveau IX = 0,01)? Geben Sie auerdem das Testverfahren an, das neben dem von Ihnen verwendeten ebenfalls zur Beantwortung
dieser Fragestellung herangezogen werden knnte!

4. Aufgaben

415

AufgabeT9
Bei Verwendung eines bestimmten Werkstoffes ergaben sich in der Vergangenheit
pro Tag bei einer bestimmten Fertigungsmaschine Strflle, deren Anzahl als Zufallsvariable X' betrachtet werden kann. Ihre Wahrscheinlichkeitsverteilung konnte
aufgrund langer Erfahrung wie folgt bestimmt werden:

Pi = P(X' = j)

0,15

0,20

0,30

0,20

0,15

Nach Wechsel des Werkstofflieferanten soll auf einem Signifikanzniveau von


= 0,05 getestet werden, ob die Anzahl X der nun auftretenden Strflle noch immer wie X' verteilt ist. Es wurden dazu in einem Beobachtungszeitraum von 100
Tagen folgende Hufigkeiten h, festgestellt, mit denen j Strflle auftraten:

11

28

33

18

10

AufgabeTIO
Eine exakte und eine kostengnstige, ungenauere Messmethode sollen miteinander
verglichen werden. Es werden dazu 80 Messungen vorgenommen und jeweils die
Unterschiede der Ergebnisse beider Methoden X (in mg) aufgezeichnet. Es wurde
dabei eine Einteilung in Fehlerklassen vorgenommen, die folgende Hufigkeiten
aufweisen:

l-; -11

l-1; -0,51

1-0,5; -0,11

1-0,1; 0,11

10,1; 0,51

10,5; 11

10

17

12

16

[1;

~[

berprfen Sie die Hypothese, dass der auftretende Messfehler einer Standardnormalverteilung gengt (Signifikanzniveau a = O,05)!

AufgabeTll
An einer Mathematikklausur nahmen 200 mnnliche und 100 weibliche Studierende
teil. Es wurden dabei folgende Ergebnisse erzielt:
Note

Mnner

Frauen

1:

15

20

35

15

50

50

20

70

60

10

70

40

50

90

1:

200

100

300

Entsprechen die Leistungen der Frauen detjenigen der Mnner (a = O,05)?

111 Induktive Statistik

416

AufgabeTlZ
Prfen Sie bei einem Signifikanzniveau von a - 0,01 die Behauptung, dass die fol-

~ genden zufllig erzeugten Zahlen gleichverteilt sind!

5
3
3
6
9

1
10
2

7
2

8
5

9
1
3
4
1
8
10
1

7
8
2

10

8
6

8
5
8

1
1
2

6
4
10

4
4

1
5
10
6
3
1
5

3
3
5
10
3

10

AufgabeTl3
Bei einem Unternehmen bewerben sich auf offene Stellen 60 Jugendliche mit und
40 Jugendliche ohne Ausbildung. 70 Bewerber werden nicht als geeignet empfunden, davon haben 40 eine AusbildWlg.
Lsst sich mit diesem Ergebnis bei einem Signifikanzniveau von a - 0,05 statistisch
nachweisen, dass Berufsausbildung und PrUfungsergebnis voneinander abhngig
sind?

AufgabeTl4
Einer einfachen Varianzanalyse lag eine Untersuchung zugrunde, die bei jeweils 5
Schlern aus 6 Klassen zur Feststellung des technischen Verstndnisses die Zeit (in
Minuten) erfasste, die zum Zusammenbau einer technischen Apparatur bentigt
wurde. Das Testverfahren ergab, dass die Schler der 6 Klassen nicht als gleich geschickt angesehen werden knnen.
ndert sich das Testergebnis, welUl die Zeit nicht in Minuten, sondern in Stunden
gemessen wird.? Begrnden Sie Ihre Antwort!

AufgabeTlS
Auf 5,6 bzw. 7 gleich groen Feldern werden drei verschiedene Weizensorten W1,
W2 und W, angebaut, wobei sich folgende Ernteertrge (in Tonnen) ergaben:
Weizen W1

12

13

11

11

10
10

Weizen W2

11

Weizen W,

10

11

13

13
10

12
9

Testen Sie, ob die drei Sorten im Mittel den gleichen Ertrag abwerfen! Nehmen Sie
dabei an, dass die Ergebnisse Realisierungen normalverteilter, unabhngiger Zufallsvariablen mit gleicher Varianz sind CSignifikanzniveau a - 0,05)! Interpretieren
Sie Ihr Testergebnis!

IV

EINFHRUNG IN DIE
KONOMETRIE

Mit diesem letzten Kapitel wollen wir methodische Grundlagen legen, die vor
allem fOr den empirisch arbeitenden Wirtschaftswissenschaftler und fr Studenten von Interesse sind, die sich in ihren Diplom- bzw. Bachelor- oder Masterarbeiten mit empirischen Fragestellungen auseinandersetzen wollen.
Die Okonometrie (engl. econometrics = economic measurement) bzw. die
Regressionsanalyse als eines ihrer bedeutendsten Teilgebiete befasst sich mit
der Untersuchung quantitativer Zusammenhnge zwischen Variablen. Sie liefert uns ein Instrumentarium, mit dem wir die Vernderungen einer Variablen
durch Vernderung einer oder mehrerer anderer Variablen erklren knnen.
Durch eine derartige M~.9lichkeit der Erklrung der Entwicklung einer Variablen ermglicht uns die Okonometrie auch die Prognose zuknftiger Vernderungen. Dies hat vor allem im Zusammenhang mit wirtschafts- und unternehmenspolitischen Entscheidungen groe Bedeutung.
Die empirische Wirtschaftsforschung liefert zahlreiche Beispiele fr die Schtzung konomischer Zusammenhnge mit Hilfe von Daten. So mchten Regierungen beispielsweise die kurz- und langfristigen Effekte von Steuerreformen
auf wichtige Variablen wie Beschftigung, Inflation und Bruttoinlandsprodukt
abschtzen. Sie interessieren sich auerdem dafOr, inwieweit eine Erhhung
der Tabaksteuer den Zigarettenkonsum reduziert. DafOr wird eine Nachfragefunktion fOr den Tabakkonsum geschtzt.

1.

Grundlagen

In diesem Abschnitt beschftigen wir uns damit, was allgemein unter dem Begriff Regressionsanalyse zu verstehen ist, stellen ihre Ziele vor und den Bezug zu verwandten
Termini wie Korrelation und Kausalitt her. Wir bieten auerdem eine Einfhrung in eines
der wichtigsten Okonometrischen Schtzveriahren, das Prinzip der kleinsten Quadrate.
Dieses ermglicht es uns, funktionale Zusammenhnge zwischen Variablen bei gegebenem Datenmaterial zu charakterisieren und ist daher im Rahmen dieses Abschnitts IV t
als rein deskriptives Instrument zu verstehen. Seine induktiven Qualitten werden wir im
Rahmen der Abschnitte IV 2 und IV 3 behandeln.

1.1

Was ist Regressionsanalyse?

1.1_1

Ziele der Regressionsanalyse

Unter Regressionsanalyse verstehen wir allgemein die quantitative Analyse von Zusammenhngen zwischen Variablen. Sie versucht durch Quantifizierung theoretischer Modelle die Brcke zwischen abstrakter Modelltheorie und realer Welt zu
schlagen. Da bei solchen Analysen unterschiedliche Ziele verrolgt werden knnen,
ist eine Betrachtung dieser Ziele ein erster wichtiger Schritt Zu ihrem Verstndnis.
Die Regressionsanalyse dient erstens dazu, die Real/tt zu beschreiben. Eine Quantifizierung wirtschaftswissenschaftlicher Zusammenhnge ist mglich, da die Regressionsanalyse erlaubt, konkrete Beziehungen zu schtzen, fr die ursprnglich
nur abstrakte Parameter in Modellgleichungen eingesetzt wurden.
Beispiel IV 1-1

Nachfragefunktion

Die von Konsumenten nachgefragte Menge X wird hufig als lineare Funktion der Preise
des betrachteten Gutes (P), des Substitutionsgutes (ps) und des Komplementrgutes (pK)
sowie des verfgbaren Haushaltsainkommens M abgebildet. Steigende Preise P und p K
verursachen bei normalen Gtern einen Rckgang, Zunahmen von pS und Y eine Erhhung der nachgefragten Menge.
X =f(P,pS,P", Y) = o +,P+,ps +,P" +,Y
-

Die Regressionsanalyse erlaubt nun die obige allgemeine Gleichung unter Verwendung
von Stichprobendaten konkret zu schtzen. So kann sich dabei z.B. ein Zusammenhang
X = 2230-63P+15p s -32P" +23Y
ergeben. Whrend wir mit der allgemeinen Nachfragefunktion nur aussagen konnten, dass
bei einer Erhhung des Preises des Substitutionsgutes (P") um eine Einheit die nachgeB. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_14, Springer Fachmedien Wiesbaden 2015

IV Einfijhrung in die konometrie

420

fragte Menge um ~1 Einheiten steigt, knnen wir nun mit der geschtzten Nachfragefunktion argumentieren, dass eine Erhhung des Preises pS um eine Einheit (bei Konstanthaltung aller anderen Einflussfaktoren) konkret eine Erhhung der nachgefragten Menge um
15 Einheiten auslst. Wir bezeichnen den Wert 15 als geschtzten Regressionskoeffizienten oder -parameter.

Zweitens erweist sich die Regressionsanalyse beim Testen von Hypotbesen ber die
Parameter der Grundgesamtheit als uerst wertvoll. Bevor nmlich fr ein Modell
ausgesagt werden kann, dass es die Realitt CGrundgesamtheit) gut beschreibt und
es damit zur Prognose verwendet werden kann, gilt es die empirische Gltigkeit
des Modells zu berprfen.
Beispiel IV 1-2

Nachfragefunktion

Im obigen Beispiel IV 1-1 knnte z.B. die Hypothese getestet werden, ob es sich beim betrachteten Gut um ein normales Gut (Gut bei dem mit zunehmendem Einkommen Y auch
die Nachfrage nach dem Gut steigt) handelt. Auf den ersten Blick wrde der geschtzte
Koeffizient 23 fijr das Haushaltseinkommen Y diese Hypothese untersttzen, da er positiv
ist. Bevor eine solche Schlussfolgerung aber wirklich gerechtfertigt ist, muss mit einem
entsprechenden Testverfahren geprft werden, ob der geschtzte Koeffizient signifikant
grer afs Null ist. Erst dann kann von einem normalen Gut gesprochen werden.

Ist die empirische Gltigkeit des Modells durcb entsprecbende Tests untenmauert,
besteht das dritte Ziel der Regressionsanalyse in der Abgabe von Prognosenl Aus
historischem Datenmaterial geschtzte Modelle werden von konomen nmlich
hufig benutzt, um z.B. Prognosen fr das knftige BIP-Wachstum oder die Infiationsrate abzugeben. Die Genauigkeit solcher Prognosen ist natrlich zum Groteil
davon abhngig, ob die vergangene Entwicklung solcher Variablen wirklich Informationen ber ihre zuknftige Entwicklung liefern kann.
Beispiel IV 1-3

Nachfragefunktion

Greifen wir noch einmal auf unsere geSChtzte Nachfragefunktion aus den vorhergehenden Beispielen zurck und nehmen an, dass ein Unternehmer, der das betroffene Gut herstellt, eine Preiserhhung beabsichtigt. Stnde ihm das geschtzte Regressionsmodell zur
Verfgung und htte sich dieses auch in einer Reihe von empirischen Tests bewhrt, so
knnte er damit die zu erwartenden Umstze mit und ohne Preiserhhung in den Folgeperioden prognostizieren. Dies stellt fr ihn sicherlich eine wichtige Planungs- und Entscheidungs~rundlage fr den Mitteleinsatz in zuknftigen Perioden dar. Ist z.B. P = 1 ,
pS = 2 , P = 1 und Y = 1 Tsd. , so ergibt sich eine prognostizierte Absatzmenge von
X = 2188 Stck. Ist hingegen P = 2 , so resultieren X = 2125 Stck.

1 Anders als die meisten Lehrbcher werden wir das Thema uPrognose" erst am Schluss behandeln (vgl. Abschnitt N 6), da eine Prognose ohne genaue Untersuchung der Modell-

gte und -spezifikation (vgl. insbesondere Abschnitt N 4) oft fehlerbebaftet ist.

1. Grundlagen

1.1.2

421

Grundgedanken und Abgrenzungen

Wie wir gesehen haben, bedienen sich Wirtschaftswissenschaftler der Regressionsanalyse, um quantitative Schtzungen der Zusammenhnge zwischen Variablen zu
gewinnen, die vorher nur rein theoretisch fonnuliert wurden. Die Regressionsanalyse ist also ein statistisches Verfahren, welches versucht, die Vernderung
einer sog. erklrten, abhngigen oder endogenen variablen (Regressand) ber
die Vernderungen einer Reihe sog. erklrender, unabhngiger oder exogener
Variablen (Regressoren) durch Quantiflzierung einer einzelnen Gleichung zu erklren. Sie kommt hufig zum Einsatz, da sich wirtschaftswissenschaftliche Zusammenhnge oft durch eine Gleichung abbilden lassen (vgl. Beispiel N 1-1).
Eine Regression kann feststellen, ob eine quantitative Beziehung zwischen den er-

klrenden Variablen und der erklrten Variable besteht. Ein Regressionsergebnis


allein kann aber trotz statistischer Signifikanz keine Kausalitt beweisen, da eine

statistische Beziehung niemals Kausalitt impliziert. Um Kausalitt zu begrnden,


bentigt man zustzlich Theorien und a-priori-Wissen auerhalb der Statistik. Trotzdem dient die Regressionsanalyse und andere Verfahren der konometrie im
Gegensatz zur Korrelationsanalyse dazu, Kausalitten zu erforschen. Damit die
empirische Regressionsanalyse dazu in der Lage ist, mssen aber strenge Annahmen (vgl. Abschnitt N 2.2) erfllt sein. Diese Annahmen knnen in ihrer Gesamtheit wiederum nur mit Hilfe von konomischen Theorien und a-priori-Wissen
auerhalb der Statistik berprft werden. Denn auch die statistischen Verfahren zur
berprfung der Annahmen basieren auf gewissen Annahmen, die mit Hilfe konomischer Theorien begrndet werden. Gerade daher bentigt man zwingend apriori-Wissen auerhalb der Statistik, um Kausalitten zu begrnden. Das wohl bekannteste Beispiel lieferte in diesem Zusammenhang der englische konom Stanley ]evons. Er untersuchte die Hypothese, dass Sonnenflecken (erklrende Variable) das Bruttoinlandsprodukt (erklrte Variable) beeinflussen. Dazu fhrte er eine
Regressionsanalyse mit entsprechendem Datenmaterial durch und stellte fest, dass
ein signifIkant positiver Zusammenhang vorliegt.2 Da wir aber keine inhaltliche
Begrndung fr eine kausale Beziehung zwischen den Variablen haben, knnen
wir daraus nicht folgern, dass eine Vernderung der Sonnenfleckenanzahl kausal
fr eine Vernderung des Bruttoinlandsproduktes ist.
Eng verwandt, jedoch konzeptionell von der Regressionsanalyse sehr verschieden,
ist die Korrelationsanalyse (vgl. Abschnitt I 3.2). Ihr Primrziel ist die Messung
der Strke und Richtung eines Itnearen Zusammenhangs zwischen zwei Variablen
(z.B. Mathematik- und Statistiknoten). Zudem werden die zwei betrachteten Variablen symmetrisch behandelt, d.h. es wird nicht zwischen erklrten und erklrenden Variablen unterschieden. Der Korrelationskoeffizient zwischen einer Variablen
A und einer Variablen B ist demnach identisch mit dem zwischen Bund A. In der
Regressionsanalyse unterscheiden wir bewusst zwischen erklrter und erklrender
Variable und es wird vielmehr versucht den Wert einer Variablen auf Basis gegebener Werte erklrender Variablen zu prognostizieren (z.B. die nachgefragte Menge
in Abhngigkeit vom Einkommen).
2 Vgl. Jevons (1987). In einer vorgelagerten Studie untersuchte Jevons (1985) auerdem den
Einfluss von Sonnenflecken auf den Preis von Getreide. Beide Papiere bildeten den Ausgangspunkt der bekannten !lsunspot theory of the business cyde".

422

IV Einfijhrung in die konometrie

1.2 Das Prinzip der kleinsten Quadrate


In Beispiel N 1-1 haben wir gesehen, dass mittels Stichprobendatenmaterial in Modellen abstrakte Parameter durch konkrete Zahlen ersetzt werden knnen. Um derartige Schtzungen Zu gewinnen, bedienen wir uns im Rahmen der Regressionsanalyse hufig dem Prinzip der kleinsten Quadrate, kurz OlS (engI. ordinary least
squares). Dieses ist sowohl auf Modelle mit einer als auch auf Modelle mit mehreren erklrenden Variablen anwendbar und wird im Folgenden zunchst rein deskriptiv behandelt.

1.2.1

OlS bei Modellen mit einer erklrenden Variablen

Wrde zwischen zwei Variablen Y und X in einem vorliegenden Datensatz bestehend aus n Wertepaaren (X" Y,) ein exakter linearer Zusammenhang der Fonm
Y, = ~o

+ ~,X,

(NI: 1)

bestehen, so bedeutet dies (vgl. Abbildung NI), dass smtliche Wertepaare (X" Y,)
auf einer Geraden liegen. Ihre Lage wird im Koordinatensystem durch die Parameter ~, und ~, eindeutig beschrieben. Die Konstante , ist der Y-Achsen-Abschnitt
der Geraden. Sie gibt den Wert an, den Y annimmt, wenn X gleich Null ist. ~, ist
die Geradensteigung und gibt Auskunft darber, um wie viele Einheiten Y steigt,
wenn X um eine Einheit steigt. Dies knnen wir uns mittels Abbildung N 1 schnell
klar machen. Hier fhrt ein Anstieg von X, auf X, (AX) zu einer Erhhung des Wertes von Y von Y, auf Y, (AY). Es gilt
(NI: 2)

sodass die Reaktion des Wertes Y auf nderungen von X konstant und gleich dem
Steigungskoeffizienten ~, ist.
Y

X,

X,

Abbildung IV 1: Unearer Zusanunenhang zweier Variablen

1. Grundlagen

423

Die Frage ist nun, wie wir in einer vorliegenden Stichprobe von n Wertepaaren

(Je" Y,) die Parameter /3, und /3, bestimmen knnen. Da wir zunchst angenommen

haben, dass alle Wertepaare exakt auf einer Geraden liegen, wre es kein schweres

Unterfangen, die Geradengleichung mittels zweier beliebiger Punkte aufzustellen.


In der Praxis sind wir nun jedoch mit dem Problem konfrontiert, dass die Werte-

paare in gegebenen Streudiagrammen hufig nur in etwa einen linearen verlauf


aufweisen (vgl. Abbildung N 2). Es gilt dann ein Verfahren zu finden, mit dem
eine Gerade fOQ = /3, + /3,Je, optimal in dieses Streudiagramm eingepasst wird. Wir
bezeichnen die Parameter /3, und /3, dieser optimalen Geraden als Regressionsparameter oder -koeffizienten. /3, ist die Regressionskonstante, /3, der Steigungsparameter. Y ist die erklrte, X die einzige erklrende Variable. Wir sprechen daher
bei der Schtzung von 13, und /3, auch von einer einfachen Regression:

p,

Nehmen wir zunchst an, uns lgen zwei mgliche Schtzungen Po und
vor.
Wir wren damit in der Lage fr unsere Stichprobe die Gerade in Abbildung N 2
zu konstruieren. Es ist deutlich zu erkennen, dass unsere Stichprobenwertepaare
(abgebildet durch die Punkte in der Abbildung) nicht auf der Geraden liegen, da
zwischen ihnen kein exakt linearer Zusammenhang besteht. Vielmehr weichen die
einzelnen Yi von der geschtzten Gerad~n bzw:.. den Werten ~ (sog. "gefittete"
Werte) ab, die sich aus den Schtzungen /30 und /3, sowie den Je, in der Fonn

Y, = Po +p,X,

(N1: 3)

ergeben. Wir sprechen bei (N1: 3) von der geschtzten Regressionsgeraden


oder -gleichung. Die Abweichungen e, der Y, von dieser Geraden bzw. Y;,
(N1: 4)

nennen wir Residuen.


Y

(X" Y,)

-----------.

X,
Abbildung N 2: OLS-Schtzung
Ziel eines guten Schtzverfahrens sollte es nun sein, die Schtzungen

Po

und

p,

so

zu bestimmen, dass diese Abweichungen e\ so gering wie mglich ausfallen. Genau


hier setzt OLS an und bestimmt die Schtzwerte so, dass sie die Quadratesumme
der Residuen minimieren. Dies ist ein vernnftiges Ziel fr eine Schtztechnik.

IV Einfijhrung in die konometrie

424

Durch die Quadrierung der Residuen werden nmlich ihre Vorzeichen eliminiert,
sodass sich positive und negative Residuen nicht gegenseitig aufheben. 3

Das Ziel von aLS knnen wir also formal wie folgt formulieren:

Le~
n

OLS minimiert

(IVI: 5)

1=1

Da sich die Residuen gerade nach e, = y. - Y, ergeben und zugl,!'ich Y, :: o + ,X,


gilt, minimiert aLS durch Wahl der entsprechenden Werte fr Po und P, konkret
den Term
(IVI: 6)
in dem wir, wie auch im Folgenden, auf die Angabe des Summationsindex verzichten, da dieser immer in den Grenzen i - I bis n verluft. Bilden wir die partiellen
Ableitungen von (IVI: 6) nach den beiden Parameterschtzem und setzen diese
gleich Null, erhalten wir die sog. Normalgleichungen zu
(IVI: 7a)
und

aLe; _~ (

. .)

- . - - ,,-,2 Y, -Po -P,X, (-X,)--2,,-,e,X, -0.

ap,

(IVI: 7b)

aLS-Schtzungen sind nun nichts anderes als die Werte von o und " die diese
beiden Gleichungen erfllen. Nach Division beider Seiten durch -2 und einigen
Umformungen (u. a. LX, = nX) ergibt sich aus (IVI: 7a)
LY.-Lo-,LX,=O --+

y-o-,X=O

(IVI: Sa)

und aus (IVI: 7b)


~

.~

~2

I~

.-

.I~2

"-' Y.X, - Po ,,-,X, - P, ,,-,X, = 0 --+ - ,,-,X,Y, - PoX - P, - ,,-,X, = O.


n

(IVI: Sb)

Lsen wir dieses Gleichungssystem aus (IVI: Sa) und (IVI: Sb) nach o und ,
auf, erhalten wir schlielich4

3 Dies wre z.B. der Fall, wenn wir die Summe der Residuen minimieren. Wir erhielten dann
keine eindeutige Lsung. Eine mgliche "Regressionsgleichungl! ist einfach Yj = Y und als
Minimum der Residuensumme ergibt sich Null, da die Summe der Abweichungen einer
Variablen von ihrem Mittelwert stets Null ist. Dies ist jedoch keine vernnftige Charakterisierung eines ggf. vorliegenden funktionalen Zusammenhangs.

4 Bei nherer Betrachtung von OVl: 9) fillt auf, dass es sich dabei um nichts anderes als den
Quotienten aus der geschtzten KovarianZ zwischen X und Y und der geschtzten Varianz

von X handelt. Es ist somit fr

auch die Schreibweise

, = &;V(X, y) / v.r(X) denkbar.

1. Grundlagen

425

a _

1',-

! L(x, -x)(Y, -Y)

~n----:;-

_ _ __

-n L(X -x)

mit

Xi

=Xj-X

y, =y;-y

(IVl: 9)

und damit
(IVl: 10)
Fr die nach (IVl: 9) und (IVl: 10) bestimmten Werte nimmt also die Summe der
quadrierten Abweichungen von der Regressionsgeraden ihr Minimum an. Betrachten wir (IVl: 9) nun etwas nher. Da die Varianz der Variable X im Nenner auftaucht, drfen die Ausprgungen von X in einer Stichprobe keinesfalls alle gleich
sein. Wre dies der Fall, so wre eine Schtzung von p, (und damit auch von P..:>
unmglich, da die Varianz dann den Wert Null annehmen wrde. Auerdem verdient der Zhler besondere Aufmerksamkeit. Da Y nicht vom Summationsindex
abhngt und die Summe der Abweichungen einer Variable von ihrem Mittelwert
immer Null ist (hier: Ex, = I:(X, - X) = 0), gilt nmlich
LXiYi = LXi(Yi - Y) = LXiYi - YLxi = LXiYi .

(IV1: 11)

Es ist also mglich (IV1: 9) alternativ als

1',

=LX,Y,
'" X 2
L.. '

mit

(IV1: 12)

darzustellen. Diese Form werden wir speziell in den Abschnitten IV 2.3 und 4.1
bentigen.
Neben dem eingangs angefhrten mehr berechnungstechnischen Grund fr eine
Rechtfertigung von aLS als Schtztechnik wird aLS aus zwei weiteren Grnden
hufig in der Praxis eingesetzt. Erstens handelt es sich bei aLS um das wohl einfachste aller konometrischen Schtzverfahren. So knnen aLS-Schtzungen (in
einfachen Modellen mit bis zu zwei erklrenden Variablen) sogar noch "von Hand l1
ausgerechnet werden. Zweitens hat aLS in einem speziellen Modellkontext eine
Reihe ntzlicher statistischer Eigenschaften (vgl. Abschnitt IV 2.3) und die folgenden interessanten mathematischen Eigenschaften:
1. Die geschtzte Regressionsgerade verluft durch die arithmetischen Mittel der

erklrenden Variable X und der erklrten Variable Y. Dies ergibt sich aufgrund
von (IV1: 10). Dessen Umformung liefert nmlich

Y= o + ,X .

(IVl: 13a)

Es gilt damit natrlich auch


(IVl: 13b)
2. Da die aLS-Schtzungen die Normalgleichung (IVl: 7a) erfllen mssen, ist die
Summe der Residuen und damit auch ihr Mittelwert e stets gleich Null.
_ 1",
e=- L."e1 =0
n

(IV1: 13c)

IV EinfOhlling in die Okonomebie

426

Aufgrund von (IVI: He) sind die Residuen auch als Ci = ei - e interpretierbar,
sodass die Sunune der Residuenquadrate (nach Division durch n) auch die Varianz der Residuen verkrpert:
VarCe)=!
n

Le: =!n Lee! _e)2

UVl: 13d)

3. Die Residuen sind nicht mit der erklrenden Variablen korreliert.

--+

Cov(e, X) = 0

Dies knnen wir wie folgt zeigen:

EeA - 0 folgt direkt aus Gleichung GY1: 7b). Da die OL5-Schtzungen diese
Nonnalgleichung erfllen mssen, wird der Term l:eA im Rahmen der Ermittlung der Schtzungen automatisch Null.

4. Die Residuen sind nicht mit den geschtzten (sog. -gefitteten") Werten von Y
korreliert.

Y, = . + ,x,

-->

Cov(e, Y) = 0

Da Y eine lineare Transformation von X ist und X nach (IVI: 13e) nicht mit e
korreliert ist, muss auch Y unkorreliert mit e sein.

Bit

Nach dieser theoretischen Einfhrung in die Vorgehensweise von OLS wollen wir
uns nun einem konkreten Anwendungsbeispiel widmen. Davor ist jedoch noch
eine fr das Beispiel relevante Notation zu erklren: Wenn wir bei einer Regression
mit Zeitreihendatenmaterial arbeiten, ersetzen wir das Subskript i gewhnlich durch
t mit t - 1,2, ... ,n (oder t - l,2, ... ,n, um den Zeitbezug einer Beobachtung darzustellen. Die verschiedenen Beobachtungen einer Stichprobe (z.B. Kurse) beziehen
sich dann auf die gleiche konomische Einheit (z.B. Aktie), jedoch zu unterschiedlicben Zeitpunkten. Wir sprechen in einem solchen Fall von einer Ze:itreihenregreuion. Werden im. Datenmaterial hingegen von verschWdenen konomiscben
E1nbeiten Merkmalsausprgungen zum selben Zeitpunkt festgehalten (z.B. Marktkapitalisierung aller Aktien im DAX), sprechen wir von einer Qocnchnltmregression. Hier reprsentiert das Subskript i die i-te konomische Einheit.
Beispiel IV 1-4

OLS-Schtzung mit einer erklrenden Variablen

Wie einfach QlS auch ohne konometrische Sottwarepakete anwendbar ist, wollen wir in
diesem ersten Anwendungsbeispiel aufzeigen. Wir nutzen dazu eine tlkUve Datentabelle,
die tOr die Jahre 2000 bis 2010 den Teekonsum V der Brger eines Landes pro Person in
Tassen je Tag und den realen Einzelhandelspreis ffir 100 g Tee in X Geldeinheiten beinhaltet. Wir haben die Tabelle bereits um die Berechnungen ergAnzt, die wir tOr die SchAtzung der Parameter der mOglichen Beziehung

VI'" Po + IlIXt
zwischen Teekonsum und realem Einzelhandelspreis bentigen. Daruber hinaus sind in
den letzten beiden Spalten Angaben enthalten, die uns die Veranschaulichung der Gltigkeit einiger der oben aufgefOMen mathematischen Eigenschaften von QlS erlauben.

1. Grundlagen

427

Rohdaten
Jahr
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
1:

Mittel

Berechnungen zur OlS-Schtzung

Ergebnisse

Konsum

Preis

Y,

X,

(Y, - Y)

(X, -X)

(X, -X)'

(X, - X)(Y, - Y)

V,

e,

0,94
0,88
0,86
0,88
0,93
0,94
1,33
2,12
1,69
1,43
1,39
13,39
1,22

0,48
0,37
0,14
0,10
0,06
-0,02
-0,10
-0,31
-0,26
-0,24
-0,19
0,00

-0,28
-0,34
-0,36
-0,34
-0,29
-0,28
0,11
0,90
0,47
0,21
0,17
0,00

0,08
0,11
0,13
0,11
0,08
0,08
0,01
0,81
0,22
0,05
0,03
1,72

-0,13
-0,12
-0,05
-0,03
-0,02
0,01
-0,01
-0,28
-0,12
-0,05
-0,03
-0,85

0,34
0,20
-0,04
-0,07
-0,09
-0,16
-0,05
0,13
-0,03
-0,14
-0,11
0,00

0,00

0,00

2,81
2,84
2,85
2,84
2,82
2,81
2,62
2,23
2,44
2,57
2,59
29,40
2,67

3,15
3,04
2,81
2,77
2,73
2,65
2,57
2,36
2,41
2,43
2,48
29,40
2,67

0,00

Mit diesem Zahlenmaterial bzw. den Spaltensummen knnen wir die Regressionskoeffizienten der vermuteten funktionalen Beziehung durch Einsetzen in die Formeln (lVI: 9)
und (lVI: 10) schtzen. Wir geben im Folgenden die exakten Schtzergebnisse und nicht
die aus den gerundeten Tabellenwerten entstandenen an:
ii = -{),85 = -{) 4956

1-'1

1,72

'

~o = 2, 67 - (-{), 4956 1, 22) = 3,2760


Fr unsere geschtzte Regressionsgerade gilt also V, =3,2760-0,4956)(,. Besonders
der geschtzte Koeffizient
ist hier fr uns von Interesse. Er gibt nmlich an, um wie viele Einheiten sich der Konsum bei Erhhung des Preises um eine Einheit vernderte. In
diesem Fall war ein Rckgang des Konsums um 0,4956 Tassen pro Tag die Folge. Wir
sprechen hier noch bewusst in Vergangenheitsform, da OlS zunchst nur rein deskriptiv
das vorliegende Datenmaterial beschreibt.

Wir knnen die obige Tabelle auer zur Schtzung der Regressionsparameter auch dazu
nutzen, einige bereits genannte mathematische Eigenschaften des Prinzips der kleinsten
Quadrate zu veranschaulichen:

1.

Durch Einsetzen von X und Y in V, =3,2760-0,4956X, knnen wir zeigen, dass


diese beiden Mittelwerte auf der geschtzten Regressionsgeraden liegen.

2.

Die Summe der Residuen liegt bei Null, woraus auch ein Mittelwert von Null folgl.

3.

Die Summe der Y, ist mit 29,40 gleich der Summe der
werte identisch sind.

4.

Sowohl Cov(e,X) =
und Cov(e, V) =
sind erfOIit. Dies mge der leser selbst
nachrechnen oder sich dessen in der mitgelieferten Excel-Datei im Online-Service

vergewissern.

V"

sodass auch ihre Mittel

428

IV EinfOhllmg in die Okonomebie

1.2.2 OLS und Linearitt


Dem Begriff der Linearitt kommt im Rahmen des Prinzips der kleinsten Quadrate
eine besondere Bedeutung zu. OLS ist nmlich nur in der Lage parameterlineare
Beziehungen zwischen Variablen aus Stichprobendatenmaterial zu schtzen. Eine
Variablenlinearitt der Beziehung ist nicht zwingend erforderlich.
Varlablenllnearllt heit, dass die Variablen einer Funktion Exponenten von Eins
aufweisen und sie nicht mit anderen Variablen multipliziert werden. Eine Funktion

Y1 =o +I X,
ist deshalb variablenlinear, wohingegen wir dies z.B. von der Funktion
Y, = o + ~X:,
(IV1: 14a)
die grafisch eine Parabel liefert, nicht sagen knnen. Fehlende Varlablenltnearltt,
bedeutet nun aber nicht, dass die Parameter in OVl: 14a) nicht trotzdem mit OLS
geschtzt werden knnen. Es knnte hier nmlich z.B. eine neue Variable Zj =
definiert werden, die zu einer neuen Gleichung

X:

X:

Y, = /10 + IZ, mit ZI =


OVl: 14b)
fhrt. Diese Gleichung ist variablenlinear und kann mittels OLS geschtzt werden.
Da eine derartige Transformation fr jede nicht variablenlineare Gleichung mglich
ist, sind wir in der Lage die Parameter einer Vielzahl funktionaler Fonnen mit OLS
zu schtzen. Nachfolgend fmdet sich davon eine kleine Auswahl, auf deren besondere Eigenschaften wir im Abschnitt N 4.2 noch nher zu sprechen kommen.
Lineare Fonn:
Quadratische Fonn:5
Logarithmische Formen:

Y; = p, + jl,x,

y;

=o+~X~
InYi =o +~lnX,

y;

=o+~lnX,

InY, =o +~Xi
Inverse Fonn:

Bit

Y;=l\,+P,x,

Fr die Auswahl der funktionalen Fonn, die einen vorliegenden Datensatz optimal
beschreibt, gibt es eine Reihe von Kriterien, die wir im Abschnitt N 1.2.4 noch
nher betrachten werden. Im nachfolgenden Beispiel wollen wir zunchst nur die
Residuenquadratesumme als Kriterium betrachten.
Beispiel IV 1-5

OL8-Schtzung, Linearitiit und Funktionswahl

Der aufmerksame Leser hat sich sicher gefragt, walllm wir bei Beispiel IV 1-4 auf eine grafische Darstellung des Datenmaterials und der geschtzten Regressionsgerade verzichtet
haben. Dies begrndet sich dadurch, dass eine lineare Funktion rur die Beschreibung des
vorliegenden Zahlenmaterials nicht unbedingt optimal ist. Eine inverse Form wOrde hier
z.B. bessere Dienste leisten, wie die nachfolgenden Abbildungen zeigen.

5 In der Pruis werden wir eine quadratische Polynomform als Modell mit zwei erklrenden
Variablen, d.h. als Y; - Po + PIXj + PIX: , spezifizieren.

1. Grundlagen

429
~',---------------,

lineare Fonn

.,"

...."
O~~\,

~,---------------,

inverse Form

>- aa

",-,

"'"."."

Wie die Grafiken vermuten lassen, wird die Summe der quadrierten Abweichungen der
Beobachtungen von den geschtzten Funktionen fr die inverse Form V, = ~o + ~1 . llX,
geringer sein. PrOfen wir dies durch Schtzung der Parameter der inversen Form nach. Wir
substituieren dazu Z, = llX, und schtzen V, = ~o + ~1Z,:

Jahr
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
E
Mittel

Rohdaten
Konsum

Berechnungen zur OlS-Schtzung


-

Ergebnisse
-

V,

Z,

(V,- V)

(Z, -Z)

(Z, -Z)'

(Z, -Z)(V, - V)

V,

e,

3,15
3,04
2,81
2,77
2,73
2,65
2,57
2,36
2,41
2,43
2,48
29,40
2,67

1,06
1,14
1,16
1,14
1,08
1,06
0,75
0,47
0,59
0,70
0,72
9,87
0,90

0,48
0,37
0,14
0,10
0,06
-0,02
-0,10
-0,31
-0,26
-0,24
-0,19
0,00
0,00

0,17
0,24
0,27
0,24
0,18
0,17
-0,15
-0,43
-0,31
-0,20
-0,18
0,00
0,00

0,03
0,06
0,07
0,06
0,03
0,03
0,02
0,18
0,09
0,04
0,03
0,64

0,08
0,09
0,04
0,02
0,01
0,00
0,01
0,13
0,08
0,05
0,03
0,54

2,81
2,88
2,90
2,88
2,82
2,81
2,55
2,31
2,41
2,50
2,52
29,40
2,67

0,34
0,16
-0,09
-0,11
-0,09
-0,16
0,02
0,05
0,00
-0,07
-0,04
0,00
0,00

Analog zu Beispiel IV 14 erhalten wir damit die Schtzung 0,8522 fOr ~1 und 1,9079 fr ~o,
d.h. eine geschtzte Regressionsfunktion V, = 1,9079 + 0,8522 . llX,. Bestimmen wir nun
fOr die lineare Form aus Beispiel IVl-4 die Residuenquadratesumme, so erhalten wir den
Wert 0,2464. Fr die inverse Form ergibt sich 0,2046. Die inverse Fonn beschreibt die
Daten also besser. Wir sagen hier auch, dass die inverse Form eine bessere Anpassungsgte an die Daten oder einen besseren "fit" aufweist.
Wir sehen an diesem Beispiel, dass wir unsere Regressionsfunktion optimal in unser Datenmaterial einpassen knnen, indem wir das Datenmaterial betrachten und damit eine
geeignet erscheinende funktionale Form auswhlen. Handelt es sich bei dem Datenmaterial um eine Stichprobe aus einer greren Grundgesamtheit, ist eine solche Vorgehensweise problematisch, wenn wir uns fr die Eigenschaften der Grundgesamtheit interessieren, da wir ja nur die Stichprobe optimal beschreiben. In solchen Fllen kann mit der geschtzten Regressionsgleichung evtl. nur schlecht prognostiziert werden. Im Abschnitt IV 2
und den weiteren Abschnitten des Kapitels IV werden wir sehen, dass es sehr wichtig ist,
fOr Aussagen zur Grundgesamtheit (Rckschlsse, Prognosen) bei der Auswahl der funktionalen Form auch inhaltliche Begrndungen (z.B. Gesetz des abnehmenden Grenzertrages) zu bercksichtigen.

IV Einfijhrung in die konometrie

430

Eine variablenlineare oder nicht variablenlineare Funktion ist nur dann mit aLS
schtzbar, wenn sie parameterlinear ist6 Bei der Parameterlinearltt liegt das
Hauptaugenmerk auf den Exponenten der Koeffizienten einer Gleichung. Sind sie

gleich Eins und werden keine Koeffizienten miteinander multipliziert, so kann die
Gleichung unabhngig von den Exponenten der Variablen als parameterlinear bezeichnet werden. Whrend also z.B. Y, = ~o + ~,x,' nicht variablenlinear ist, ist die
Funktion dennoch parameterlinear und ihre Parameter daher mittels aLS schtzbar.
Problematisch ist nun aber feblende Parameterllnearltt. Ohne diese kann aLS
nicht angewendet werden. Es gibt jedoch Flle, in denen einfache Transfonnationen aus einer nicht parameterlinearen Funktion eine parameterlineare Funktion erzeugen knnen. Betrachten wir beispielsweise die nicht parameterlineare Funktion
Y, = ~oX~ .

(IVl: 15a)

Logarithmieren wir diese Funktion, so erhalten wir eine parameterlineare Fonn

In Y; = In~o + ~,lnX"
die sich mit aLS schtzen lsst.

1.2.3

(IVl: 15b)

OlS bei Modellen mit mehreren erklrenden Variablen

In der Praxis werden funktionale Beziehungen mit nur einer erklrenden Variablen

nur in den seltensten Fllen geschtzt. Vielmehr befassen wir uns mit Fonnen wie
Y, = ~o + ~,Xli + ~,X2i + ... + P.XKi ,
(IVl: 16)
wobei x,.. die i-te Beobachtung der ersten erklrenden Variablen und x,.. die i-te
Beobachtung der zweiten erklrenden Variablen und K die Anzahl der erklrenden
Variablen darstellen. Y wird also hier von mehreren erklrenden Variablen x,. mit
k = 1,2, ... ,K bestimmt. Wir sprechen auch von multipler Regression.

Die aLS-Schtzung der Parameter derartiger funktionaler Fonnen folgt den gleichen
mathematischen Prinzipien wie bei solchen mit nur einer einzigen erklrenden Variablen. Auch hier werden die s gesucht, die die Quadratesumme der Residuen,
1:. e~ , minimieren. Nur stammen die Residuen diesmal eben aus einer Gleichung mit
mehreren erklrenden Variablen, d.h.

i ;;;;;;

Yi

i ;;;;;;

Yi

o - IXU - 2X 2i -

... - KXKi'

Zudem ist auch hier wieder Parameterlinearitt zwingende Voraussetzung fr die

Anwendung der aLS-Schtzung.

Im Fall von zwei erklrenden Variablen, also

Y; = ~o + ~,Xli + P,X2i ,
gewinnen wir die aLS-Schtzungen der Parameter ~"

(lVI: 17)

p, und

~, ber7

= (Ly,X1i)(Lx~)-(Ly,X2i)(LX1iX2i)
,

(Lx~,)(Lx;,)-(LX1iX2i)'

6 Dies war bei allen bisher vorgestellten Funktionstypen der Fall.


7 Fr eine Herleitung dieser Schtzfonneln vgl. z.B. Gujarati (2003), Kapitel 7.

(lVI: 18)

1. Grundlagen

431

_ (Ly,x.HLX:,)-(Ly,xllHLx"x,,)
,

(LX:,HLX~)-(LXllXll)' -.J'

wobei die Abweichungen der Variablen von mrem arithmetischen Mittel wieder in
Kleinbuchstaben, also YI = Y1 - Y, X u = X u - Xl und Xli. = Xli - X2 , ausgedrckt
werden und die Summation in den Grenzen i-I bis n erfolgt. Die mathematischen
Eigenschaften der Schtzer ergeben sich analog ZU denen in Modellen mit nur einer
erklrenden Variablen. So ist 2.B. die Summe der Residuen wieder Null und die erklrenden Variablen sind nicht mit den Residuen korreliert. Die OLS-Schtzer bei
melu als zwei erklrenden Variablen lassen sich nur noch mit Hilfe von Matrizen
sinnvoll darstellen, wobei sich aber keine neuen Erkenntnisse ergeben. Zudem erledigt die modeme Statistiksoftware die Ennittlung der Schtzungen fr uns, weshalb wir uns nicht weiter damit beschftigen mssen.
Bei mehr als einer erklrenden Variablen sind die Regressionskoeffi2ienten k nun
aber etwas anders zu interpretieren. l ist nun der Einfluss einer Erhhung von ~
wn eine Einheit auf Y unter Konstantbaltung aller anderen bercks1cbUgten erklrenden Variablen. Wir sagen auch, dass der Parameter l den partiellen Einfluss
von ~ auf Y angibt. Analog sind auch die anderen Regressionskoeffizienten zu
deuten. Die multiple Regression ermglicht also auch in den Wirtschaftswissenschaften, was sonst nur in einem kontrollierten Laborexperiment mglich wre: Die
Isolation weiterer Einflussfaktoren auf Y.

BoiopioliV 1-6

alS-Schtzung mit zwei erklrenden Variablen

Eine im April 2009 von uns durchgefuhrte Erhebung zum Preis von luxus-Villen im Raum
Frankfurt am Main lieferte 10 Objekte, deren Preise (y), Zimmerzahl (X,) und Wohnflche
In m2 (~) In der nachfolgenden Tabelle enthalten sind. Wir Interessieren uns nun dafOr,
welchen Einftuss Zimmerzahl und Wohnflche auf den Preis von Luxusimmobilien in
Frankfurt haben, und mchten dazu die funktionale Beziehung

Vi - Po + /3,X'i + ~tX2;
Im vorliegenden Datenmaterial schAtzen. Man beachte hierbei, dass wir nun das Subskrlpt
i verwenden, da wir mit Querschnittsdamnmaterial arbeiten. Die Schtzung dieser einfachen Beziehung wollen wir ein letztes Mal "von Hand" aufzeigen. In der Praxis bedienen
wir uns spezieller konomwischer Software wie z.B. LlMDEP, SHAZAM, MleRO TSP,
MINITAB, SAS, SPSS, STaTa, Microfit, BMD oder PcGive. Die SchAtzungen fOr dieses
lehrbuch werden mit Hilfe von EVlews 6.0 durchgefOhrt. In kOnftlgen Beispielen werden
wir uns daher darauf beschrnken, EViews-Regressionsoutputs zu prsentieren. Derartige
konometrisehe Software soll uns Ja schlielich zeitraubende Rechenarbeit abnehmen.
Zur Schtzung der Koefftzlenten bedienen wir uns der Summen und Mittelwerte der nachfolgenden Tabellen. Setzen wir diese in die Formeln (IV1: 18) bis (IV1: 20) ein, erhalten wir

, - 100.108,41

ji, - 3.095,92

ji, - -431.689,56.

Dieses Ergebnis bedeutet, dass eine Erhhung der Anzahl der Zimmer um Eins bei unvernderter WohnflAche ~ durchschnittlich zu einem um 100.108,41 Euro hheren Preis
fOhrte. Eine Erhhung der WohnflAche um einen m2 hatte bei unvernderter Zimmerzahl X1
eine durchschnittliche Preissteigerung von 3.095,92 Euro zur Folge.

IV Einfijhrung in die konometrie

432
Villa
t
2
3
4
5
6
7
8
9
10
Mittelwert

2
3
4
5
6
7
8
9
10
Summe

1.2.4

Preis
V,
725.000
1.170.000
1.190.000
1.250.000
3.500.000
1.700.000
1.399.000
1.490.000
1.300.000
754.000
1.447.800
Yi X 1i
1.662.440
83.340
335.140
-929.660
7.593.140
-580.060
-131.760
-97.060
192.140
901.940
9.029.600

Zimmer

X"

6
8
7
13
12
6
11
6
7
7
8,3
Yi'<2i

118.322.360
1.861.260
20.288.860
-14.103.140
125.799.860
12.937.860
-1.917.840
6.469.260
-3.148.140
103.168.060
369.678.400

m2-Zahl

Abweichungen vom Mittel

x",

X"

~I

175
332
260
410
400
390
378
492
360
190
338,7

-722.800
-277.800
-257.800
-197.800
2.052.200
252.200
-48.800
42.200
-147.800
-693.800

-2,3
-0,3
-1,3
4,7
3,7
-2,3
2,7
-2,3
-1,3
-1,3

X1iX2i

x~

376,51
2,01
102,31
335,11
226,81
-117,99
106,11
-352,59
-27,69
193,31
843,90

5,29
0,09
1,69
22,09
13,69
5,29
7,29
5,29
1,69
1,69
64,10

"'"

-163,7
-6,7
-78,7
71,3
61,3
51,3
39,3
153,3
21,3
-148,7

X~I
26.797,69
44,89
6.193,69
5.083,69
3.757,69
2.631,69
1.544,49
23.500,89
453,69
22.111,69
92.120,10

Gte einer geschtzten Regressionsgleichung

Haben wir mittels OLS die Parameter einer unterstellten Beziehung zwischen Vari-

ablen geschtzt, gilt es die Gte der geschtzten Regressionsfunktion zu untersuchen. Es gibt hierzu eine Reihe von Mazahlen. Alle diese Mae machen nur
Aussagen ber den "fit" der Gleichung, d.h. sie beurteilen lediglich, wie nahe die
Y, bei den tatschlichen Y, liegen bzw. wie gut sich die Regressionsfunktion ins
vorliegende Datenmaterial einpasst. Davon haben wir bereits im Beispiel IV 1-5
Gebrauch gemacht, in dem wir zwei verschiedene funktionale Formen anhand der
Residuenquadratesumme verglichen haben. Je niedriger diese nmlich ist, desto
besser passt sich die unterstellte Funktion in das vorliegende Datenmaterial ein. Im
Folgenden stellen wir Mae, wie das Bestimmtheitsma, den Korrelationskoeffizienten und das angepasste Bestimmtheitsma vor, die sich direkt oder indirekt
ebenfalls dieser Quadratesumme bedienen.
1.2.4.1

Das Bestimmtheitsma

Zur Bestimmung des Ausmaes an Variabilitt von Y, das durch die Regression
bzw. die Regressoren erklrt werden kann, knnen wir die mit der Beobachtungszahl n multiplizierte Varianz von Y, die auch als Gesamtquadratesumme ('TSS,

1. Grundlagen

433

eng!. total sum of squares) bezeichnet wird, in zwei Komponenten aufspalten B


Dies sind die erklrte Quadratesumme (ESS, eng!. explained sum of squares), die
nichts anderes als die mit n multiplizierte Varianz von Y darstellt,9 und die bereits
behandelte Residuenquadratesumme (RSS, eng!. residual sum of squares):
(IV1: 21)

Abbildung lV 3 veranschaulicht diese Zerlegung. Sie zeigt uns, dass die Abweichung von Y von seinem Mittelwert Y, durch zwei Komponenten bedingt ist: Die
Abweichung von Y von seinem Mittelwert l' und das Residuum. ESS misst also
den Teil der Variabilitt von Y, der durch die geschtzte Regressionsgerade erklrt
wird, wohingegen RSS den nicht erklrten Teil darstellt.
Y

~-y

Y, -1'

XI

Abbildung IV 3: Zerlegung der Varianz von Y


Wir erkennen aus dieser Zerlegung, dass der "fit" einer Regressionsgeraden bzw.
die Fhigkeit der Regressionsgeraden, die Vernderung von Y zu erklren, umso
besser ist, je kleiner RSS relativ zu TSS ist. Da OLS RSS minimiert, erhalten wir
durch dieses Verfahren (fr eine gegebene funktionale Fonn in einem gegebenen
Datensatz) stets das maximal mgliche ESS. Setzen wir ESS ins Verhltnis zu TSS,
so erhalten wir das sog. Bestimmtheitsma

(lVl: 22a)

8 Fr eine formale Herleitung dieser Zerlegung vgl. z.B. in Gujarati (2003), Kapitel 3. Die
Zerlegung ist nur mglich, wenn im Modell eine Konstante enthalten ist.

9 Es gilt schlielich (Ni: 13b), d.h.

=y .

IV Einfijhrung in die konometrie

434

welches uns den Anteil der durch die Regression erklrten Variation von Y angibt.
Da ESS hier im Zhler auftaucht, ist unmittelbar klar, dass OLS natrlich auch (fr
eine gegebene funktionale Fonn in einem gegebenen Datensatz) fr das maximal
mgliche R' sorgt. Wir erkennen auerdem, dass mit einem hohen R' auch ein besserer "fit" der geschtzten Regressionsgeraden verbunden ist.
TSS, RSS und ESS sind jeweils Quadratesummen, d.h. stets positiv, und es gilt zudem ESS :s; TSS, sodass R' im Intervall
(Nl: 22b)
2

liegen muss. Ein R -Wert von nahe Eins weist auf einen sehr guten IIfit" hin, wohingegen bei einem Wert nabe Null die geschtzte Regressionsfunktion nicht besser in
der Lage ist Y zu erklren als es das Stichprobenmittel Y knnte. Abbildung N 4
veranschaulicht diese Flle.

In der linken Grafik besteht zwischen X und Y keinerlei Beziehung. Da die Regression keinerlei Erklrungsgehalt fr die Vernderung von Y besitzen kann, ist ESS
gleich Null, wodurch auch R' einen Wert von Null annimmt. Die geschtzte Regressionsgleichung knnte genauso gut Y, = Y lauten.
In der rechten Gralik kann die bestehende Beziehung zwischen X und Y gut durch
die geschtzte Regressionsfunktion beschrieben werden. R' nimmt einen Wert von
0,95 an. Ein solcher Wert fr das Bestimmtheitsma ist ein typisches Ergebnis einer
Zeitreihenregression mit gutem "fit". Der Groteil der Variabilitt von Y wird erklrt, wobei trotzdem ein zuflliger, unerklrter Teil verbleibt. Ein R' von genau
Eins wird bei wittschaftswissenschaftlichen Fragestellungen nie erreicht.
Y

R' =0,95

R' =0

YI-----~--

Abbildung IV 4: Bestimmtheitsma

Besonders bei Zeitreibenregresstonen ist das Bestimmtheitsma mit Vorsicht zu interpretieren. Hier ist ein hohes R' nmlich meist Resultat von gleichgerichteten signifikanten Trends der erklrten und der erklrenden Variablen. lO Obwohl ein hohes R' festgestellt wird, kann es vorkommen, dass keine Kausalitt von X fr Y gegeben ist. Wir sollten nmlich immer beachten, dass ein hohes R' nicht impliziert,

10 R wre in solchen Fllen aussagekrftiger, wenn wir mit trendbereinigten Daten arbeiten.
Das Thema Trends werden wir im Abschnitt IV 4.7.2 eingehend behandeln.

1. Grundlagen

435

dass nderungen von X zu nderungen von Y fhren, da es eine dritte Variable


geben knnte, die X und Y gleich2:eitg beeinflusst.
Bei Querschntttsregressionen erhalten wir hufig ein niedriges R', da sich die Beobachtungen in iluen Werten stark unterscheiden. Nelunen wir beispielsweise an,
wir wollen die Ausgaben fr Jeans, die von Single-Haushalten im Monat Mrz gettigt wurden, durch das Haushaltseinkommen, das Alter und Geschlecht der Singles,
die Saison sowie 2Ufllige Schwankungen erklren. Kauft ein Haushalt nun in einem Monat Jeans, so werden die Ausgaben fr Jeans im Folgemonat Ld.R. bei Null
liegen. Da zudem nicht alle Haushalte im selben Monat und im gleichen Wert Jeans
kaufen, wird es z.B. selbst bei Haushalten mit gleichem Einkommen deutliche Unterschiede bei den Jeansausgaben des Monats Mrz geben. Bei Querschnittsregressionen werden wir daher z.B. bereits ein R% von 0,5 als guten "fit" betrachten und
unser Hauptaugenmerk auf die Identifikation von erklrenden Variablen legen, die
einen deutlichen Einfluss auf die erklrte Variable haben. Die Beurteilung, ob ein
Ra_Wert als hoch oder niedrig einzustufen ist, hngt daher von dem konometrischen Problem und dem zugrunde liegenden Modell ab.
Es sei abschlieend noch einmal klar hervorgehoben, dass OLS fr eine gegebene
funktionale Form mit gegebenem Zahlenmaterial zum grtmglichen R' fhrt.
Durch die Wahl einer anderen funktionalen Fonn kann jedoch ggf. ein hheres Ra
erreicht werden. Wir wollen dies anband eines einfachen Beispiels aufzeigen.

BoloplollV 1-7

Bestimmtheitsma und GOtevergleiche

In Beispiel IV 1-5 hatten wir fUr eine lineare und eine inverse Fonn die RegressionsgOte
anhand der Residuenquadratesummen miteinander verglichen und festgestellt, dass die
Inverse Form den besseren "111:" aufweist. FOhren wir diesen Vergleich nun nochmals anhand der BestimmtheitsmaBe durch. Zu ihrer Bestimmung kOnnen wir direkt die bereits berechneten Residuenquadratesummen und zustzlich TSS '" 0,6682 heranziehen. Wir erhalten damit folgende Werte:

R~ =1- 0,2464 =0 6313


I..

0,6682

'

R;2 = 1- 0, 2046 = 0, 6938


..

0,6682

Die inverse Form ist also in der Lage 69,38 % der Variation von Y zu erklAren, wahrend die
lineare nur 63,13 % erklren kann.

Einen Vergleich wie in Beispiel rv 1-7 drren wir grundstzlich nur durchfhren,
wenn beide Funktionen die gleicbe erklrte Variable besitzen, d.h. auch Y in einer
und In Y in der anderen ist nicht zulssig. Auerdem sollte die Zabl der erklrenden Variablen gleicb sein. Wollen wir Modelle mit gleicher erklrter Variable und
unterschiedlicher Anzahl erklrender Variablen miteinander vergleichen, besitzt Ra
entscheidende NachteUe, die wir unter rv 1.2.4.3 nher betrachten und ein alternatives Gte- bzw. Vergleichsma vorstellen.

1.2.4.2

EiDfacher KorreIatioDikoellizient

Eng verwandt mit dem Bestimmtheitsma ist der einfacbe Korrelationskoeffiztent


rTV den wir aus der deskriptiven Statistik: kennen. Er ist ein Ma fr die Strke und

IV Einfijhrung in die konometrie

436

Richtung eines linearen Zusammenhangs zwischen zwei Variablen und ist im Falle
einer Regressionsgleichung mit nur einer erklrenden Variablen als

defmiert. Je nher der Absolutbetrag von r= am Wert I liegt, desto strker ist die
Korrelation zwischen den betrachteten Variablen Y und X. Das Vorzeichen von fn:
gibt dabei die Richtung der Korrelation an.
Hat ein Modell genau eine erklrende Variable, entspricht das Bestimmtheitsma R'
genau dem Quadrat des Korrelationskoeffizienten. Gerade daher sind die R' einer
Regression Y, - ~, + ~,x. und einer Regression X. - a, + IX,Y, auch immer identisch.
(IVI: 23)
Im Falle eines Modells

mit zB. zwei erklrenden Variablen ergibt sich R' als


R' = (rw )"

d.h. als Quadrat des Korrelationskoeffizienten zwischen Y und


1.2.4.3

Y.11

Angepasstes Bestimmtheitsma
2

Ein ernstes Problem von R liegt darin, dass das Einbeziehen weiterer erklrender
Variablen in die Regression R' nie verringert. Vergleichen wir also zwei Gleichungen, die die gleiche erklrte Variable Y und die gleiche erklrende Variable X, besitzen, die zweite aber eine zustzliche Variable X, einbezieht, so gilt immer

R'Gleichung 2 ->R'Gleichung 1
Um dies zu verdeutlichen, betrachten wir noch einmal die fonnale Deftnition des
Bestimmtheitsmaes (IVI: 22a). Fgen wir eine weitere erklrende Variable in unsere Regressionsgleichung ein, so hat dies keinen Einfluss auf TSS, da die erklrte
Variable unverndert bleibt. Da OLS sicherstellt, dass sich RSS durch eine zustzliche Variable nicht erhht, wird RSS entweder abnehmen oder gleich bleiben. Sollte sich nmlich RSS durch die zustzliche Variable erhhen, so wird OLS den geschtzten Koeffizienten der zustzlichen Variable auf Null setzen, sodass das RSS
vor Variablenhinzufgung beibehalten wird. Der Fall in dem der geschtzte Koeffizient der neuen Variable auf Null gesetzt wird, ist damit der einzige Fall bei dem R'
durch Hinzufgung der neuen Variablen unverndert bleibt. In allen anderen Fl2
len wird R mit einer neuen Variablen zunehmen.
Besonders Anfnger unter den konometrikem neigen huftg dazu, das sog.
"Game of Max/m/s/ng Jt" zu betreiben. Sie versuchen durch Hinzufgen weiterer
Variablen in ihre Regressionsgleichungen ihr R' in die Hhe zu treiben und sie damit "besser" aussehen zu lassen. Daraus entstehen allerdings zwei Probleme. Erstens werden dadurch huftg theoretisch nicht taugliche erklrende Variablen aufgenommen12 und zweitens wird dadurch die Schtzung weiterer Regressionskoeffizienten erforderlich, was zu einer Verringerung der Freiheitsgrade (Differenz
11 Beweise dieser Zusammenhnge finden sich z.B. in Gujarati, D.N. (2003), Kapitel 7.
12 Die Folgen einer derartigen Vorgehensweise werden wir im Abschnitt N 4.1.2 behandeln.

1. Grundlagen

437

zwischen der Anzahl vorliegender Beobachtungen n und der Anzahl der Regressionskoeffizienten K + 1 bzw. DF = n - K - 1; eng!. degrees of freedom) fhrt. Lgen
etwa fr eine einfache Regression (1 + 1 Koeffizienten) genau n = 15 Beobachtungen vor, so wrde durch eine zustzliche Variable die Anzahl der Freiheitsgrade
von 13 auf 12 sinken. Je niedriger die Anzahl der Freiheitsgrade ist, desto geringer
ist aber die Genauigkeit der Schtzungen.
Zur Beurteilung, ob das Hinzufgen einer Variable die Fhigkeit einer geschtzten
Regressionsgleichung zur Erklrung der Variablen Y verbessert, ist also R' nicht geeignet. Es empfiehlt sich vielmehr bei der Berechnung des Bestimmtheitsmaes die
Zahl der Freiheitsgrade ZU bercksichtigen. Es entsteht somit das sog. angepasste
BestImmtheitsma

R'

:te~ j(n -

K-1)

= 1- --c'I=o-I~ _ _ _ _ __
n

L(Y; - y)' j(n-1)

(IV1: 24a)

1_ 1

Betrachten wir den Bruch in (IV1: 24a) etwas nher: Der Nenner ist nichts anderes
als der erwartungstreue Schtzer fr die Varianz von Y. Seine Freiheitsgrade liegen
bei n - 1, da durch die Schtzung des Erwartungswertes von Y durch Y ein Freiheitsgrad verloren geht. Da zur Bestimmung der Residuen die Schtzung von K + 1
Regressionsparametern erforderlich ist, reduzieren sich die Freiheitsgrade im Zhler
um K + 1, was insgesamt ZU n - K - 1 fhrt. Ceteris paribus fhrt also ein hheres
K zu einem niedrigeren

iP .

Wie sich zeigen lsst, kann das angepasste Bestimmtheitsma R' wie in (IV1: 24b)
mit dem Bestimmtheitsma R' in Verbindung gesetzt werden. Diese Darstellung
zeigt, dass der grtmgliche Wert von R' genau wie bei R' Eins ist. Der kleinstmgliche Wert ist jedoch nicht Null, da bei sehr geringem R' der Wert von R' sogar negativ sein kann.

R' =l-(1-R') n-1

n-K-1

(IV1: 24b)

Zusammenfassend misst das angepasste Bestimmtheitsma also unter Bercksichti-

gung der Anzahl der Feiheitsgrade den Teil der Varianz von Y, der durch die
Schtzung erklrt wird. Es wird dazu verwendet, den "fit" von Gleichungen mit der
gleichen erklrten Variablen und unterschiedlicher Anzahl von erklrenden Variablen zu vergleichen. R' wird bei Hinzufgen einer weiteren Variablen abnehmen
oder zunehmen, je nachdem, ob der verbesserte "fit" durch die neue Variable den
mit ihr verbundenen Verlust an Freiheitsgraden berwiegt oder nicht. Im "Game 01
Maximising K" ist es also sehr wahrscheinlich, dass durch eine neue Variable zwar
R' steigt, R' jedoch abnimmt, was uns zeigt, dass wir die Variable nie in die Gleichung htten aufnehmen sollen.
Abschlieend muss noch die Warnung ausgesprochen werden, dass anders als im
desktiptiven im induktiven Kontext die Qualitt des "fits" einer Schtzung nur ein
Teilkriterium fr die Gesamtqualitt einer geschtzten Regressionsgleichung ist.

Eine R' -Maximierung sollte daher bei beabsichtigten Rckschlssen auf die Grund-

gesamtheit oder Prognosen nie Ziel des konometrikers sein. Was ntzt beispiels-

438

IV EinfUhrung in die konometrie

weise ein hohes iP , wenn ein Regressionskoeffizient ein fr die zugrunde liegende
Modelltheorie absolut nicht plausibles Vorzeichen aufweist. Trotz gutem "fit" kann
eine solche Gleichung nicht fr Prognosen verwendet werden.
Beispiel IV 1-8

Grenzen des angepassten Bestimmtheitsmaes

Nehmen wir an, uns liegen zwei geschtzte Regressionsgleichungen fr den Wasserkonsum fY'I) eines Bundeslandes in Abhngigkeit vom Wasserpreis je 5 Liter (P), seiner Bevlkerungszahl (B) und der Niederschlagsmenge (N) in Litern pro m2 pro Jahr vor:
(t)
(2)

IN = 29,00+0,60B-420,00N
IN = 24,50 +47,00P+0,45B-360,00N

mit
mit

R' = 0,855
R' = 0,895

Bei Betrachtung dieser Gleichungen lllt sofort aul, dass durch das HinzufUgen der Variable P eine Erhhung des angepassten Bestimmtheitsmaes erreicht wurde. Gleichzeitig erkennen wir aber auch, dass der Koeffizient der neuen Variable P positiv ist, was bedeutet,
dass bei Konstanthaltung aller anderen Variablen die Erhhung des Wasserpreises unrealistisch zu einer Erhhung des Wasserkonsums fUhrt. Die geschtzte Gleichung (2) wrde
also bei Prognosen die Wassernachlrage tendenziell berschtzen, wenn das betrachtete
Szenario von steigenden Preisen ausgeht (bzw. im umgekehrten Fall unterschtzen). Die
Gleichung mit besserem "Iit" htte also eine schlechtere Prognosegte.

Das lineare Regressionsmodell und


seine Annahmen

Bisher haben wir OlS nur als rein deskriptives Instrument zur Charakterisierung angenommener funktionaler Formen in Stichprobenzahlenmaterial herangezogen. In der

Praxis wird OLS jedoch vor allem im Rahmen des sog. linearen Regressionsmodells als
Schtzverfahren eingesetzt. Ziel ist es hier nicht mehr einen vorliegenden Datenbestand
bestmOglich beschreiben, sondern anhand von diesem Rckschlusse auf eine Grundgesamtheit ziehen zu knnen. Mit den Grundlagen dieses Modells werden wir uns unter IV
2.1 nAher befassen. Sind die Annahmen des Abschnitts IV 2.2 fQr ein solches Modell

erfClllt, so verfOgen OLS-Schtzer aber eine Reihe wertvoller Eigenschaften, die OlS zum
~bestmOglichen

Schtzer im linearen Regressionsmodell machen. Das sog. Gau-

Markov-Theorem zeigt in einem solchen Fall, dass OlS jedem anderen linearen unverzerrten Schtzer Oberlegen" ist.

2.1 Das lineare Regressionsmodell


2.1.1

Die Regresslonslunktlon der Grundgesamtheit

Ponnal befasst sich die Regressionsanalyse mit der Untersuchung der Abhngigkeit
einer Variablen (Y) von einer oder mehreren anderen Variablen (X" ... ,X,,) mit dem
Ziel, den Erwarlungswert der erklrten Variablen auf Basis der bekannten Werte
der erklrenden Variablen, also E(VIx" "', XI) zu schtzen und/oder zu prognostizieren. Diese Kernaussage ist von so enonner Bedeutung, dass wir sie und alle
weiteren Sachverhalte im Zusammenhang mit dem linearen Regressionsmodell Zum
besseren Verstndnis anhand eines hypothetischen Beispiels erlutern werden.1 3
Wir gehen zunchst davon aus, dass wir die Grundgesamtheit kennen. Betrachten n
wir eine Grundgesamtheit aus N - 60 Familien, die nach ihrem wchentlichen Ein- ~

kommen (X) in 10 Gruppen (80 bis 260 Euro) eingeteilt und deren wchentliche
Konsumausgaben (V, ebenfalls in Euro) in der Tabelle auf der Folgeseite gegeben
sind. In den 10 TeUgesamtheiten, die durch die 10 X-Werte mit korrespondierenden Y-Werren entstehen, ist eine deutliche Variation der wchentlichen Konsumausgaben zu erkennen. Trotz dieser Variabilitt gewinnen wir aber den Eindruck,
dass die wchentlichen Konsumausgaben im Durchschnitt mit dem Einkommen
zunehmen. Um dies zu verdeutlichen, haben wir sowohl in der Tabelle, als auch in
der nachfolgenden Abbildung N 5 die bedingten Erwartungswerte E(V I X) oder

13 Das hier verwendete Beispiel ist aus dem Lehrbuch von Gujarati (2003), Kapitel 2, ent-

nommen.

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_15, Springer Fachmedien Wiesbaden 2015

IV Einfijhrung in die konometrie

440

anders ausgedrckt die Mittelwerte der Teilgesamtheiten aufgenommen. Wir verwenden hier bewusst das Subskript i, da sich der Erwartungswert auf eine bestinunte Ausprgung der Variable X bezieht. Der erwartete Wert der Konsumausgaben einer Familie mit einem konkreten Einkommen X, von 80,00 Euro ist demnach
65,00 Euro. Stellen wir also die Frage nach der besten (mittleren) Prognose der wchentlichen Konsumausgaben einer Familie mit einem Einkommen von 80,00 Euro,
so wre die Antwort 65,00 Euro. Es ist wichtig, diese von den gegebenen X-Werten
abhngenden Erwartungswerte vom unbedingten Erwartungswert E(Y) abzugrenzen. Dieser reprsentiert nmlich die erwarteten Konsumausgaben aller 60 Familien
und liegt hier bei 121,20 Euro.
X-7
Y
,j.

E(YIx,)

80
55
60
65
70
75

100
65
70
74
80
85
88

120
79
84
90
94
98

65

77

89

140
80
93
95
103
108
113
115
101

160
102
107
110
116
118
125

180
110
115
120
130
135
140

200
120
136
140
144
145

113

125

220
135
137
140
152
157
160
162
149

137

240
137
145
155
165
175
189

260
150
152
175
178
180
185
191
173

161

Werfen wir nun einen genaueren Blick auf die grafische Darstellung dieses Zahlenmaterials. In dieser sind neben den einzelnen X-Y-Kombinationen auch die bedingten Erwartungswerte (hervorgehobene Punkte, die auf einer Geraden liegen)
aufgenommen.
Y

200

o E(YIX)

150

100

50~~--.----r---.---,r---~--~--.----r---.~

80

100

120

140

160

180

200

220

Abbildung IV 5: Regressionsfunktion der Grundgesamtheit I

240

260 X

2. Das lineare Regressionsmodell und seine Annahmen

441

Wir erkennen deutlich, dass sich die bedingten Erwartungswerte E(Y IX;) als eine
Funktion von Xi ergeben, also

E(Y I X) = feX)

(IV2: 1)

gilt. Das Modell gilt also fr jedes beliebige X; aus der Grundgesamtheit. Da die
Funktion (IV2: 1) die Grundgesamtheit charakterisiert, wird sie auch als Regressionsfunktion der Grundgesamtheit bezeichnet. Sie ist in diesem speziellen Fall
eine Gerade durch die Punkte mit den Koordinaten (X;,E(Y IX und lsst sich daher in der funktionalen Form
E(Y I X) = ~o +~,Xi

(IV2: 2)

mit ~o und ~, als den Regressionskoeffizl.enten oder -parametern darstellen. Die


Regressionsfunktion der Grundgesamtheit gibt die durchschnittliche Reaktion von
Y auf Vernderungen von X an. In unserem Beispiel sagt sie daher aus, dass bei
steigendem Familieneinkommen im Durchschnitt auch die Konsumausgaben zunehmen. Knnen wir nun aber auch die generelle Aussage machen, dass mit zunehmendem Einkommen die Konsumausgaben jeder einzelnen Familie zunehmen?

Betrachten wir die obige Tabelle, so wird deutlich, dass wir dies nicht knnen. Es
gibt nmlich beispielsweise eine Familie, die bei einem wchentlichen Einkommen
von 100 Euro mit Konsumausgaben von 65 Euro weniger konsumiert als zwei Familien mit einem wchentlichen Einkommen von 80 Euro. Es scheint also gewisse
Faktoren zu geben, die dafr sorgen, dass bei einem gegebenen Einkommenslevel
X; die Konsurnausgaben Y, der individuellen Familien vom durchschnittlichen Konsum aller Familien mit diesem Einkommen abweicht. Diese Faktoren spiegeln sich
im sog. stochastischen strtenn E, wieder. Er verkrpert die Abweichungen der
individuellen Y, von den dazugehrigen bedingten Erwartungswerten E(Y IX), also
Ei =Yi -E(YIX) ,

(IV2: 3)

sodass sich Y, durch eine Gleichung der Form


Yi = E(Y IXi )+ Ei

(IV2: 4)

beschreiben lsst. Fr den Fall eines variablen- und parameterlinearen Modells mit

nur einer erklrenden Variablen, wie es hier vorliegt, erhalten wir damit das sog.

einfache lineare Regressionsmodell

(IV2: 5)

Dieses besagt in unserem speziellen Beispiel, dass der Konsum einer individuellen

Familie bei gegebenem Einkommenslevel durch zwei Komponenten beschrieben


wird. Komponente 1 ist E(Y IX;), was nichts anderes als den durchschnittlichen
Konsum aller Familien mit dem gleichen Einkommen darstellt. Wir bezeichnen diese Komponente auch als systematischen Teil des Regressionsmodells. Komponente
2 ist der unsystematische oder zufllige Teil E, des Regressionsmodells.
Eine weitere Betrachtung unserer Abbildung IV 5 zeigt, dass fr jedes X; eine Teilgesamtheit von Y-Werten existiert, die um ihren zugehrigen (bedingten) Erwartungswert streuen. Nehmen wir zur Vereinfachung an, dass diese Y-Werte in jeder
Teilgesamtheit identisch und symmetrisch um ihren bedingten Erwartungswert verteilt sind, so finden wir in der Literatur fr unser Beispiel auch hufig die folgende

IV Einfijhrung in die konometrie

442

Darstellung der Regressionsfunktion der Grundgesamtheit. Wir beschrnken uns in


Abbildung N 6 auf die X-Werte 80, 140 und 220. Fr alle anderen X-Werte gilt die
Darstellung natrlich analog.
Y

o bedingte Erwartungswerte

E(YIX)
149
Verteilung von
Y bei geg. X = 220

101

65

220

140

80

Abbildung IV 6: Regressionsfunktion der Grundgesamtheit II


Wrden wir aus der hier dargestellten Grundgesamtheit in einer Stichprobe fr jedes XI ein zugehriges Y\ ziehen, so wird klar, dass sich in einer neuen Stichprobe

wohl andere Y, ergeben. Wir haben in diesem Fall 10 verschiedene Ausprgungen


von X vorliegen. Dies bedeutet, dass wir damit auch 10 Zufallsvariablen Y, haben,
deren Realisationen sich von Stichprobe zu Stichprobe ndern. Damit nehmen
natrlich auch die stochastischen StI1enne

in jeder Stichprobe andere Werte an,

da sie sich als Abweichung der Y, von E(Y Ix,) ergeben. Sie sind ebenfalls Zufallsvariablen. Veranschaulichen knnen wir dies sehr schn, indem wir die Tellgesamtheit von Y betrachten, die durch X = 80 bestimmt wird. Innerhalb dieser gelten
nmlich aufgrund von (IV2: 5) fr die einzelnen Y, die folgenden Beziehungen:

/3, + /3, . 80 + E,
Y, = 60 = /3, + /3, . 80 + E,
Y, = 65 = /3, + /3, . 80 + E,
Y. = 70 = /3, + /3, . 80 + E.
Y, = 75 = /3, + /3, . 80 + E,
Y,

55

Wird also ein Wert fr X vorgegeben (detemtiniert), so kann der Strterm einen zuflligen Wert annehmen. In diesem Beispiel gbe es 5 mgliche Realisationen fr
den Strterm. Es ist nun von auerordentlicher Bedeutung fr das Verstndnis der
noch folgenden Ausfhrungen (insbesondere unter N 2.2), dass bei einem Stichprobenumfang von n (also n Werten von X, fr die Y, gezogen werden) genau n
Zufallsvariablen t; vorliegen, die gewissen Verteilungen folgen und in der Stichpro-

443

2. Das lineare Regressionsmodell und seine Annahmen

be zufllige Realisationen annehmen. Wenn wir also von der Verteilung der E,
sprechen, meinen wir dabei nicht die Verteilung, die die n Realisationen bildet,
sondern die Verteilungen der einzelnen Zufallsvariablen E, fr die Teilgesamtheiten
von Y.

Da wir in der Praxis die Grundgesamtheit und damit die Parameter der Regressionsfunktion der Grundgesamtheit nicht kennen, ist der Term Ei nicht nur eine Zufallsvariable, sondern kann zudem nicht beobachtet werden. Wir wissen jedoch,
dass er sowohl positive, als auch negative Werte annehmen kann und er alle Ver-

nderungen der erklrten Variablen Y auffangt, die nicht durch die Variable X erklrt werden knnen. Dazu zhlen z.B. jene Vernderungen, die auf vernachlssigte Variablen zurckzufhren sind. Selbst wenn diese ins Modell einbezogen werden, verbleiben jedoch immer noch Vernderungen von Y, die nicht durch die
Variablen allein erklrbar sind. Allgemein lassen sich folgende Faktoren zusammenfassen, die sich im Strterm widerspiegeln:
Es werden erklrende Variablen vernacblssigt, da z.B. das zugrunde liegende theoretische Modell nicht ausgereift ist oder bzgl. gewisser Variablen kein
Datenmaterial zur Verfgung steht.
Die Vermeidung von Messfeblern bei der Erfassung des Datenmaterials ist fast
unmglich.
Die zu Grunde liegende theoretische Modellgleichung hat im Bezug auf die
Variablen eine andere Form (z.B. quadratisch) als die fr die Regression gewhlte (z.B. linear).
Bei der ModelIierung von menschlichem Verhalten muss es immer einen Teil
rein zuflliger Vernderung geben, den man nicht durch irgendwelche Variablen erklren kann.
Eine wichtige Eigenschaft des stochastischen Strterms ergibt sich aus der Annahme, dass die Regressionskurve der Grundgesamtheit durch die bedingten Erwartungswerte von Y verluft. Dies impliziert, dass der bedingte Erwartungswert des
stochastischen Strterms gleich Null ist:
E(E, IX) = 0

(IV2: 6)

Berechnen wir nmlich den bedingten Erwartungswert von (IV2: 5), so erhalten wir
zunchst14

(JV2: 7)

Verluft nun die Regressionsgerade durch die bedingten Erwartungswerte von Y,


so gilt E(Y, I X) = 130+ 13, X, , was zu

130 + 13,X, = 130 + 13,X, + E(E, IX,)

E(E, I X,) = 0
(IV2: 8)
fhrt. Gilt also (IV2: 6), so sind (IV2: 2) und (IV2: 5) quivalent. Die stochastische
Spezifikation (IV2: 5) der Regressionsfunktion der Grundgesamtheit hat jedoch den
Vorteil, dass neben den erklrenden Variablen im Modell auch der Einfluss anderer
Faktoren erkennbar wird.

14 Es gilt generell E(f(X) IX) als gegeben betrachten, gilt

[(X).

Da wir im Rahmen unseres Einfhrungsbeispiels die X;


IX,l = ~,X,.

E(~,X,

IV Einfijhrung in die konometrie

444

Die Gltigkeit von (IV2: 6) knnen wir auch in unserem hypothetischen Beispiel
aufzeigen, da wir hier den Vorteil genieen, die Grundgesamtheit zu kennen, was

natrlich in der Praxis nicht der Fall sein wird. Hier sind wir aber in der Lage, die
Parameter ~o und ~, durch Bestinunung einer Geradengleichung unter Verwendung
zweier beliebiger Wertepaare (X"E(Y Ix, ber das Gleichungsystem
(1) 65=~o +~, 80
(2) 77 = ~o +~, 100
zu ermitteln. Wir erhalten damit ~o - 17 und~, - 0,6, was uns die folgenden mglichen Ausprgungen des Strtenms bei z.B. X - 80 liefert:
E, - Y, - (~, + ~, . 80) - 55 - (17 + 0,6 . 80) - -10
E, - Y, - (~, + ~, . 80) - 60 - (17 + 0,6 . 80) - -5
E, - Y, -

(~, + ~, .

80) - 65 - (17 + 0,6 . 80) - 0

E, - Y, -

(~, + ~, .

80) - 70 - (17 + 0,6 . 80) - 5

E, - Y, - (~, + ~, . 80) - 75 - (17 + 0,6 . 80) - 10


Wie zu erkennen ist, kann der Strterm sowohl negative, als auch positive Realisa-

tionen annehmen, die sich jedoch innerhalb der Teilgesamtheit gegenseitig aufheben. Ihr Mittelwert liegt daher bei Null, sodass E(E, 180) - 0 gilt.
Zum Abschluss dieses Unterabschnittes wollen wir noch kurz darauf hinweisen,
dass im Falle eines Regressionsmodells mit mehreren erklrenden Variablen, dem
sog. multiplen Regressionsmodell, unsere Ausfhrungen analog gelten. Aus
Grnden der bersichtlichkeit verwenden wir hier fr die Regressionsfunktion der
Grundgesamtheit jedoch eine etwas andere Notation:
Yi = ~o

+ ~,X" + ~2X2i + ... + I\XKi + Ei

(IV2: 9)

Hierbei ist X" die i-te Beobachtung der ersten erklrenden Variablen, X. die i-te
Beobachtung der zweiten erklrenden Variablen und K die Anzahl der erklrenden

Variablen. Y wird also hier von mehreren erklrenden Variablen x;. mit k

1,2, ... ,K

bestinunt.

2.1.2

Die Regressionsfunktion der Stichprobe

Da in der Regel nicht alle Daten der Grundgesamtheit bekannt sind, knnen die
Parameter der Regressionsfunktion der Grundgesamtheit nicht exakt bestimmt werden. Nachdem die Gleichung des Regressionsmodells aufgestellt wurde (Wahl der
funktionalen Fonm und der erklrenden Variablen) ist daher die Erhebung einer
Stichprobe erforderlich, mit deren Hilfe die unbekannten Parameter schlielich geschtzt werden knnen. Die quantifizierte Version der Regressionsfunktion wird als
geschtzte Regressionsfunktion (Regressionsfunktion der Stichprobe oder einfach geschtzte Regression) bezeichnet und hat im Fall eines linearen Modells mit
nur einer erklrenden Variablen (analog bei mehreren Variablen) die Fonm

Y, = o + ,x, .

(IV2: 10)

Gleichung (IV2: 10) stellt damit das Stichprobengegenstck zu (IV2: 2) dar. Sie ist
uns bereits als (IV1: 3) aus unserem Abschnitt zu OLS bekannt. Uegt uns also

2. Das lineare Regressionsmodell und seine Annahmen

445

Stichprobenzahlenmaterial fr X und Y vor, so knnen wir die unbekannten Parameter der Regressionsfunktion mittels aLS schtzen. o ist die aLS-Schtzung fr
~o und , die aLS-Schtzung fr ~,. Mittels dieser kann dann Y;, die Schtzung fr
E(Y Ix,), bestimmt werden. Da wir die Parameter mit aLS schtzen, ist natrlich bei
der Aufstellung des Modells bzw. der Wahl der funktionalen Form der Regressionsfunktion darauf Zu achten, dass diese parameterlinear ist. Andernfalls knnen wir
die Parameter nicht mit aLS schtzen.
Genau wie wir die Regressionsfunktion der Grundgesamtheit in zwei quivalenten
Formen (N2: 2) und (N2: 5) darstellen konnten, knnen wir dies auch fr die geschtzte Regressionsfunktion (N2: 10) tun:

aV2: 11)
Der Term e. ist darin unser bereits bekanntes Residuum. Es ist nach aVl: 4) die
Differenz ~ischen Y, und Y" kann als Schtzung von E, betrachtet werden und
wird aus den selben Grnden in die geschtzte Regressionsfunktion aufgenommen,
aus denen E, in die Regressionsfunktion der Grundgesamtheit integriert wurde.
Whrend der stochastische Strterm Ei = Yi - E(Y, I Xi) als ein rein theoretisches
Konzept betrachtet werden kann und nicht empirisch beobachtbar ist, knnen Residuen in einer Stichprobe als konkrete Zahlen bestimmt werden.
Zusammenfassend knnen wir sagen, dass es das primre Ziel der einfachen linearen Regression (analog auch der multiplen Regression) ist, die Regressionsfunktion
Yi =E(Yi IX,)+Ei =~o +~,Xi +Ei
mit
Y, =Y, +e, = o +,X, +e,
zu schtzen. Abbildung N 7 zeigt die Regressionsfunktion der Grundgesamtheit
und ihre Schtzung zur besseren Veranschaulichung graphisch. Darin sind die empirisch beobachteten Punkte (X"Y) aus einer Stichprobe sowie die Graphen der
wahren und der geschtzten Regressionsfunktion abgetragen. Es ist zu erkennen,

dass die l!eschtzte Gerade nahe bei der wahren liegt, jedoch nicht mit ihr identisch ist. Y., der geschtzte Wert von E(Y IX,) fr die a-te Beobachtung von X, liegt
auf der geschtzten Regressionsgeraden und unterscheidet sich von YI.' dem tat-

schlich beobachteten Wert von Y fr die a-te Beobachtung. Die Differenz zwischen beiden ist das Residuum und wurde mit e. bezeichnet. Obwohl der Strterm
nicht beobachtet werden kann, haben wir diesen fr die a-te Beobachtung von X
unter Zuhilfenahme der (eigentlich auch nicht bekannten) wahren Regressionsgeraden als E. ebenfalls abgetragen.
Es ist deutlich ZU erkennen, dass Y. den wahren Wert E(Y IX.) berschtzt. Dies
gilt fr jedes X. rechts vom Punkt x". Links davon kommt es ZU einer Unterschtzung. Derartige ber- und Unterschtzungen sind jedoch stichprobenspezifisch.
Die Lage der geschtzten Regressionsfunktion ist von Stichprobe zu Stichprobe verschieden, da die geschtzten Regressionsparameter auf rein zufallig entstehendem
Stichprobenzahlenmaterial beruhen. Obwohl wir die Lage der Regressionsfunktion
der Grundgesamtheit nie kennen werden (auer bei bekannter GrundgesamtheiO,
werden wir uns in den folgenden Abschnitten damit befassen, wie wir die Regressionsfunktion so schtzen knnen, dass die Schtzung die Regressionsfunktion der
Grundgesamtheit besttnglich abbildet. Ein im Grunde faszinierendes Unterfangen!

IV Einfijhrung in die konometrie

446
Y

..........

,-- -- .

Y,

Y,

E,

~
o

Wahre Gerade:
E(Y Ix.) = o + ,X,

x,

Abbildung IV 7: Wahre und geschtzte Regressionsgerade I


Zur besseren Veranschaulichung dieser berlegungen greifen wir wieder auf unser
Konsumbeispiel zurck. Da wir hier die Grundgesamtheit kennen (in der Praxis natrlich unrealistisch), konnten wir bereits zeigen, dass E(Y IX,) = 17 + O,6x, gilt.
Ziehen wir nun aus der Grundgesamtheit eine zufllige Stichprobe, so knnten wir
(bei vorgegebenen x,) z.B. das in Abbildung IV 8 ZU findende Ergebnis erhalten.
Verwenden wir diese Wertepaare zur OLS-Schtzung der Parameter o und " so
erhalten wir die Schtzung Y, = 15,9818 + 0, 5739X" die sehr nahe an der Regressionsfunktion der Grundgesamtheit liegt.
y

200

Y,

80

100

120

140

160

180

200

220

240

260

55

70

84

93

116

130

145

135

155

152

150

100

E(Y I X,) = 17 +O,6X,

--- Y. = 15,9818 + 0, 5739X,

50~,----.----,----.----.----.----r----r---,r----r~

80

100

120

140

160

180

200

220

Abbildung IV 8: Wahre und geschtzte Regressionsgerade II

240

260

447

2. Das lineare Regressionsmodell und seine Annahmen

2.2 Klassische Annahmen


2.2.1

Annahmenkatalog

Das sog. klassische lineare Regressionsmodell (CLRM, eng!. classicallinear regression modell) ist durch die nachfolgenden 6 Annahmen gekennzeichnet. Werden
diese eingehalten, so liefert OLS nach dem sog. Gau-Markov-Theorem (vg!. IV
2.3.2) die "bestmglichen" Schtzer fr die Koeffizienten des Modells. Aufgrund
ihrer enonnen Bedeutung, werden wir diese 6 Annahmen zum besseren Verstndnis meist am einfachen Regressionsmoclell veranschaulichen. Sie gelten natrlich
analog auch fr das multiple Modell.
Annahme 1:

Das Regressionsmodell ist parameterlinear.

Wie bereits unter IV 1.2.2 besprochen wurde, erfordert die Anwendung der linaren
Schtztechnik OLS die Parameterlinearitt der Regressions/unktion der Grundgesamtbeit. Sie sollte also eine Form
f(Y) = ~o + ~lf(X,) + ~2f(X2) + ... + ~Kf(X,,) + Ei

(IV2: 12)

aufweisen.1 5 Dies zeigt noch einmal, dass Variablenlinearitt nicht zwingend erforderlich ist. Wurde eine nicht parameterlineare Form gewhlt, so ist diese zu transformieren. So kann z.B. eine Exponentialfunktion
YI =eIloX!l,e'
I

mit e als Eulerscher Zahl durch logarithmische Transformation


In YI = ~o + ~,lnXI + EI
in eine parameterlineare Form gebracht werden, die durch OLS schtzbar ist.
Annahme 2a: Der Erwartungswert des stochastischen Strterms bei gegebenen
Werten der erklrenden Variablen ist gleich Null:

E(EI I X.) = 0

(IV2: 13)

Zum besseren Verstndnis dieser zentralen Annahme des CLRM betrachten wir Abbildung IV 9. Diese zeigt fr das einfache lineare Regressionsmodell fr einige X,
die zugehrigen Y-Teilgesamtheiten. Jede Teilgesamtheit streut um den dazugehrigen bedingten Erwartungswert, wobei alle diese bedingten Erwartungswerte auf
der Regressionsfunktion der Grundgesamtheit liegen. Innerhalb jeder Teilgesamtheit von Y liegen einige Werte von Y ber, andere unter E(Y 1)(,). Ln Abbildung IV
9 sind zur Veranschaulichung zustzlich die (als symmetrisch und gleich angenommenen) bedingten Verteilungen der EI skizziert. Sie haben ihre Mitte genau bei
den bedingten Erwartungswerten E(ylx,), bei denen der Strterm gerade Null ist.

15 Diese Annalune schliet also auch das Vorhandensein eines addttiven Strterms ein.

448

IV Einfijhrung in die konometrie

Die Annahme 2a besagt nun einfach ausgedrckt, dass der stochastische Strterm
innerhalb jeder Teilgesamtheit von Y einen Erwartungswert von Null haben soll.
Positive und negative E, sollen sich fr jedes gegebene X; gegenseitig aufheben.
Dies bedeutet nichts anderes, als dass alle Faktoren, die nicht explizit ins Modell
aufgenommen wurden und sich daher in E, widerspiegeln, den bedingten Erwartungswert von E, nicht systematisch beeinflussen. Annahme 2a unterstellt damit,
dass das Modell (IV2: 12) korrekt spezifiziert ist. Dies bedeutet, dass zum einen
keine bedeutenden erklrenden Variablen vemacblssigt werden und zum anderen
die korrekte funktionale Form fr die Regressionsfunktion gewhlt wurde.
Y

Bedingte Verteilung von Y

beiX=X,

-EI

+Ei

~:

E(Y I X,) = o + P,X,

" " Bedingte Verteilung von e,

o Bedingte Erwartungswerte

E(Y I X)

X,

X,

X,

Abbildung IV 9: Bedingte Verteilung der E,


Falls wir nicht die korrekte funktionale Form gewhlt (oder Vatiablen vernachlssigt) haben, gilt E(E, I X) O. Betrachten wir dazu die Ausgangssituation

E(Y, I X,) = o + ,X, + E(E, I X,),


d.h. wir haben eine lineare funktionale Form zur Erklrung des bedingten Erwartungswertes von Y gewhlt. Damit der Term E(E, I X;) Null wird, muss sich die gewhlte funktionale Form o + ,X, mit der in der Grundgesamtheit geltenden Form
decken, d.h. es muss hier E(Y; I X,) = Po + P,X, sein. Gilt nun in der Grundgesamtheit z.B. E(Y, I X,) = o + ,X, + ,X~ , whlen wir jedoch eine lineare Form, so gilt
Po + ,X, + ,X; = Po + ,X, + E(E, I X,) ~

E(E, I X,) = p,X;

* O.

Da es im Falle von E(E, I X) 0 ZU einer verzerrten Schtzung der Regressionsparameter kommt, ist es von entscheidender Wichtigkeit die funktionale Form korrekt
zu whlen. Welche funktionale Form jedoch konkret verwendet werden sollte, ist
bei unbekannter Grundgesamtheit nicht gerade einfach zu sagen. Wichtige Anhaltspunkte kommen hier meist aus dem theoretischen Hintergrund, der zur Beschrei-

2. Das lineare Regressionsmodell und seine Annahmen

449

bung der Situation in der Grundgesamtheit herangezogen wird. Keinesfalls sollte


die funktionale Fonn allein anhand des '1lts" In der Stichprobe ausgewhlt werden.
Aus Annahme 2a folgt direkt, dass auch der unbedingte Erwartungswert des stochastischen Strtenns einen Wert von Null annnimmt:
E(E) = 0

(IV2: 14)

Die bedeutendste Folge von Annahme 2a ist die Unkorreliertheit des stochastischen
Strtenns und der erklrenden Variablen. Diese wollen wir im Folgenden als Annahme 2b aufnehmen, auch wenn sie mit 2a automatisch erfllt ist. Wir whlen
diese Vorgehensweise bewusst, da fr den Fall, dass Annahme 2b verletzt wird,
auch die Annahme 2a verletzt wird und es zur verzerrten und inkonsistenten Schtzung der Regressionskoeffizienten kommt. Zudem ist Annahme 2a nicht direkt mit
statistischen Tests berprfbar.
Annahme 2b: Der stochastische Strtenn ist nicht mit der erklrenden Variable

korreliert.
(IV2: 15)
Wenn wir ein Regressionsmodell aufstellen, nehmen wir an, dass die erklrende
Variable und der stochastische Strtenn einen separaten Einfluss auf die erklrte
Variable haben. Wren die erklrende Variable und der Strtenn korreliert, so wre
es nicht mglich ihre individuellen Einflsse auf Y zu untersuchen bzw. zu isolieren. OLS wrde Vernderungen von Y, die auf den Strtenn zurckzufhren sind,
der erklrenden Variablen zuordnen. Lge z.B. eine positive Korrelation zwischen
X und E vor, so wrde der geschtzte Koeffizient von X anders ausfallen als im Fall
ohne Korrelation, da OLS die Variation von Y falschlicherweise allein auf X und
nicht auch auf E zurckfuhrt. Nur bei fehlender Korrelation besteht eine derartige
Verzerrung nicht.

Ist E(E, I x,) = 0, so sind der stochastische Strtenn und die erklrende Variable unkorreliert16 Umgekehrt gilt dies jedoch nicht. Es gilt allgemein
E(E, I X) = 0

--7

COV(E" X) = 0

COV(E" X) .. 0

--7

E(E, I X) .. 0

(IV2: 16)

Aus der Annahme COV(E" x,) = 0 folgt nicht E(E, I x,) = 0, da die Kovarianz nur den
linearen Zusammenhang zwischen zwei Variablen misst. Damit E(E, I x,) = 0 ist,
muss auch die Kovarianz zwischen EI und jeder deterministischen Funktion von ~,
beispielsweise X:, Null sein. Es lsst sich aber im Falle COv(E" X) .. 0 zeigen, dass
E(E, I x,) .. 0 gilt. In der angewandten konometrie wird in der Regel auf die Bedingung 2b abgestellt und diese anhand von Tests berprft. Ist man nur an der Konsistenz der Schtzer und nicht zugleich an ihrer Erwartungstreue interessiert, so ist
die Annahme 2a nicht erforderlich und es gengt die Annahme 2b.
Mit Annahme 2a ist also Annahme 2b automatisch erfllt17 Im Falle E(E, I X) = 0
sagen wir, die Variable X ist exogen. Ist COV(E"x,) .. 0, ist die Annahme der Exo-

16 Fr einen Beweis hierfr vgl. z.B. Stock und Watson (2003).

IV Einfijhrung in die konometrie

450

genitt verletzt. X wird dann als endogen bezeichnet. Annahme 2b ist typischerweise bei vemchlssigten Variablen und falscher funktionaler Form verletzt und
fhrt zur Verzerrung und Inkonsistenz der OLS-Schtzer1B

Annahme 3:

Homoskedastizit: Bei gegebenen Werten der erklrenden Variable


ist die Varianz von E, fr alle Beobachtungen identisch.
Var(E, I X) =

(IV2: 17a)

0"'

Der Begriff Homoskedastizitt (homo = gleich, Skedastizitt = Streuung) besagt zunchst nichts anderes als gleiche Varianz. Nehmen wir an, dass die Teilgesamtheiten von Y, die mit den verschiedenen X-Werten einhergehen, die gleiche Varianz
besitzen, d.h. die Streuung der Y in den einzelnen Teilgesamtheiten identisch
bleibt,19 so folgt daraus auch eine konstante Varianz der stochastischen Strtenme.
Grafisch lsst sich die Verteilung der E, in einem solchen Fall wie in Abbildung IV
10 darstellen. Darin beschreibt feE) die Wahrscheinlichkeitsdichte der Verteilungen
des stochastischen Strtenms. Wir erkennen, dass fr jedes X; die Verteilung des
stochastischen Strtenms aufgrund des gleichen Mittelwertes (Annahme 2a) von
Null und der gleichen Varianz (Annahme 3) identisch ist.
feE)

X,

X,

E(YIX)

= 13, + 13,X,
X

Abbildung IV 10: Homoskedastizitt

17 Einen weiteren Fall, bei dem Annahme 2b automatisch erfllt ist, werden wir im Abschnitt
IV 2.2.2 im. Zusammenhang mit deterministischen Regressoren kennenlemen.
18 Mit dem Problem der Verletzung von Annahme 2b werden wir uns unter IV 4.6 intensiv
auseinandersetzen. Auch unter IV 4.1 und IV 4.2 werden wir ihm bereits begegnen.
19 Formal bedeutet dies Var(Y IX) =
Die bedingten Verteilungen von Y besitzen also
die gleiche Streuung.

er .

2. Das lineare Regressionsmodell und seine Annahmen

451

Analog zu den Folgen der Annahme 2a folgt aus Annahme 3 direkt, dass auch die
unbedingte Varianz des stochastischen Strlenns den Wert ci' besitzt. Es gilt also
Var(EI ) = cr' .

(N2: 17b)

1m Gegensatz zu Abbildung N 10 zeigt Abbildung N 11 eine Situation, die auch


als Heteroskedastizitt (hetero - ungleich) bezeichnet wird. Die Varianzen der

Teilgesamtheiten von Y verndern sich nun mit X. Formal fhrt dies zu einer Abwandlung von (N2: 17a) in (N2: 18). Gerade daher ist auch das Subskript i in
(N2: 18) enthalten, welches andeutet, dass die Varianz nun nicht mehr konstant ist.
1m Extremfall kann sich also fr jedes X, eine andere Varianz cr~ ergeben.
Var(E, IX) = cr~

(IV2: 18)

Abbildung N 11 zeigt einen besonderen Fall von Heteroskedastizitt, nmlich den,


dass Var(l; IJe,) < Var(e, Ix,) < ... < VarCe, 1)(,) gilt. Die Wahrscheinlichkeit in einer
Stichprobe einen Y-Wert Zu erhalten, der nahe an der Regressionsfunktion der
Grundgesamtheit liegt ist somit in Teilgesamtheit X - Je, hher als beispielsweise in
X-x,. Wir wrden daher dazu neigen, Stichproben aus den Teilgesamtheiten zu
ziehen, die weniger um ihren bedingten Erwartungswert streuen. Dies wrde aber
den Bereich mglicher X-Werte einschrnken. Durch Annahme 3 sind alle Y-Werte
innerhalb der verschiedenen Teilgesamtheiten gleichwertig, da ihre Streuung um
die bedingten Erwartungswerte gleich ist.

fee)

XI

X,

E(YIX)
=~o +~IXI
X

Abbildung N 11: Heteroskedastizitt


Zu einer Verletzung dieser Annahme 3 kommt es hufig in Querschnittsregressionen. 20 Nehmen wir z.B. an, wir untersuchen in einem Modell die persnlichen
Ausgaben fr Reisen in Abhngigkeit vom verfgbaren Einkommen. Da bei hohen
Einkommen die Schwankungen der Ausgaben absolut betrachtet hchstwahrscheinlich grer sind als bei niedrigen Einkommen, ist auch mit zunehmender
20 Mit dem Problem der Heteroskadastizitt befassen wir uns im Abschnitt IV 4.4 im Detail.

452

IV Einfijhrung in die konometrie

Varianz des stochastischen Strtenns zu rechnen. Wir haben es deshalb bei der
Analyse von Querschnittsdaten sehr hufig mit dem Problem der Heteroskedastizitt zu tun. Die OLS-Schtzer sind in einem solchen Fall immer noch erwartungstreu

uttd kottsistent, aber nicht mehr efflZiettt.


Annahme 4:

Keine Korrelation der StI1enne: Bei gegebenen Werten der erklrenden Variablen ist die Kovarianz und damit die Korrelation zwischen zwei beliebigen Ei und E j Ci j) gleich Null.

(IV2: 19)

Diese Annahme besagt, dass bei gegebenen Werten der erklrenden Variablen die

Zufallsvariablen E, und E" die durch zwei beliebige Y-Teilgesamtheitett bestimmt


werdett, nicht voneinander abhttgett und nicht etwa Muster wie in dett Streudiagrammett 1 und 2 in Abbildung N 12 aufweisen. Wir habett in dieser Abbilduttg
das Subskript t verwendet, da eine Verletzung vott Anttahme 4 hufig in Zeitreihettregressionen auftritt. Hier ist die Zufallsvariable E, hufig von der um eine Periode
verzgerten Variablen E,_, abhngig. Wir sprechen dann auch von Autokorrelation
erster Ordnung. Muster 1 verdeutlicht positive Autokorrelation. Auf positive Werte
von E in t-l folgen wieder positive in t bzw. auf negative wieder negative. Bei negativer Autokorrelation in Muster 2 verhlt es sich umgekehrt. Annahme 4 fordert
nun die Abwesentheit derartiger Korrelationen. Muster 3 in Abbildung IV 12 zeigt,
dass es hier keine systematische Beziehung zwischen den Stltermen gibt, sodass

keine Autokorrelation vorliegt.

+E,

+E,



-Et_1------=-:t-''------+E
_
t 1

-Et_ 1 -------~.~.------+E t _ 1

-E,

-E,

3
+E,


-E t _ 1 --------+-''-----+E t_ 1


-E,

Abbildung IV 12: Korrelationsmuster des Strtenns

2. Das lineare Regressionsmodell und seine Annahmen

453

Welchen Effekt htte nun aber eine Verletzung dieser Annahme?21 Nehmen wir an,

unsere Regressionsfunktion sei Yt = o + l~ + EI und EI und Et_1 positiv korreliert


(vgl. Abbildung N 12, Nr. 1). Y, wrde somit nicht nur von X, abhngen, sondern

auch von E,." da dieser in gewissem Ausma E, bestimmt. Durch Annahme 4 werden derartige Einflsse ausgeschlossen, sodass Y, nur durch den systematischen
Einfluss von X, bestimmt wird. Wie bereits erwhnt, ist diese Annahme besonders
in Zeitreihenmodellen von Bedeutung. In diesem Zusammenhang besagt sie nmlich, dass eine Erhhung des Strterms (z.B. durch einen zufalligen Schock) in einer Periode keinen Effekt auf den Strterm der Folgeperiode hat. In vielen Fllen
kann eine solche Annahme jedoch unrealistisch sein, da die Auswirkungen eines
zufalligen Schocks meist mehrere Perioden anhalten. Wir werden daher im weiteren Verlauf auch Verfahren betrachten, mit denen wir auch unter Bercksichtigung
von Autokorrelation schtzen knnen. Eine OLS-Schtzung fhrt bei Autokorrelation zu einem Effizienzverlust der OLS-Schtzer. In speziellen Modellen fhrt sie
auerdem ZU deren Verzerrung (vgl. Abschnitt N 4.7.1.2).
Annahme

5:

Die Anzahl n der Beobachtungen muss grer als die Zahl der zu
schtzenden Parameter sein. Auerdem sind groe Ausreier bei

den

cx" Y)-Kombinationen unwahrscheinlich.

Wie wir es aus der Mathematik kennen, bentigen wir zur Aufstellung einer Geradengleichung mindestens 2 Punkte, die auf dieser Geraden liegen. hnlich verhlt
es sich bei der Regressionsanalyse. Zur Schtzung einer Regressionsfunktion mit
zwei unbekannten Parametern bentigen wir beispielsweise mindestens 3 Beobachtungspaare (X"Y). Andernfalls knnen wir keine Schtzung durchfhren.
Der zweite Teil dieser Annahme bedeutet, dass Beobachtungen mit weit auerhalb
des blichen Datenbereichs liegenden Werten fr X, und/oder Y, nicht vorkommen
sollten. Sie knnen die Ergebnisse der OLS-Schtzung evtl. verfalschen (vgl. Abbildung NB). Derartige Ausreier knnen ein Resultat von Datenerfassungsfehlern
sein. So knnen sie etwa durch einfaches "Vertippen" oder durch die Verwendung
unterschiedlicher Maeinheiten fr unterschiedliche Beobachtungen entstehen.
Kann ein derartiger Fehler identifiziert werden, erfolgt eine einfache Korrektur.
Y
Ausreier

Schtzung mit Ausreier

t:~.~~.~::~.==__-===~.~.;:====.::~:.~:.~~S;C;h~tz~u~n~g~Ohne
o

Ausreier

Abbildung N 13: Einfluss von Ausreiern auf OLS-Schtzungen


21 Eine detaillierte Behandlung des Problems der Autokorrelation folgt unter IV 4.5 und speziell fr sog. dynamische Modelle unter IV 4.7.1.2.

IV Einfijhrung in die konometrie

454

Bei der Untersuchung von Finanzmarktdaten (v.a. bei Aktienrenditen) kornrnt es


hufig zu Ausreiern. Sie sind hier meist das Resultat konomischer Schocks. Wir
knnten daher der Versuchung unterliegen die entsprechenden Beobachtungen aus
dem Datensatz Zu streichen, um die Schtzergebnisse Zu "verbessern". Gerade da-

durch gehen aber Infannationen verloren, die die Grundgesamtheit beschreiben,


was also nicht wirklich zu einer Verbesserung der Schtzungen fhrt. Vor Ausschluss sollten also die Ausreier und vor allem deren Bedeutung fr die Charakteristika der Grundgesamtheit genau untersucht werden.
Annahme 6:

Keine erklrende Variable ist eine perfekte lineare Funktion einer


oder mehrerer anderer erklrender Variablen (keine vollkornrnene
MultikollinearitO.

Diese Annahme 6 ist die einzige zustzliche Annahme, die im multiplen Regressionsmodell getroffen wird. Sie ist fr das einfache Regressionsmodell nicht relevant,

da in diesem nur eine erklrende Variable vorhanden ist. Die Annahmen 1 bis 5
gelten fr das multiple Regressionsmodell analog. 22
Vollkommene Kollinearitt zwischen zwei erklrenden Variablen impliziert, dass
sie in Wirklichkeit identisch sind, eine nur ein Vielfaches der anderen ist und!oder
ein konstanter Tenn zu einer Variablen addiert wurde, um die andere zu erhalten.
Fonnal knnen wir also sagen, dass es z.B. in einem Modell mit nur zwei erklrenden Variablen keine Beziehung X" = tlo + tl,X" geben darf. 23 Existiert eine solche,
kann OLS nicht zwischen den Variablen unterscheiden und eine Schtzung der
Regressionsparameter ist unmglich. Vielfach ist vollkornrnene Kollinearitt das Resultat nicht beachteter Identitten zwischen erklrenden Variablen. Der Ausschluss
einer der vollkornrnen kollinearen Variablen aus der Regressionsfunktion ist daher
oft (nicht generell) die einfachste Lsung dieses Problems.

Sind mehr als zwei erklrende Variablen betroffen und ergibt sich eine Variable als
Linearkombination verschiedener anderer, so sprechen wir von vollkommener
Multlkollinearitt. Sie kann beispielsweise auftreten, wenn sich eine erklrende
Variable als Summe zweier anderer erklrender Variablen ergibt. Da es in der Literatur gebruchlich ist, den Begriff Multikollinearitt auch im Fall von Kollinearitt
zu verwenden, werden auch wir uns dieser Vorgehensweise anschlieen.

Whrend es in der Praxis sehr unwahrscheinlich ist, auf vollkornrnene Multikollinearitt zu treffen, kann unvollkommene Multikollinearitt (hohe Korrelation zwischen den Variablen, aber keine exakte lineare Beziehung) zu Problemen bei der
Schtzung fhren. Da eine Unterscheidung der Variablen schwer fallt, ordnet OLS
z.B. in einem Modell mit zwei erklrenden Variablen Vernderungen von Y, die ei-

gentlich auf X, zurckzufhren sind, X, zu oder umgekehrt. 24


22 Unsere Annahmen 2a und 3 wrden wir z.B. im Modell mit zwei Regressaren in der Fonn
E(e, I Xu>X,) = 0 und Var(e, I X",X~) = ci' fonnulieren. Annahme 2b htte die Fonn
COV(EOX t ) = COV(EOX 2) = O.
23 Annahme 6 schliet nUf perfekte lineare Beziehungen zwischen erklrenden Variablen
aus. Polynomiale oder andere Verbindungen sind davon nicht betroffen.
24 Mit derartigen Problemen werden wir uns unter IV 4.3 noch ausfhrlich beschftigen.

2. Das lineare Regressionsmodell und seine Annahmen

2.2.2

455

Bedeutung deterministischer und stochastischer Regressoren

Bisher haben wir die Modellgleichungen und Annahmen des klassischen linearen
Regressionsmodells fr stochastische Regressoren prsentiert. Dies bedeutet, dass X
eine Zufallsvariable darstellt und wir alle Aussagen bedingt auf eine spezielle Ausprgung dieser Zufallsvariablen formulieren mssen. In einer wiederholten Stichprobe knnen wir nmlich unterschiedliche Realisationen von X erhalten.
In vielen Einfhrungslehrbchern zur konometrie ist es Standard, die Annahmen
des CLRM um die zustzliche Annahme deterministischer (nicht-stochastischer)
Regressoren zu erweitern. Dies bedeutet, dass davon ausgegangen wird, dass wir
die Realisationen von X in wiederholten Stichproben fixieren knnen. Um dies zu
veranschaulichen greifen wir auf unser Konsumbeispiel aus IV 2.1 zurck. In der
dortigen Tabelle waren fr 10 verschiedene X-Werte Teilgesamtheiten von Y aufgefhrt. Werden nun zwei Stichproben aus dieser Grundgesamtheit gezogen, so
knnten deren Ergebnisse folgendermaen aussehen:25
X

Y (Stichpr. 1)
Y (Stichpr. 2)

80
55
60

100
65
70

120

79
84

140
80
93

160
102
107

180
110
115

200
120
136

220
135
137

240
137
145

260
150
152

Wie zu erkennen ist, wurde fr jede Stichprobe die gleiche Auswahl an X-Werten
verwendet. Fr jeden X-Wert ergab sich aber von Stichprobe zu Stichprobe ein anderer Y-Wert. Hier ist also lediglich Y als Zufallsvariable zu betrachten.
Ein Vorteil einer derartigen Zusatzannahme ist, dass wir unsere Modellannahmen
unbedingt formulieren knnen, da sich die Bedingung (die X-Werte) schlielich
nicht verndern kann. Aus den Annahmen 2a, 3 und 4 wird so fr alle i (bzw. i j)

E(E) = 0,
Var(E) = es'
und
COV(EpE j ) = O.
Die Annahme deterministischer Regressoren vereinfacht insbesondere die Herleitung zahlreicher statistischer Eigenschaften von GLS-Schtzern. Deswegen werden
auch wir im weiteren Verlauf hufig davon Gebrauch machen (vgl. z.B. Abschnitt
IV 2.3.1). Nachteil einer solchen Annahme ist zunchst, dass dadurch meist die zentrale Annahme vernachlssigt wird, dass der Strterm nicht mit der erklrenden
Variable korreliert sein darf. Deterministische Regressoren erfllen nmlich die Annahme 2b automatisch, da
COV(E"X)

E[(E, -E(E))(X, -E(X))] = [X, -E(X)]E[E,] = O.

Sind die X-Werte fest vorgegeben (determiniert), so gilt zudem, dass E, und X, unabhngig voneinander sind und damit ist natrlich auch der bedingte Erwartungswert der E, fr alle X, konstant. Im Falle deterministischer Regressoren sind also sowohl Annahme 2b als auch 2a erfllt.
In der empirischen Wirtschaftsforschung gibt es allerdings nur sehr selten deterministische Regressoren. X ist hier (anders als in kontrollierten Laborexperlmenten)
hufig stochastisch, also wie Y eine Zufallsvariable. Wollen wir beispielsweise die
Rendite einer Aktie durch die eines Marktindex (z.B. CDAX) erklren, so knnen
25 Zur besseren Zahlenvergleichbarkeit haben wir die ersten beiden Zeilen als Stichproben
entnommen. Dies sind natrlich nur zwei von vielen mglichen Stichprobenausgngen.

IV Einfijhrung in die konometrie

456

wIr In wiederholten Stichproben unmglich die Rendite des Marktindex in der


oben beschriebenen Art fixieren. Stattdessen werden wir von Stichprobe zu Stichprobe andere Werte fr X erhalten.
Eine Konditionierung auf die X-Werte der Stichprobe bei statistischen Herleitungen
bedeutet technisch gesprochen, dass wir die X-Werte als detenninistisch in wiederholten Stichproben betrachten knnen. Wenn wir also In einer Zujallssttchprobe
annehmen knnen, dass E(e, IX) ~ 0 gUt, knnen wir bei Herleltungen und Bewei-

sen die X als deterministisch betrachten, obwohl sie stochastisch sind.


Solange Annahme 2b erfllt ist, stellt ein stochastisches X fr die praktische Anwendung der Regressionsanalyse in den meisten Fllen kein Problem dar. Eine
Verletzung von Annahme 2b fhrt bei stochastischem X jedoch zu verzerrten und
inkonsistenen OLS-Schtzern.

2.2.3

Duplikation der Annahmen des ClRM durch OlS

Wie wir leicht erkennen, beziehen sich die Annahmen des CLRM auf die Regressionsfunktion der Grundgesamtheit und nicht die der Stichprobe. OLS besitzt nun
die interessante Eigenschaft, dass es versucht, einige dieser Annahmen in der
Stichprobe zu rekonsttuieren, um die Regressionsfunktion der Grundgesamtheit so
genau wie mglich schtzen ZU knnen. So ist z.B. die mathematische OLS-Eigenschaft (IV1: 13c) bzw. I:e, = 0 -+ e = 0 auf Annahme 2a zurckzufhren. Genauso
ist I:e,X, = 0 ein Replikat von Annahme 2b. Es werden jedoch nicht alle Annahmen in der Stichprobe nachgebildet. Auch wenn COV(E" Ej I X" Xj) = 0 Ci j) angenommen wird, trifft es nicht zu, dass auch Cov(e" e j) = 0 Ci j) gilt. Stattdessen
werden wir noch feststellen, dass die Residuen hufig nicht nur autokorreliert sondern auch noch heteroskedastisch sind.
Besonderes Augenmerk des klassischen Regressionsmodells liegt nun aber weniger
auf den mathematischen, sondern vielmehr auf den staltsltschen Eigenschaften von
OLS. Diese ergeben sich aus den Annahmen dieses Abschnitts und einer weiteren
Annahme, die wir im folgenden Abschnitt IV 2.3 tteffen.

2.3 Statistische Eigenschaften der OlS-Schtzer


Ziel der Regressionsanalyse ist es, nicht nur die geschtzte Regressionsfunktion aufzustellen, sondern daraus auch Rckschlsse auf die Regressionsfunktion der
Grundgesamtheit ziehen zu knnen. Wir interessieren uns also Z.B. nicht nur fr
den Wert von
sondern wollen auch wissen, wie genau dieser den wahren Parameter ~, schtzt. Um dies beurteilen zu knnen, mssen wir allerdings Kenntnis
von der Verteilung der OLS-Schtzer haben, deren Werte sich von Stichprobe zu
Stichprobe ndern und damit Zufallsvariablen sind.

l'

2.3.1

Verteilung der OlS-Schtzer

Untersuchen wir zunchst, welchen Erwartungswert und welche Varianz unsere


DLS-Schtzer fr ein einfaches Regressionsmodell aufweisen. Wir setzen dazu

Y, =~o +~,X, +E,


in unsere alternative OLS-Schtzformel (IV1: 12) ein und erhalten damit

2. Das lineare Regressionsmodell und seine Annahmen

457

mit
Fr diese k, knnen wir festhalten, dass Ek, - 0 und Ek,x. - Ek,l{, - 1 gilt. Unter Bercksichtigung dieser zwei Eigenschaften sind folgende Umformungen mglich:
,

=PoLk, +P,Lk,X, + Lk,E, =p, + Lk,E,

Nach Resubstitution von 1<, erhalten wir daraus die wichtige Darstellung (IV2: 20),
auf die wir besonders im Abschnitt IV 4 noch hufig zurckgreifen werden.
i'l

P1

="t-'1+~2
LX,E,

(IV2: 20)

L..Jx j

Falls X nun deterministisch ist, liefert die Erwartungswertbildung von (IV2: 20) aufgrund von E(I:X,E,) - EE(x,E) - Ex,E(E) - 0 das Ergebnis

p, ,

(IV2: 21)

was uns zeigt, dass , ein erwartungstreuer Schtzer fr p, ist. Entstammen die
X, einer Zufallsstichprobe und gilt E(E, I X) - 0, so knnen sie bei der Herleitung
der Eigenschaften der OLS-Schtzer auch als feste Gren betrachtet werden. Es
gilt auch in diesem Fall (X stochastisch), dass OLS-Schtzer erwartungstreue Schtzer sind. 26 Analoges gilt auch fr den Schtzer der Regressionskonstanten, d.h.
E(o) = Po .

(IV2: 22)

Neben ihrer Erwartungstreue sind die OLS-Schtzer auerdem konsistent, d.h. mit
zunehmendem Stichprobenumfang nhert sich der Schtzer immer mehr dem wahren Parameter der Grundgesamtheit an.
Da OLS-Schtzungen von der zugrunde liegenden Stichprobe abhngig sind, knnen sie sich von Stichprobe zu Stichprobe verndern. Gerade daher ist ein Ma fr
die Przision der OLS-Schtzer von besonderem Interesse. Unter Przision verstehen wir dabei, wie stark die Schtzwerte um den wahren Wert der Grundgesamtheit streuen. Es empfiehlt sich daher die Varianz bzw. die Standardabweichung
(auch hufig als Standardfehler des Schtzers bezeichnet) der Schtzer als Przisionsma heranzuziehen. Fr das einfache lineare Regressionsmodell lsst sich zeigen, dass fr die Varianz des Schtzers des Steigungskoeffizienten
(IV2: 23)
und fr die des Schtzers der Regressionskonstanten

LX:

Var(po) = ~cr'
n~xl

26 Fr Details hierzu vgl. z.B. Wooldridge (2006), Kapitel 2.

(IV2: 24)

IV EinfOhlling in die Okonomebie

458

gilt. 27 Dabei ist Xl = XI - X und ci die konstante Varianz der stochastischen Strtenne ~ der Grundgesamtheit. Abgesehen von ci liegen alle Daten fr die Berechnung dieser Standardfeh1er mit einer Stichprobe vor. Das unbekannte cl knnen
wir mittels des erwartungstreuen Schtzers

~=Le~

(IV2, 25)

n-2

schtzen. Wir sprechen bei der Wurzel von (IV2: 25) vom sog. Standardfehl.cr der
Regreuion,28 der auch hufig als Ma fr den lfit" der geschtzten Regressionsfunktion eingesetzt wird. Wie wir in (NI: 13d) gesehen haben, ist der Zhler nichts
anderes als die Summe der quadrierten Abweichungen der Residuen von ihrem
Mittelwert. Dividiert durch n wrden wir also die Varianz der Residuen als Schtzer
fr die Varianz der stochastischen Stttenne verwenden. Da dieser aber nicht erwartungstreu wre, greifen wir zu einer Modifikation. Der hier verwendete Nenner
n - 2 korrigiert eine leichte Abw.rtsverzenung, die durch die Schtzung von zwei
Regressionskoeffizienten entsteht. Dies wird auch als Freiheitsgradkorrektur bezeichnet. da durch die Schtzung von Po und PI (also zwei Koeffizienten) zwei
Freiheitsgrade beim Stichprobendaterunaterial verloren gehen. Bei groem Stichprobenumfang n macht es jedoch keinen Unterschied, ob durch n oder n - 2 dividiert wird.

Q.

Da auch die Standardfehler der Schtzer stichprobenabhngig sind, sind diese genau wie die Schtzer selbst Zufallsvariablen. Hinzu kommt, dass wir zu ihrer Bestimmung eine Schtzung von cl bentigen. Die Standardfehler, die wir berechnen
knnen, sind also genau genommen nur Scblltzungen der echten Standard/eh/er.

Beispiel IV 2-1

Standardfehler von OLS-Schtzern

Berechnen wir zur Veranschaulichung die (SchAtzung der) Standardfehler unserer SchAtzer aus unserem TeekonsumbeispiellV 1-4. Dazu benOtigen wir zunAchst den Standardfehler der Regression, der sich als Quadratwurzel aus (1V2: 25) ergibt:
2
2
ci - 0,34 +0,20 + ... +(-0,11)2 - 01655
11-2
'
Mit diesem knnen wir schlielich die Standardfehler der OlS-Schtzer als Wurzel von
(IV2: 23) und (IV2: 24) schtzen:
2
ci _ ~ I:.><;2 a _ "0,"94='+'-0"","88"'''+-..-.+:-:1'',3''''9
.0,1655 _ 01616
2
~
1101,7176
'

nI:.x.

", =

{'

0,1655

VL'< = .J1,7176

01262
'

27 Hinter der Herleirung der Varlanzen der ScMtzer stecken u.a. die Annahmen 3 und 4 des
CLRM. Mit dieser werden wir uns unter IV 4.4.2 im Detail befassen.
28 Eine Herleitung des Schtzers (IV2: 25) und der Beweis seiner Erwartungstreue sind z.B.
in Gujaratt, D.N. (2003), Kapitel 3, zu finden.

2. Das lineare Regressionsmodell und seine Annahmen

459

Im Regressionmodell mit zwej erklrenden Variablen ergeben sich die Standardfeh-

ler der Regressionskoeffizienten als positive Wurzeln der Varianzen

ci'

Var(I\,) = ' " ' (

(IV2: 26)

, ) ,

~xli 1- f12

_
cr'
Var(I\,) = ' " ' (
, )
L.x2i 1- f 12
und
-2
' " X 22i + X
-2,L.
" 'Xli
, -2X
- 1X
- 2 L.
' " X ti X 2i
1X
1 L.

..

Var(l\o) =
[

LX~iLX~i -(LX"X2i)'

(IV2: 27)

J. cr ,
2

(IV2: 28)

wobei cr' wieder die konstante Varianz der e, und r" der empirische Korrelationskoeffizient zwischen Je, und Je, ist. 29 Als Schtzer fr cr' verwenden wir hier
.... 2

Le~
n-3'

cr = - -

(IV2: 29)

Im Vergleich zu (N2: 25) fllt auf, dass die Anzahl der Freiheitsgrade nun bei n - 3
liegt, da wir zur Bestimmung der e, zunchst 1\" 1\, und 1\, schtzen mssen, wodurch drei Freiheitsgrade verloren gehen. Analog ergibt sich die Anzahl der Freiheitsgrade bei Modellen mit mehr als zwei erklrenden Variablen.

Nach unserem Ausflug ins multiple Regressionsmodell kehren wir nun aber zurck
Zum einfachen Regressionsmodell. In diesem wird in der Regel angenommen, dass
die e, innerhalb einer Teilgesamtheit von Y einer Normalvertellung folgen. Wir
hatten daher in den Abbildungen N 9 und N 10 die Verteilungen bereits als symmetrisch skizziert. Konkret sagen wir, dass die e, I Je, unabhngig und identisch mit
Erwartungswert 0 und Varianz cr' norrnalverteilt sind.30 Da die Verteilung von ,
und aufgrund von (N1: 10) auch die von o' wie wir in (N2: 20) sehen, von der
Verteilung von e, abhngen, folgen auch die OLS-Schtzer einer Norrnalverteilung.
So gilt fr den Schtzer des Steigungsparameters

(IV2: 30)

und fr den Schtzer der Konstanten


(IV2: 31)

29 Leser, die sich fr eine Herleitung dieser Formeln (IV2: 26) bis (IV2: 28) interessieren, verweisen wir auf Gujarati, D.N. (2003), Kapitel 7.
30 Durch die Annarune der Normalverteilung der Eil ~ sind auch die Yjl ~ jeweils mit

E(Y, I x,)

=110 + II,X,

und Var(Y, I X,)

= ci'

unabhngig norrnalverteilt.

IV Einfijhrung in die konometrie

460

Die Normalverteilungsannahme ist jedoch in der Praxis nicht inuner erfllt. In


einem solchen Fall knnen Transformationen der Variablen eine Verteilung liefern,

die eher der Normalverteilung entspricht. So folgt z.B. der logarithmierte Kurs einer
Aktie eher einer Normalverteilung als der Kurs selbst. Dies ist aber eine empirische
Frage und fhrt nicht inuner zum gewnschten Resultat. Bei groen Sticbprobenumfngen31 ist die Verletzung der Normalverteilungsannahme aufgrund des Zentralen Grenzwertsatzes (vgl. Abschnitt II 3.4.1) kein schwerwiegendes Problem. Es
gilt nmlich dann, dass die OLS-Schtzer asymptotiscb normalverteilt sind.32

2.3.2

GauB-Markov-Theorem

Wir haben bereits erwhnt, dass OLS-Schtzer unter gewissen Voraussetzungen

ideale Eigenschaften aufweisen und somit "besttngliche" Schtzer sind. Das sog.
Gau..Markov-Theorem besagt in diesem Zusammenhang, dass bei erfllten Annahmen des klassischen Regressionsmodells die OLS-Schtzer in der Klasse der unver2errten linearen Schtzer minimale Varianz besitzen. Wir sagen kurz, sie sind
BLUE (eng!. best linear unbiased estimators) und erfllen damit die folgenden Bedingungen:
1. Der Schtzer ist linear, d.h. er ist eine lineare Funktion der Zufallsvariablen E
oder Y.
2. Er ist unverzerrt und konsistent. Dies bedeutet, dass die OLS-Schtzungen
der Koeffizienten um den wahren Wert streuen und diesen im Durchschnitt

treffen. Mit zunehmendem Stichprobenumfang nhert sich der Schtzer auerdem dem wahren Parameter an.
3.

Er weist minimale Varianz in der Klasse aller linearen unverzerrten Schtzer

auf. In einem solchen Fall wird er auch als effizienter Schtzer bezeichnet.
Zum besseren Verstndnis dieses Theorems betrachten wir Abbildung IV 14. Sie
zeigt die Stichprobenverteilung des OLS-Schtzers OlS und die eines alternativen
Schtzers AI'. fr ein beliebiges p.
Stichprobenverteilung
von OlS

,,

--- --'

-'

,,

Stichprobenverteilung
von

Alt.

--

Abbildung IV 14: Veranschaulichung der BLUE-Eigenschaft von OLS


31 Huftg reicht bereits ein Stichprobenumfang von 30 Beobachtungen aus.
32 Vgl.

z.B. Greene (2008), Kapitel 2 oder Wooldridge (2006), Kapitel 4.

2. Das lineare Regressionsmodell und seine Annahmen

461

Die Stichprobenverteilungen (hier als symmetrisch angenommen) zeigen die Verteilung der Werte, die die Schtzer in wiederholten Stichproben annehmen. Wir er-

kennen, dass beide Schtzer als unverzerrte Schtzer von bezeichnet werden
knnen, da E(OI'<) = ~ und E(Alt) = ~ gilt. Nehmen wir nun an, dass beide
Schtzer lineare Funktionen von Y sind, so wrden wir uns fr den Schtzer ent-

scheiden, dessen Varianz geringer ist, da dann die Stichprobenwerte des Schtzers
nher bei ~ liegen. Kurz gesagt wrden wir uns fr den Schtzer entscheiden, der
BLUE ist. Gau und Markov haben gezeigt, dass eine solche Entscheidung unter
den Annahmen 1 bis 5 immer zu Gunsten des OLS-Schtzers gefallt wird. Mit dem
dahinter steckenden mathematischen Beweis wollen wir uns hier aber nicht nher
befassen.33
Besonders interessant an diesem Theorem ist, dass keinerlei Annahmen ber die
genaue Verteilung von E, getroffen werden. Allein die Erfllung der Annahmen des
klassischen Regressionsmodells reicht aus, damit das Theorem Gltigkeit besitzt.
Wird jedoch zustzlich die Annahme der Normalverteilung getroffen, so besitzen
die OLS-Schtzer in der gesamten Klasse Oinearer und nichtlinearer) unverzerrter
Schtzer minimale Varianz. Sie sind also dann sogar BUE (eng!. best unbiased
estirnators).

33 Vgi. dazu z.B. Hill et al. (2001), Kapitel 4.

3.

Testen von Hypothesen und


Konfidenzintervalle

Nachdem wir mit der Annahme der Normalverteilung der Strterme die Stichprobenverteilung der OLS-Schtzer festgelegt haben, sind wir nun in der Lage, Hypothesen ber
die unbekannten Parameter der Grundgesamtheit zu testen. Die folgenden Testverfahren
werden uns helfen, anhand von Stichproben bzw. der geschtzten Regressionsfunktion
Aussagen Ober die Grundgesamtheit zu treffen. Wir knnen durch sie prfen, ob unser
OLS-Schtzergebnis rein zufllig von einem bestimmten Wert abweicht und ob unsere
Modelltheorien durch die vorliegende Stichprobe verworfen werden knnen oder nicht.

3.1 Testen einzelner Regressionsparameter - t-Test


Beim t-Test handelt es sich um den Test, der wohl am huftgsten zum Testen von
Hypothesen bezglich einzelner Regressionsparameter herangezogen wird. Hypothesen zu mehr als einem Koeffizienten werden mit dem F-Test (vgl. Abschnitt IV
3.2) berprft. Der t-Test wird huftg verwendet, da er fr den Fall, dass der stochastische Strterm normalverteilt ist und die Varianz dieser Verteilung geschtzt
werden muss, geeignet ist. Da auch bei nicht nonnalverteiltem Strtenn in groen
Stichproben aufgrund des Zentralen Grenzwertsatzes von approximativer Normalvertettung ausgegangen werden kann, hat sich dieser Test als Standard etabliert.
Bereits im Hinblick auf Abschnitt IV 4, in dem wir die Verletzungen der Annahmen
des CLRM und ihre Folgen behandeln, sei an dieser Stelle erwhnt, dass das Testen
von Hypothesen zunchst nur sinnvoll ist, wenn sichergestellt wurde, dass im ge-

schtzten Regressionsmodell alle wichtigen Variablen enthalten sind und eine geeignete funktionale Fonn gewhlt wurde. Auerdem ist anzunehmen, dass der Datensatz, der fr die Schtzung verwendet werden soll, von ausreichendem Umfang
und nicht andersweitig mngelbehaftet ist. Erst in derartig spezifizierten Modellen
sind Hypothesentests aussagekrftig.

3_1_1

Hypothesen, t-Statistik und Entscheidungsregel

In der Regressionsanalyse werden im Rahmen des t-Tests typischerweise folgende


Arten von Hypothesen bzgl. der unbekannten Regressionsparameter der Grundgesamtheit untersucht:

a) Ho: ~k = ~

Dabei ist

gegenber

HA: ~k

* ~~

b) Ho :~k :2:~~

HA :~k <~

c) Ho: ~k ~~~

HA: ~k > ~~

(IV3: 1)

einer der K Steigungsparameter des Regressionsmodells und ~ ein

zugehriger hypothetischer Wert. Aus Grnden, auf die wir im Abschnitt IV 4.2.1
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_16, Springer Fachmedien Wiesbaden 2015

IV EinfOhn.mg in die Okonometrie

464

zu sprechen kommen, empfiehlt es sich nicht, Hypothesentests fr die Konstante


des Regressionsmodells durchzufhren. Die folgenden Tests beziehen sich also
stets auf die Parameter ~ mit k - 1,2, ... ,K.
Zur berprfung von Nullhypothesen des Typs (IV3: 1) bedienen wir uns in der
Praxis des t-Tests. Fr ein typisches Regressionsmodell wird dazu zunchst fr den
interessierenden Parameter ein t-Wert bzw. der Wert der t-Statistik

t.

. -11:
c;~

(k =

1,~ ... ,K)

(N3,2.)

berechnet, wobei k der geschtzte Regressionskoeffizient der k-ten Variable, ~


der hypothetische Wert fr p:.: aus der Nullhypothese und '~ der geschtzte Standardfehler des k-ten OLS-Schtzers ist. Bei nherer Betrachtung dieser Statistik fllt
auf, dass es sich bei t." um nichts anderes als den mit dem hypothetischen Etwartungswert ~ und der geschtzten Standardabweichung a standardisierten OLSSchtzer ~ handelt und t." damit ein Analogon zur Teststatls~ des unter III 3.3.1.2
behandelten Gautests mit unbekannter Varianz (bzw. t-Tests) darstellt. Wre die
Standardabweichung des OLS-Schtzers bekannt und wrde diese zur Standardisierung verwendet, so wrde Ij. (aufgrund der Normalverteilung der Strterme) bei
korrekter Nullhypothese einer Standardnormalverteilung folgen. Da wir in der Praxis aber den Standardfehler des OLS-Schtzers nicht kennen und ihn schtzen mssen, folgt Ij. einer t-Verteilung mit n - K - 1 Freiheitsgraden, da K Steigungsparametet und die Regressionskonstante geschtzt werden. 34
Da die meisten Hypothesentests prfen, ob ein bestimmter Regressionskoeffizient
von Null verschieden ist, ist ~ gewhnlich Null. Die Formel fr die t-Statistik, die
auch in den meisten konometrie-Softwarepaketen implementiert ist, ist dann

t.=~
c;~

Q.

(k = 1,2, ... ,K).

(N3,2b)

Auch (N3: 2b) folgt einer t-Verteilung mit n - K - 1 Freiheitsgraden. Im Fall ~ = 0


hat der Wert der t-Statistik aber stets das gleiche Vorzeichen wie der geschtzte
Regressionskoeffizient, da der zugehrige geschtzte Standardfehler immer positiv
ist. Je grer der absolute Wert der t-Statistik ist, desto grer ist die Wahrscheinlichkeit, dass der betroffene KoeffIZient signifikant von Null verschieden ist.

Beispiel IV 3-1

Geftugelkonsum in den USA

Studenmund (2006) erklirt den Pro-Kopf-Geflugelkonsum in Pfund Y der US-Brger durch


das muhiple Regressionsmodell

~ - o+~~I+~2~+P,Xst +~
mit den Variablen Xl: Geflugelpreis pro Pfund, ~: Rindfleischpreis pro Pfund und X!: verfugbares Einkommen in 100 Dollar. Bereits vor SchAtzung des Modells werden wir vermuten, dass die Koeffizienten /32 und P3 positiv und der Koeffizient Pl negativ sind. Eine
Schtzung mit Studenmunds zahlenmaterial In EVlews (Eingabe der Gleichung In der
Fann y c xl x2 x3 im Menu Quick I Estimale Equatian; c steht dabei fr die Konstante im

34 Fr den Beweis hierfr verweisen wir auf Hogg, R.V., McKean, J.W., Craig, A.T. (2004).

3. Testen von Hypothesen und Konfidenzintervalle

465

Modell), scheint diese Vermutung zu besttigen, da die geschtzten Koeffizienten das gewiinschte Vorzeichen aufweisen. Ein alleiniger Blick auf die Koeffizienten reicht jedoch
nicht aus. Erst entsprechende t-Tests knnen unserer Vermutung Nachdruck verleihen.
Sampie: 1960 1999
Included observations: 40

Dependent Variable: Y
Method: Least Squares
C

XI
X2
X3
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Coefficient
27.59394
-0.607160
0.092188
0.244860
0.990391
0.989590
1.993549
143.0726
-82.24700
0.897776

Std. Error
1.584458
0.157120
0.039883
0.011095

t-Statistic
17.41539
-3.864300
2.311452
22.06862

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0000
0.0004
0.0266
0.0000

50.56725
19.53879
4.312350
4.481238
1236.776
0.000000

Da wir im Laufe dieses Kapitels immer wieder auf EViews-Ergebnisse zurckgreifen, betrachten wir die obigen etwas nher. Jeder EViews-Oulpul gibt in der "Kopfzeile" die
erklrte Variable (y), die Schtzmethode (Least Squares), den Zeitindex oder die laufende
Nummer der ersten und letzten Beobachtung der Stichprobe (1960, 1999) und den Stichprobenumfang (40) an. Den "Mittelteil" des Outputs bilden die geSChtzten Parameter
(Coefficient), die zugehrigen geschtzten Standardfehler (Std. Error), bereits berechnete
t-Werte tur ~ = 0 (t-Statistic) und die sog. p-Werte (Prob.), deren Bedeutung wir unter IV
3.1.2 noch nher behandeln. Der "Endteil" beinhaltet eine Reihe von Maen, von denen
wir einige bereits behandelt haben. Zu diesen zhlt das Bestimmtheitsma (R-squared),
das angepasste Bestimmtheitsma (Adjusted R-squared), der Standardfehler der Regression (S.E. of regression), die Residuenquadratesumme RSS (Sum squared resid), der Mittelwert der erklrten Variablen (Mean dependent var) und deren Standardabweichung
(S.O. dependent var). Die weiteren Mae werden wir in diesem Kapitel nher behandeln.
Ein Regressionsoulpul in der ebenfalls sehr verbreiteten Software STeTe hat hingegen
die auf der Folgeseite zu sehende Gestalt. Hier befinden sich rechts oben die Anzahl der
Beobachtungen (Number of obs), das Bestimmtheitsma (R-squared), das angepasste
Bestimmtheitsma (Adj R-squared), der Standardfehler der Regression (Root MSE) sowie
die F-Statisik und ihr p-Wert (vgl. dazu Abschnitt IV 3.2.2). Links oben findet sich die bereits unter IV 1.2.4.1 im Zusammenhang mit dem Bestimmtheitsma behandelte Varianzzerlegung. In der ersten Spalte (SS) sind darin TSS (Total), ESS (Model) und RSS (Residual) enthalten. Wir erkennen daher schnell, dass hier R2 = ESS I TSS = 14745,73 I
14888,80 = 0,9904 gilt. Die weiteren Spalten zu Freiheitsgraden (df) und mittleren Summen (MS) werden wir dabei insbesondere unter IV 3.2.2 bentigen. Die Werte in MS ergeben sich aus der Division der Werte in SS durch die zugehrigen Werte df. Fr Total ergeben sich n - 1 Freiheitsgrade, sodass der MS-Wert tur Total gerade der Stichprobenvarianz von Yentspricht. Der untere Teil des Outputs enthlt die klassischen Regressionsergebnisse, d.h. die Parameterschtzungen (Coef.), die dazugehrigen geschtzten Standardfehler der Schtzer (Std. Err.), t-Werte fr ~ = 0 (t) und die entsprechenden p-Werte
(P > 1t I) Darber hinaus sind au erdem 95 %-Konfidenzintervalle tur die jeweiligen Parameter enthaHen (vgl. dazu Abschnitt IV 3.1.4).

IV Einfijhrung in die konometrie

466
Source
Model
Residual
Total

yt
x1t
x2t
x3t

cons

SS
14745,73
143,07
14888,80

Coef.
-0,6072
0,0922
0,2449
27,5939

MS
4915,24
3,97
381,76

df
3
36
39

Std. Err.
0,1571
0,0399
0,0111
1,5845

t
-3,86
2,31
22,07
17,42

Number of obs
F(3, 36)
Prob> F
R-squared
Adj R-squared
Root MSE
P> I t I
0
0,027
0
0

40
1236,78
0
0,9904
0,9896
1,9935

[ 95 % Conf. Interval]
-0,9258
-0,2885
0,0113
0,1731
0,2224
0,2674
24,3805
30,8074

In der Literatur werden Ragressionsergebnisse in der Regel nicht in derartig ausfhrlichen


Formen dargestellt. Hufig finden wir die folgende kompakte Form:

V, = 27,5939 -O,6072X" +0,0922)(", +0,2449)("


(0,1571)
t=

(0,0399)

-3,86

2,31

(0,0111)

n = 40 (36)
F\'=0,9896

22,07

Die unter den geschtzten Ragressionskoeffizienten stehenden Klammerwerte sind dabei


die dazugehrigen geschtzten Standardfehler. Die aufgefhrten t-Werte sind die Werte
der t-Statistik fijr den betreffenden Koeffizienten. Der Wert, der in Klammern bei n angegeben ist, ist die Anzahl der Freiheitsgrade (40 - 3 - 1 = 36). Auf eine derartige Darstellung
werden wir z.T. zum Vergleich verschiedener Regressionsergebnisse zurckgreifen.
Wir sehen hier, dass die Werte der t-Statisiken automatisch von EViews geliefert werden.
Zum besseren Verstndnis ihrer Entstehung wollen wir aber dennoch exemplarisch den
Wert der t-Statistik fijr den zweiten Regressionskoeffizienten berechnen:

= 0,0922 = 2 31
t =
, ' \ 0,0399
'
Dabei ist zu beachten, dass es bei dieser manuellen Berechnung durch Rundungsindifferenzen zu geringfgigen Abweichungen ggO. den t-Werten aus EViews kommen kann.

Um zu entscheiden, ob eine Nullhypothese bzgl. eines Regressionskoeffizienten auf


Basis eines berechneten Wertes der t-Statistik abgelehnt werden kann oder nicht,
bedienen wir uns in Verbindung mit (IV3: 1) der allgemeinen Entscheidungsregel
Ablehnung von
a) I t k I >

HOl

tl-an, n-K-l

b) t k < -t1-a,n-K-l
C)

t k > t1-cl, n-K-l

wenn

(IV3: 3)

Die darin enthaltenen Testschranken sind, wie wir es bereits aus der induktiven
Statistik kennen, Fraktile der t-Verteilung mit n - K - 1 Freiheitsgraden. Diese knnen unter Verwendung des gewnschten Signifikanzniveaus (l in der tabellierten
t-Verteilung nachgeschlagen werden.

3. Testen von Hypothesen und Konfidenzintervalle

467

Es ist wichtig, dass die Entscheidungsregel (N3: 3) auf der Nonnalverteilungsannalune von EI beruht. wird diese Annalune verletzt, ist nicht mehr sichergestellt,
dass ~ einer t-Verteilung folgt. Einen fonnalen Test fr die Erfllung der Normalverteilungsannahm.e werden wir unter N 3.3 prsentieren. In vielen Fllen wird die
t-Verteilung aber auch bei Verletzung dieser Annalune als Approximation der wahren Verteilung von ~ verwendet, falls der Stichprobenumfang sehr gro ist.
Beispiel IV 3-2

Einseitigert-Test Q .

Im Beispiel IV 3-1 hatten wir vennutet, dass die Geflgelnachfrage wohl negativ mit dem
GeflOgelpreis in Verbindung steht. Allein ein negatives Vorzeichen des entsprechenden
geschtzten Regressionskoeffizienten reicht nun aber nicht aus, um diese Vennutung zu
besttigen. Wir mssen wissen, ob er signifikant negativ ist. Gerade daher empfiehlt es
sich, Ho: P, O!: 0 gegenuber HA: P, < 0 zu testen. Wir erinnern uns, dass wir die Behauptung,
die wir besttigen wollen. immer als Gegenhypothese formulieren. da mit Falsifizierung von
Ho die Gegenhypothese besta.tigt wird.
Entscheiden wir uns fOr ein Signifikanznivea.u von 5 % und berOcksichtigen die hier vorliegenden Freiheitsgrade von 40 - 3 - 1 '" 36, so erhalten wir durch Nachschlagen von tO.DS;36
den kritischen Wert 1,69. Wir kennen aus unserer EViews-Schitzung auerdem bereits
den Wert der t-Stadstlk t, - -3,86.
Da nun t, < -t'-u.Il-It-, bzw. -3.86 < -1.69 erfllt ist. kann Ho nach (1V3: 3) abgelehnt werden. Es kann also mittels dieser Stichprobe gezeigt werden, dass (bei einem Signifikanzniveau von 5 %) der geschtzte Wert von PI signifikant negativ Ist, also In der Grundgesamtheit ein negativer Zusammenhang zwischen GeftOgelkonsum und GeflOgelpreis besteht.
Beispiel IV 3-3

zweiSeitigert-Test Q .

Zweiseitige t-Tests werden in der Praxis hufig dann eingesetzt, wenn es in der dem Regressionsmodell zugrunde liegenden Modelltheorie keine genaue Aussage zum vermuteten
Vorzeichen einzelner Regressionsparameter oder konkurrierende Hypothesen diesbezuglich gibt. In einem solchen Fall wird lediglich getestet, ob der betreffende Regressionskoeffizient signih"kant wm Null verschieden ist.
Nehmen wir an, dass in unserem Beispiel IV 3-1 Uneinigkeit darOber besteht, ob 86 sich
bei Geflugel um ein nonnales Gut (steigende Nachfrage bei steigendem Einkommen) oder
um ein sog. inferiores Gut (sinkende Nachfrage bei steigendem Einkommen) handelt. In
einem solchen Fall wOrden wir Ho: P3 - 0 gegenuber HA: P3:F. 0 testen.
Da im vorliegenden Fall bei einem 5 %-Signifikanzniveau die Bedingung ltal > tl""G'2.n-K-l
bzw. nach Nachschlagen von 1:0.1175;36 genau 122,071 > 2,03 erfOiIt ist, kann Ho abgelehnt
werden. Die Schtzung von P3 ist demnach signifikant von Null verschieden.

3.1.2

Der poWert

Alternativ zur Entscheidungsregel <N3: 3) kann die Testentscheidung beim I-Test


auch mit dem sog. p-Wert durchgefhrt werden, der in vielen konomet!ieprogrammen Standardbestandteil des Regressionsoutputs ist. Der dort ausgegebene pWert dient zum Testen zweiseitiger Hypothesen mit ~ = 0 , d.h. 1\: Ji. - 0 gegenber Ho.: Ji. :F. O. Er nimmt Werte zwischen 0 und 1 an und ist die Wahrscheinlichkeit, bei korrekter Nullhypothese fr einen bestimmten Koeffizienten Jik einen t-

IV EinfOhn.mg in die Okonometrie

468

Wert zu erhalten, der grer als 11;.1 ist. Er liefert damit die geringste Irrtumswamscheinlichkeit, bei der wir die Nullhypothese ablehnen knnen (p-Wert - Irrtumswahrscheinlichkeit, die wir hinnelunen mssten, wenn wir Ho ablehnen). Ein kleiner p-Wert lsst Zweifel ber die Nullhypothese aufkonunen. Ist der P-Wet1 kleiner
als die akzepUerte Irrtumswabrscbetnlicbltett, so kann Hf) abgelehnt werden.
Die Bestimmung des p-Wertes berlassen wir generell EViews, da wir so nicht in

der Tabelle der t-Verteilung genau die Irrtumswahrscheinlichkeit finden mssen,


die mit dem Regressionsergebnis bzw. t;. einhergeht. Da EViews aber nur p-Werte
fr zweiseitige Tests ausgibt, mssen wir im Fall eines einseitigen t-Tests mit
~ = 0 den von EViews gelieferten p-Wert durch Zwei dividieren. Als einfache
Testentscheidungsregel mittels des p-Wertes halten wir damit
Ablehnung von Ho. wenn

, < a und Vorzeichen von

Bit

gem HA

(lV3,4)

fest, wobei die Vorzeichenbedingung beim zweiseitigen Test irrelevant ist. Pk ist
dabei der p-Wert des k-ten Koeffizienten und a das gewhlte Signifikanzniveau.
Testentscheidung mittels p-Wer1

BeloplellV 3-4

Nehmen wir an wir wollen In unserem Beispiel IV 3-1 statistisch aufzeigen, dass der Regressionskoeffizient der erklrenden Variable Rindfleischpreis positiv ist, also Ho: P2 s: 0
gegenuber HA: P2 > 0 testen. EViews liefert fUr diesen Koeffizienten einen p-Wert von
0,0266 und unser Signifikanzniveau a sei 5 %. Da (p - 0,0266/2) < 0,05 gilt und 2 das
Vorzeichen von HA (positiv) aufweist, knnen wir unsere Nullhypothese ablehnen.

3.1.3

Baschrllnkungan das tTasts

Nach Behandlung der allgemeinen Vorgehensweise beim t-Test gilt es, sich mit
Beispielen zu befassen, die zeigen, wie der t-Test nicht eingesetzt werden sollte:

1. Statistische Signifikanz W. th.corctlachc V.Ud'rt


Dass statistische Signifikanz nicht mit theoretischer Validitt einhergeht, zeigt ein
einfaches Regressionsmodell,35 welches zur Erklrung des britischen Konsumentenpreisindex Y geschtzt wurde:

Yl=10,9-3,20~+o,39X~
(0,23) (0,02)
t ~

-13,9

n=21 (17)
R' ~O,982

19,5

Auf den ersten Blick knnen wir sagen, dass X und Je' statistisch signifikante Variablen bei der Erklrung von Y sind. Aufgrund der hohen t-Werte knnen wir nmlich die Nullhypothesen der entsprechenden zweiseitigen t-Tests ablehnen. Die
Regressionsparamerer der Grundgesamtheit knnen also als von Null verschieden
betrachtet werden. Wenn wir nun aber erfahren, dass es sich bei X um die kumulierte Nied.ersch1agsmenge in Grobritannien handelt, so knnen wir natrlich tratz

35 Vgl. Hendry (1980) und Studenmund (2006), Kapitel 5.

469

3. Testen von Hypothesen und Konfidenzintervalle

vorliegender statistischer Signifikanz nicht auf die Gltigkeit dieses theoretischen


Modells schlieen.3 6 Die vorliegende Signifikanz ergibt sich dadurch, dass die beiden Variablen jeweils einen Trend aufweisen. 37
2. t-Test und ''Wichtigkeit'' einer variable
Statistische Signifikanz gibt Aufschluss darber, dass ein bestinuntes Stichprobenschtzergebnis nicht reiner Zufall ist. Sie erlaubt keine Aussagen darber, welche
Variable den grten Teil der Variation von Y erklrt. Eine Schlussfolgerung, dass
die Variable mit dem signifikantesten Koeffizienten (hchster t-Wert) gleichzeitig
die "wichtigste" (grter Effekt auf Y) ist, wre also falsch.
3. t-Test bei hohen Stichprobennmfngen
Mit zunehmendem Stichprobenumfang n liegt der unverzerrte Schtzwert eines
Regressionsparameters immer nher am wahren Parameter der Grundgesamtheit.
Dies fhrt ber einen sinkenden (geschtzten) Standardfehler des OLS-Schtzers zu
steigenden t-Werten. Dies lsst sich anhand von (Iv3: 2a) wie folgt aufzeigen:

.-~

a" .j.

tk

Dies zeigt, dass sehr hohe Stichprobenumfnge hohe t-Werte zur Folge haben und
wir damit viele Nullhypothesen ablehnen knnen. Bei hohen Stichprobenumfngen
sind nmlich aufgrund des kleineren Standardfehlers bereits kleine Abweichungen
signifikant. Lautet beispielsweise die Nullhypothese einer bestinunten Theorie, dass
eine Variable X keinen Einfluss auf die erklrte Variable Y hat, so werden bei sehr
groen Stichproben noch so kleine Abweichungen des geschtzten Koeffizienten
von Null hufig als signifikant ausgewiesen. Fr die inhaltliche Erklrung von Y
spielt dieser Regressor X aufgrund des kleinen Parameters aber kaum eine Rolle.
Auerdem stellt sich die Frage, ob eine sehr kleine Abweichung des Parameters
von Null berhaupt gegen die konomische Theorie spricht. Deshalb knnen wir
die Bedeutung einer Variablen fr die Erklrung von Y nicht alleine mit der Signifikanz beurteilen.

3.1.4

Konfidenzintervalle fr Regressionsparameter

Wie wir wissen, liegt uns mit einem Konfidenzintervall ein Verfahren vor, das bei
wiederholter Anwendung einen Bereich berdeckt, in dem der wahre Parameter
der Grundgesamtheit mit einer vorgegebenen Wahrscheinlichkeit (Vertrauenswahrscheinlichkeit) 1 - a liegt. Fr einen Regressionskoeffizienten kann ein Konftdenzintervall wie folgt gebildet werden: 38
(IV3: 5)

36 konometrisches Arbeiten ohne jegliche theoretische Fundierung ist in manchen empirischen Analysen ein Problem. Es wird hier nmlich nicht mehr theoretisch begrndet, sondern nur noch geprft, ob die Daten etwas aussagen knnen.
37 Das Thema Trends werden wir im Abschnitt N 4.7.2 eingehend behattdeln.
38 Analog zu den Herleitungen der Konfidenzintervalle im Kapitel III erfolgt jene von Intervall (N3: 5) durch Umfocmungen der zweiseitigen Entscheidungsregel aus (N3: 3).

IV EinfOhn.mg in die Okonometrie

470

Der darin enthaltene kritische t-Wert entspricht dem, der auch beim zweiseitigen
t-Test verwendet wird. Konfidenzintervalle dieser Art werden in der Praxis meist
dafr verwendet um eine Bandbreite mglicher Werte fr lr. nennen und nicht
nur eine Punktschtzung v01weisen zu knnen. Damit ist die Chance grer, mit
der Schtzung den tatschlichen Parameterwert der Grundgesamtheit zu treffen.
Des Weiteren kann ein solches Konfidenzintervall, wie wir in Kapitel III gesehen

Bit

haben, auch zum Testen zweiseitiger Hypothesen verwendet werden. Fllt der
hypothetische Parameterwert ~ in das Konfidenzintervall, so kann ~: Pi: = ~
nmlich nicht gegenber HA: Ir. ::I- ~ abgelehnt werden. Auerhalb des Konfidenzintervalls kommt es zur Ablehnung von 1\,.
Cobb-Douglas-Funktion

Beispiel IV 3-5

Die sog. Cobb-Douglas Produktionsfunklion ist in ihrer stochastischen Fonn als


VI =Pox,~~elt
deftnlert, wobei Y den Output oder das ProduktionsnIveau einer Volkswirtschaft, XI den dafr notwendigen Arbeitsinput und ~ den Kapitalinput symbolisiert. e ist hier die Eulersche
Zahl (Basis des natiirlichen Logarithmus). Besondere Eigenschaft einer solchen Funktion
ist es, dass ihre Koeffizienten p, und P2 als partielle Output-Elastizitten interpretiert werden knnen. Das bedeutet, sie geben die prozentuale Vernderung des Outputs bei Erhhung des zugehOrigen Inputraktors (bel Konstanz des anderen) um 1 % an.
Es ist deuUich erkennbar, dass die Beziehung zwischen Output und den beiden Inputs
nicht parameterlinear ist. Durch logarithmische Transformation erhalten wir aber die Form
InYI =In~o +p, InX1I +Pt InXzt +ft,
welche parameterlinear und damit mit OLS schtzbar ist. Wir sprechen hier auch von einer
sog. funktionalen Doppel-Leg-Form, mit der wir uns im Abschnitt IV 4.2.2.2 noch genauer
befassen werden. Die erkllrte Variable ist nun In Y und die beiden erkllrenden Variablen
sind In X, und In ~. In Po ist die Konstante des Regressionsmodalls.
Um dieses transformierte Modell fr Deutschland zu schltzen, verwenden wir Datenmaterial des Statistischen Bundesamtes von 1970 bis 2008. Konkret belegen wir Y mit einem
realen BIP-Index, X, mit der Zahl der Erwerbsttigen und ~ mit dem realen BruttoanlagevermOgen. Die Schatzergebnisse sind auf der Folgeseite abgebildet. Den benO'tigten natO,lichen Logarithmus der Variablen bilden wir in EV"rews durch den Befehl LOG(... ) bei der
Gleichungseingabe. Wiedervereinigungsbedingt (Vernderung der Struktur der Grundgesamtheit) haben wir uns hier entschieden, den Datenbestand In zwei Teile aufzuspalten
und zwei Schltzungen durchzufOhren.
Dependent Variable: LOG{Y)
Method: Least Squares
Coefl'lclent
-7.782437
C
0.681214
LOG(X1)
LOG(X2)
0.595082
R-squared
0.988977
Adjusted R-squared
0.987752
S.E. of regression
0.015780
Sum squared resid
0.004482
Log likelihood
58.95054
Durbin-WatsDn stat
0.711273

Sampie: 11m) 19S1O


Included observations: 21
Std. Error
t-StatlsUc
Prob.
1.197967
-6.496371
0.0000
0.132706
5.133256
0.0001

0.026142

22.76379

Mean dependent var


S.D. dependent var
Akailre info aiterion
Schwarz criterion
F-statistic
Prob{F-statistic)

0.0000
4.295205

0.142581
5.328623
-5.179406
807.4487
0.000000

471

3. Testen von Hypothesen und Konfidenzintervalle


Sampie: 1991 2008
Included observations: 18

Dependent Variable: LOGM


Method: Least Squares

C
LOG(Xl)
LOG(X2)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Coefficient

Std. Error

t-Statistic

-8.268270
0.721091
0.585267
0.993260
0.992361
0.006972
0.000729
65.48610
1.541683

1.089139
0.117261
0.022650

-7.591566
6.149436
25.83952

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.

0.0000
0.0000
0.0000
4.731507
0.079766
-6.942900
-6.794505
1105.193
0.000000

Interessieren wir uns nun fr ein 95 %-Konfidenzintervall fr den Parameter des logarithmierten Kapitalinputs (im Modell von 1991 bis 2008), so htte dieses die folgende Gestalt:

2 - to,97S: 15 '~ S 2 S 2 + to,97S: 15' 'z


0,5853-2, 13 0,0227'; p, ,; 0,5853+ 2,130,0227

0,5369 ,; ,

,; 0,6337

Demnach liegt 2 also mit einer Wahrscheinlichkeit von 95 % zwischen 0,5369 und 0,6337.
Eine Nullhypothese Ho: P2 = 0,75 knnte damit gegenber HA: P20# 0,75 abgelehnt werden,
da der hypothetische Wert 0,75 auerhalb des Konfidenzintervalls liegt.

3.2 Simultanes Testen mehrerer Parameter - F-Test


Whrend sich der t-Test mit einer Hypothese bzgl. eines einzelnen Regressionsparameters beschftigt, dient der F-Test zum Testen mehrerer Hypothesen bzgl.
einer Gruppe von Parametern.

3.2.1

Hypothesen, F-Statistik und Entscheidungsregel

Die Vorgehensweise des F-Tests ist recht einfach. Zunchst zwingt er der Regressionsgleichung lineare Restriktionen in Fonm einer Nullhypothese auf. Die daraus resultierende "resttiktive" Regressionsgleichung ist diejenige, die gelten wrde, wenn
die Nullhypothese korrekt ist. Im nchsten Schritt wird diese "restriktive" Gleichung

mit OLS geschtzt und der "fit" dieser Gleichung mit dem "fit" der Regressionsgleichung ohne Restriktionen verglichen. Sind sie nicht signifikant verschieden, werden

die Restriktionen der Nullhypothese nicht abgelehnt, andernfalls schon. Der Vergleich der "fits" erfolgt ber die F-Statistik
F = (RSSM - RSS) / M
RSS/(n-K-l) ,

(IV3: 6)

wobei RSSM die Residuenquadratesumme der "restriktiven" Gleichung, RSS die Resi-

duenquadratesumme der Gleichung ohne Restriktionen, M die Anzahl der Restriktionen und n - K - 1 die Anzahl der Freiheitsgrade der Regressionsgleichung ohne
Resttiktionen darstellen.

IV Einfijhrung in die konometrie

472

RSS. ist stets grer oder gleich RSS, da die Restriktion der Koeffizienten an Stelle
einer Bestimmung der Koeffizienten durch OLS nie RSS verringern kann. 1m Extremfall sind RSS. und RSS gleich, was zu F = fhrt. Ho wird in einem solchen Fall
nicht abgelehnt, da die Stichprobe andeutet, dass die Restriktionen korrekt Zu sein
scheinen. Mit zunehmendem F wird es hingegen intmer weniger wahrscheinlich,
dass Ho korrekt ist. berschreitet F den kritischen F-Wert, so kommt es zur Ablehnung von Ho. Da die F-Statistik (Iv3: 6) unter Ho einer F-Verteilung folgt und die
Freiheitsgrade ihres Zhlers bei M, die des Nenners bei n - K - 1 liegen, ist der kritische F-Wert nichts anderes als das (1 - a)-Fraktil der F(M,n - K - l)-Verteilung.

Ablehnung von Ho, wenn F > F1-a,CM,n-K-n

(IV3: 7)

Zur besseren Veranschaulichung des F-Tests werden wir im folgenden Abschnitt IV


3.2.2 einen Spezialfall betrachten und fr diesen die Testprozedur im Detail (inkI.
Restriktionen und "restriktiver" Modellgleichung) nher analysieren.

3.2.2

F-Test fr die Gesamtsignifikanz

Der F-Test erlaubt es ZU testen, ob die Steigungskoeffizienten /3" /3" ... , /3x in einer
Regressionsgleichung mit K erklrenden Variablen alle gleichzeitig Null sind. Dazu
werden die K Restriktionen /3, = 0, /3, = 0, ... , f3. = in einer Nullhypothese ber
die SignifIkanz des Gesamtmodells zusanunengefasst:

Ho: /3, =/3, = ... =/3. =0


HA:

(IV3: 8)

mindestens eines der /3k ist ungleich Null

Verwenden wir den F-Test zum Test der Gesamtsignifikanz, so vereinfacht sich die
zu verwendende F-Statistik (Iv3: 6) in diesem Spezialfall zU
F=

ESS/K
RSS/(n - K - llJ'

(IV3: 9)

wobei ESS die erklrte Quadratesumme ist, die wir im Zusanunenhang mit dem Bestimmtheitsma kennengelernt haben. Diese neue Form ergibt sich, da RSS. = TSS
und somit RSS. - RSS = TSS - RSS = ESS gilt.
Bei dieser Art von F-Test hat die "restriktive" Regressionsgleichung die Fonn

(IV3: 10)
was zum Ausdruck bringt, dass Y, = Y. Der F-Test fr die Gesamtsignifikanz testet
also die Nullhypothese, dass der "fit" der Regressionsgleichung nicht signifikant
besser ist als der, den wir durch die Verwendung des arithmetischen Mittels allein
erzielen knnen. Whrend R' also keinen formalen Test fr den "Gesamtfit" eines
Modells liefern konnte, wird ein solcher durch den F-Test zur Verfgung gestellt.
Formen wir (IV3: 9) wie folgt um, so knnen wir den Zusammenhang
F=

ESS/K
=n-K-IESS=n-K-l ESS
RSS/(n-K-l)
K
RSS
K
TSS-ESS
n-K-l ESS/TSS
n-K-l R'
=
=
K
l-(ESS/TSS)
K
l-R'
R' /K

= "C"(lc-_"""CR",,""")/"C"(:-n-_"""CK=-_-lcc)

(IV3: 11)

473

3. Testen von Hypothesen und Konfidenzintervalle

zwischen F und R3 feststellen. Dieser zeigt, dass wenn R3 den Wert Null annimmt:,
3
3
auch F Null wird. Mit steigendem R steigt auch F. Ist R gleich Eins, geht F gegen
unendlich. Ein F-Test, welcher Aussagen ber die Gesamtsignifikanz der geschtz3
ten Regressionsgleichung ermglicht, ist also gleichzeitig ein Signifikanztest fr R
Anders ausgedrckt entspricht ein Test der Nullhypothese (IV3: 8) einem Test der
3
Nullhypothese, dass R gleich Null ist.

BoloplollV H

F-Test tOr Gesamtslgnlflkanz Q .

Untersuchen wir zur Veranschaulichung dieses Tests die Gesamtsignifikanz unseres GeflOgelkonsummodel1s aus Beispiel IV 3-1. Mit drei erklrenden Variablen formulieren wir
also das folgende Hypothesenpaar:

H,: Jl, =/l,

=~,

=0

HA : mindestens eines der

.. ist ungleich Null

Wir haben nun zwei Mglichkeiten, um an den Wert fUr F zu gelangen. Die umstndlichere
wre es, ihn "von Hand- zu berechnen. Wir wissen nmlich aus der Modellgleichung, dass
K - 3 gilt, und knnen im Regressionsoulput von EViews n _ 40 und R2 - 0,9904 ablesen.
Eingesetzt in (IV3: 11) liefern diese Werte den gesuchten F-Wert 1.236,78. Alternativ knnen wir F auch direkt aus dem EViews-Output ablesen.
Den kritischen F-Wert 2,87 erhalten wir bei einem angenommenen Signifikanzniveau von
5 % durch Nachschlagen des 95 %-Fraklils der F(3; 36)-Verteilung. Da nun hier F deutlich
grOer als dieser krttlsche Wert Ist, knnen wir Ho ablehnen. Das Modell hat also einen
signifikanten -Gesamtfit".
Auch fOr den F-Test knnen wir die Testentscheidung mittels eines p-Werts durchfahren.
EViews liefert niimlich auch fr den F-Test einen p-Wert (hier: 0,0000). Ist dieser kleiner
als das Signifikanznivau wird Ho abgelehnt. Dies ist hier der Fall.
Im Rahmen des F-Tests wird in der Literatur hufig die sog. ANOVA (eng!. analysis

of variance) vorgestellt. Es handelt sich dabei um nichts anderes als eine tabellarische Darstellung der Dekomposition der Varianz von Y, aus der sich die F-Statistik
ableiten lsst. Diese ist in der nachfolgenden Tabelle dargestellt. Der Quotient aus
beiden durchschnittlichen Quadratesummen liefert OV3: 9).
Variation von Y
erklrt
unerklrt
Summe

Quadratesummen

Freiheitsgrade

Durchschnitt

ESS

RSS

n-K-l

ESS!K
RSS/(n - K - 1)

TSS

0-1

Im Zusammenhang mit dem F-Test auf GesamtsignifIkanz taucht auerdem hufig

die Frage auf, warum ein F-Tcst nicht durch Indivlduclle t-Tcsts aller Stclgunpparam.ctcr ersetzbar ist. Nehmen wir an, wir wollen ein Regressionsmodell
mit zwei erklrenden Variablen auf Gesamtsignifikanz prfen, also He: Pt - pz - 0
gegenber Ho.: "mindestens eines der Pk ist ungleich Null~ testen. Fhren wir an
Stelle eines F-Tests zwei t-Tests mit Hg: PI - 0 gegenber H...: PI ::I- 0 und H,,: Pli - 0
gegenber HA: P3 'Ii= 0 so ergibt sich daraus folgende Problem.atik:39
39 Vgl. Stock und Watson (2003), Kapitel 7.

IV EinfOhn.mg in die Okonometrie

474

Sind t l und ~ die t-Statistiken fr die beiden Parameter und gehen wir bei einem
Signiftkanzniveau von 5 % und groen Stichprobenumfang n von einem kritischen
Wert von 1,96 aus,40 so wrden wir die ~kombinierte Nullhypothese" Ho: "l - 0
und z - 0" ablehnen, wenn entweder I~ Ioder I~ I den Wert 1,96 berschreitet.
Gehen wir nun davon aus, dass die Zufallsvariablen 1, und 1:, unkorreliert und damit
aufgrund ihrer Normalverteilung auch unabhngig sind. Die "kombinierte Nullhypothese" wird nur dann nicht abgelehnt, wenn sowohl 11,1 als auch 11:,1 kleiner
oder gleich 1,96 ist. Die Wahrscheinlichkeit, die "kombinierte Nullhypotheseu nicht
abzulehnen, kann damit aufgrund der Unabhngigkeit von t, und 1:, als

P(I t, 1~ 1,96 Alt, 1~ 1,96) =P(I t, 1~ 1,96). P(I t, 1~ 1,96) = 0,95' = 90,25 %
bestimmt werden. Die wahrscheinlichkeit eine korrekte "kombinierte Nullhypothese" abzulehnen ergibt sich daraus als 1 - 0,953 - 9,75 %. Dies entspricht klar nicht
dem gewnschten Signifikanzniveau. Eine solche Testprozedur wrde die "kombinierte Nullhypothese" also zu oft ablehnen. Dies liegt daran, dass selbst wenn die
erste Nullhypothese mittels ~ nicht abgelehnt werden kann, iIruner noch eine Ablehnung der zweiten Nullhypothese ber ~ zu einer Ablehnung der nkombinierten
Nullhypothese" fhren kann.
Sind die beiden t-Statistiken korreliert, verschlimmert sich das beschriebene Problem noch mehr. Je hher die Korrelation zwischen ihnen ist, desto hher wird die
wahrscheinlichkeit ausfallen, eine korrekte Nullhypothese abzulehnen. Das vorgegebene Signifikanzniveau a wird also noch strker berschritten. Gerade daher
empfiehlt es sich nicht die Gesamtsignikanz eines Modells mittels einzelner t-Tests
zu untersuchen. Ein F-Test ist hier die einzig vernnftige Vorgehensweise.

3.2.3

Bit

Weitere Anwendungen des FTests und der ChowTest

In der Empirie kann der F-Test fr eine Vielzahl anderer Zwecke als dem unter N
3.2.2 beschriebenen eingesetzt werden. Wir knnen ihn z.B. dazu verwenden
Cobb-Douglas FunktIonen (CD-Funktionen) auf Iwnstante SkalenertrtJge (eine
bestimmte prozentuale Erhhung aller Inputs fhrt zu genau der gleichen
prozentualen Erhhung des Outputs) zu testen. Formal liegen diese vor, wenn sich
die KoeffIzienten der CD-Funktion zu Eins summieren.

BeloplellV ~7

Test auf konstanie Skalenertrtge

Wir leslen, ob unsere Cobb-Douglas-Produktlonsfunktlon (nach der Wiedervereinigung)


aus Beispiel IV 3-5 konstanie SkalenertrAge aufweist:
Ho:Jl.+~J=1

/i,,=1-Jl.

HA:Jl.+~2""1

Die hinler der F-Statislik steckenden Regressionsgleichungen sind in diesem Fall


In~ = Ina +, In

x,t +~2In~t +t;

und die -restriktive- Gleichung


40 Wir verwenden hier ein NormalverteilungsfI2kt::il., da die t-Verteilung bei groen Stichprobenumfngen bekanntlich durch die Normalvettellung approximiert werden kann.

3. Testen von Hypothesen und Konfidenzintervalle

475

InY, =Inp, +,lnX"+(I-p,)lnx,,, +E,


InY, = Inp, +,(lnX" -In X,,) +Inx", +E,
(InY, -In X,,) = Inp, +,(lnX" -In X,,)+ E, .
Ein Blick auf den Regressionsoutput von EViews unter Beispiel IV 3-5 verrt uns, dass
RSS der Regressionsgleichung ohne Restriktionen bei 0,0007 liegt. Unser RSSM liegt bei
0,0012, wie uns der nachfolgende Regressionsoutput zeigt.
Dependent Variable: LNY_LNX2
Method: Least Squares
Coefficient
-4.972579
C
LNXl LNX2
0.370004
R-squared
0.950574
Adjusted R-squared
0.947485
S.E. of regression
0.008567
0.001174
Sum squared resid
61.19603
Log likelihood
Durbin-Watson stat
1.204284

Sampie: 1991 2008


Included observations: 18
Std. Error
t-Statistic
Prob.
0.028708
-173.2107
0.0000
0.021093
17.54178
0.0000
Mean dependent var
-4.470232
0.037384
S.D.dependentvar
-6.577337
Akaike info criterion
Schwarz criterion
-6.478406
F-statistic
307.7142
Prob(F-statistic)
0.000000

Wir erhalten damit fr unsere Teststatistik nach (IV3: 9)


F = (0,0012-0,0007)/1 = 1071.
0,0007/(18-2-1)
,
Bei einem Signifikanzniveau von 5 % finden wir in der F(1 ;15)-Verteilung den kritischen
Wert 4,54. Da F > 4,54 ist, knnen wir Ho ablehnen. Es liegen somit keine konstanten Skalenertrge vor. Eine Erhhung des Arbeits- und Kapitalinputs um z.B. jeweils 1 % fhrt also
nicht zu einer Erhhung des Outputs um ebenfalls 1 %.
Aus didaktischen Grnden haben wir uns in diesem Beispiel dazu entschlossen, das "restriktive" Modell direkt zu schtzen und die F-Statistik von Hand zu berechnen. In EViews
knnen wir den F-Wert jedoch auch auf schnelle und einfache Art und Weise erhalten. Wir
mssen dazu im Schtzergebnisfenster des originren Modells lediglich View / Coefficient
Tests / Wald - Coefficient Restrietions aufrufen, die Restriktion c(2) + c(3) = 1 (Hinweis: In
EViews besitzt die Modellkonstante den Index k = 1, sodass durch diesen Befehl der erste
und zweite Steigungsparameter angesprochen werden.) eingeben und erhalten direkt den
F- und den dazugehrigen p-Wert. Man beachte dabei, dass es hier aufgrund von Rundungsungenauigkeiten zu einem leicht anderen Wert als oben berechnet kommt.

Als weitere Anwendungsmglichkeit des F-Tests wollen wir noch kurz auf den sog.
Chow-Test eingehen. 41 Dieser testet, ob sich bei Schtzung einer Modellgleichung
fr zwei unterschiedliche Datenstze (z.B. Jahresdaten von 1970-1981 vs. Jahresdaten von 1982-1995) signiftkant unterschiedliche Parameterschtzungen ergeben.
Ein derartiger Test kann daher als Test fr die Stabilitt eines unterstellten Modells
interpretiert werden, d.h. Hinweise auf Strukturbrche in der Grundgesamtheit geben. 42 Die Vorgehensweise des Chow-Tests ist die folgende:
41 VgJ. Chow (1960).
42 Andersartige Strukturbruchtests sind beispielsweise der CUSUM- und CUSUMQ-Test nach
Brown et al. (1975).

IV EinfOhn.mg in die Okonomebie

476

1. DurchfUhrung identisch speziflZierter Regressionen fUr die heiden Datenstze


und AufzeichoWlg von RSS 1 und RSS z.
2. Zusammenfassung der Datenstze ZU einem Gesamtdatensatz, Durchfhrung
der gleichen Regression fr den neuen Datensatz und Aufzeichnung von
RSS o43

3. Berechnung der F-Statistik


F

(RSS G

RSS 1 - RSS) /(K + 1)

(RSS1 +RSS2)/(Ol +oa

2K

(1V3, 12)

2)'

bei der K die Anzahl der erklrenden Variablen und n, und D z die Anzahl der
Beobachtungen in Datensatz 1 bzw. 2 sind.
4. Ablehnung der Nullhypothese gleicher Parametetschtzungen, wenn die Teststatistik. CIV3: 12) grer oder gleich dem kritischen Wert aus der F(K + 1, 01 +
Dz - 2K - 2)-Verteilung ist.

Q. Beispiel IV 3-8

Sirukturbruch Wiedervereinigung

In Beispiel 3-5 hatten wir zur SchAtzung der Cobb-Douglas Produktionsfunktion for
Deutschland das uns zur Verfagung stehende Datenmaterial in zwei Teilperioden (vor und
nach der Wiedervereinigung 1990) zerlegt. Wir wollen nun mittels des Chow-Tests prOfen,
ob sich unsere SchAtzung fOr den zeitraum 1970-1990 signifikant von der fOr den Zellraum
1991-2008 unterscheidet. Wre dias nmlich nicht der Fall, knnten wir beide Teilperioden
zu einer zusammenlegen.

Zur Durchfuhrung des Chow-Tesls bentigen wir zunchst die Schtzergebnisse, die sich
bei Verwendung des Gesamtzeilraums 1970-2008 ergeben:
Dependent Variable: LOG(Y)
Melhod: Least Squares
Coefficient
-2.728550
C
0.131004
LOG(X1)
LOG(X2)
0.851441
R-squared
0.995238
Adjustecl R-squared
0.994973
0.017668
S.E. of regression
0_011238
Sum squared resid
Log likelihood
103.6259
0.935418
Durbln-Watson sial

Sampie: 1870 2_
Included observations: 39
Prob.
t-Statistic
Std. Error
-9.596426
0.0000
0.284330
0.044310
3.137107
0.0034
0.022428
29.04592
0.0000
Mean dependent var
4.498575
S.D. dependentvar
0.249197
Akaike info crilerion
-5.160305
-5.032339
Schwarz crilerion
F-statistic
3761.719
0.000000
Prob(F-Slatlstlc)

Mit diesen Ergebnissen bzw. der darin enlhaltenen Gre RSSa '" 0,0112 knnen wir dann
zusammen mit RSS, '" 0,0045 und RS&.! '" 0,0007 aus Beispiel IV 3-5 die Testslalistik

(0,0112-0,0045-0,0007)/(2+1)
(0,0045 + 0,0007)/ (21 + 18 -22 -2)

12,69

43 Im Rahmen dieses Testverfahrens ist das Modell, welches mittels des Gesamtdatensatzes
geschtzt wird, als "restriktives' Modell zu betrachten.

3. Testen von Hypothesen und Konfidenzintervalle

477

berechnen. Da dieser grer als der kritische Wert 2,89 aus der F(3;33)-Verteilung bei
einem Signifikanzniveau von 5 % ist, knnen wir Ho ablehnen. Dies bedeutet, dass wir
(trotz auf den ersten Blick recht hnlicher Schtzungen) signifikant unterschiedliche Ergebnisse in beiden Zeitrumen erhalten und die Teildatenstze nicht zusammenlegen sollten. Bei Schtzung ber den gesamten Zeitraum ist der geschtzte Koeffizient von X,
deutlich geringer.
Wie bereits im Beispiel IV 3-7 bietet EViews auch fr dieses Testverfahren eine schnellere
Durchfhrungsmglichkeit. Dazu mOssen wir lediglich im Schtzergebnisfenster des Modells fOr den Gesamtzeitraum von 1970 bis 2008 den Befehl View I Stability Tests I Chow
Breakpoint Test anwhlen, den Bruchpunkt 1991 eingeben und schon erhalten wir (unter
Beachtung von Rundungsungenauigkeiten) den obigen F-Wert und zustzlich einen pWert fOr unsere Testentscheidung.

3.3 Test der Normalverteilungsannahme


Die unter IV 3.1 und IV 3.2 beschriebenen Testvetfahren besitzen nur Gltigkeit,
wenn die stochastischen Strtenne wirklich normalverteilt sind oder aus groen
Stichproben stammen. Nur dann folgt nmlich die t-Statistik einer t-Verteilung und
die F-Statistik einer F-Verteilung. In der Literatur wird daher hufig die Durchfhrung von Tests auf Nonnalverteilung empfohlen. Gebruchlichster Test auf Normalverteilung der E, ist dabei der Jarque-Bera-Test. 44 Bei diesem wird in einem
ersten Schritt das dritte und vierte Moment (Schiefe und Wlbung) der Verteilung
der e, mittels der Residuen e, nach

n;'

1 "'~,

11, =

11,-- "1 rf
...'" e,,

(IV3: 13)

geschtzt. Darin ist der Standardfehler der Regression. Das arithmetische Mittel
der Residuen muss in den jeweiligen Zhlern der Brche nicht bercksichtigt werden, da es inuner Null ist. Weichen die Schtzwerte fr Schiefe und Wlbung deutlich von 0 bzw. 3 ab, die bei Nonnalverteilung gelten, ist dies ein Indiz fr nicht
normalverteilte Strgren. Aufgrund dieser berlegungen kombinierten die Entwickler des Jarque-Bera-Tests die Zufallsvariablen (IV3: 13) zu einer einzigen Zufallsvariable, der sog. Jarque-Bera-Statistik

B=n(ll:

+ (iL,

-3/J

24

(IV3: 14)

JB fallt umso grer aus, je strker Schiefe und Wlbung von 0 bzw. 3 abweichen.
Durch die Quadrierung ist es nicht von Bedeutung, ob die Abweichungen positiv
oder negativ sind. Bei Gltigkeit der Nullhypothese (Nonnaiverteilung der E) folgt
die Jarque-Bera-Statistik bei groem Sticbprobenumjang einer Chi-Quadrat-Verteilung mit zwei Freiheitsgraden. Dies gilt unabhngig von der Zahl der Freiheitsgrade des Regressionsmodells. Nach Nachschlagen des kritischen Wertes fr das
gewnschte Signiftkanzniveau kann die Nullhypothese der Normalverteilung der E,
44 Vgl. Jarque und Bera (1987) und Judge et al. (1985). Eine weitere Mglichkeit, auf Normalverteilung ZU testen, haben wir bereits im Abschnitt III 3.4.1 mit dem Chi-QuadratAnpassungstest kennengelernt.

IV EinfOhn.mg in die Okonomebie

478

abgelehnt werden, wenn dieser kleiner als der JB-Wert ist. Alternativ knnen wir
ablelmen, wenn der zugehrige p-Wert kleiner als das Signifikanzniveau a ist.

Bit

Problematisch ist beim Jarque-Bera-Test erstens, dass er sich nur an Schiefe und
Wlbung orientiert. So kann sich eine Verteilung sehr stark von einer NorrnaIverteilung unterscheiden, jedoch Werte fr Schiefe und Wlbung aufweisen, die nicht
weit von den Werten einer Normalverteilung entfernt liegen, was dazu fhrt, dass
der Test, die Nonnalverteilungshypothese nicht verwirft, obwohl keine Nonnalverteilung vorliegt.4S Zweitens ist der Test fr groe Stichprobenumfnge konzipiert,
sodass seine Mchtigkeit in kleinen Stichproben sehr gering ist. Drittens ist er auch
in groen Stichproben nicht inuner ein verlssliches Entscheidungswerkzeug, da
hier selbst kleinste Abweichungen von der Nonnalverteilung zu einer Verwerfung
der Nullhypothese fhren. Aus diesen Grnden wird in der Praxis zur Gewinnung
eines groben Verteilungseindrucks hufig nur auf Histogramme und andere grafische Hilfsmittel (z.B. Quantil-Quantil-Plots46) zurckgegriffen und auf einen Normalverteilungstest verzichtet. Dies ist insbesondere auch d.arauf zurckzufhen,
dass wir es in wissenschaftlichen Studien hufig mit relativ groen Stichprobenumf.ngen zu tun haben, sodass wir aufgrund des Zentralen Grenzwertsatzes bei vielen Parameterschtzungen ohnhehin von einer asymptotischen Normalverteilung
ausgehen knnen.

BeloplellV 3-9

Frauenlohnmodell

Wooldridge (2006) bietet einen Datensatz mit 428 Beobachtungen auf dessen Basis sich
die beiden folgenden Modelle

v; = a +,>c.. +2~ +3~1 +E,

(A)

(B)
In(V;) - o +l~1 +I>41 +~X~ +E,
zur Erklrung der Lhne amerikanischer Frauen schtzen lassen. Y ist dabei der Stundenlohn (in US-Dollar), X, die Schulbildung (in Jahren) und X:z die Berufserfahrung (in Jahren).
Im Folgenden sind die Schl1lzergebnisse sowie die Ergebnisse des Jarque-Bera-Tests zu
finden, die in EViews leicht zu erhalten sind, da dieser im SchAtzergebnisfenster durch
einem Mausklick unter View I Residual Tests I Histogram - Nonnality Test automatisch
durchgefuhrt wird. Wir wollen uns hier zunchst auf die Ergebnisse der Normalverteilungstests konzentrieren. Wie die Parameter dieser speziellen funktionalen Fonnen inhaltlich zu
interpretieren sind, werden wir in den Abschnitten IV 4.2.2.3 und IV 4.2.2.4 behandeln.
45 Dies zeigt sich z.B. im Geflgelkonsumbeispiel IV 3-1. Hier liegt eine bimodale Vertellung
der Residuen vor. Dennoch wird die Normalverteilungshypothese bei Durchfhrung des
Jatque-Bera-Tests nicht abgelehnt.
46 Bei diesem werden die geordneten Residuen el , , em als i/n-Quantile 0 - 1, ... ,0) der
Residuenvertei1ung aufgefasst und den Ci - O,5)/n-Quantllen einer Nonnalverteilung
gegenbergestellt, deren Parameter aus den Residuen geschtzt werden. Der Wert 0,5 ist
dabei als Stetigkeitskorrektur zu sehen, die der verbesserten Approximation der diskreten
Residuenvertei1ung durch die stetige Normalverteilung dient. Tragen wir die n Quantilpaare in einem Koordinatensystem ab, erhalten wir den Q-Q-Plot. Erlaubt die Nonnalverteilung eine hinreichend gute Approximation der Residuenvertellung, dann liegen die
Quantilpaare nahe an oder auf der Winkelhalbierenden des Koordinatensystems. Deutliche systematische Abweichungen der Punkte von der Geraden deuten auf eine Unvertrglichkeit der Normalvertellungshypothese fr die Residuen hin.

3. Testen von Hypothesen und Konlidenzintervalle

479

Modell A

Dependent Variable: Y
Method: Least Squares

Sampie: 1 428
Included observations: 428

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
XI

-2.488019
0.495710
0.036708
-0.000375

0.928496
0.066127
0.061587
0.001838

-2.679624
7.496338
0.596037
-0.203989

0.0077
0.0000
0.5515
0.8385

X2
X2 A 2
R-squared
Adjusted R-squared
S.E. 01 regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.120643
0.114421
3.115148
4114.558
-1091.623
2.054298

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob{F-statistic)

-,

100

4.177682
3.310282
5.119732
5.157668
19.39016
0.000000

....

s.II8:AIIIct...II*;

a--._

.....,
......,

-----~
M'*nn1

J ~

"" "'"

10

Variable

Coefficienl

-0.522041
0.107490
0.041567
-0.000811

X2
X2 A 2
R-squared
Adjusted R-squared
S.E. 01 regression
Sum squared resid
Log likelihood
Durbin-Watson stat

::10

Modell B

Dependent Variable: LOGM


Method: Least Squares

XI

16

0.156820
0.150854
0.666420
188.3051
-431.5990
1.960988

2.:iBlJ-16
-<l",",,"

. """'"
21..."",

3.104185
3.431613

21.10B1lQ

....01'

01llCCCO

Sampie: 1 428
Included observations: 428
Std. Error

t-Statistic

0.198632
-2.628179
0.014146
7.598332
0.013175
3.154906
-2.062834
0.000393
Mean dependent var
S.D.dependentvar
Akaike info crilerion
Schwarz criterion
F-statistic
Prob(F-statistic)

-,-....
s.n.:~

.....,
......,

--...

-~
~

... c...

..-

-9

n-rJ

-2

-,

rh

4.73IJ-17

Q"""'.

23"''''

"""'"'"
Q""""
-<l"""B

...,7<4
:Dl9172
QIIlCCCO

Prob.
0.0089
0.0000
0.0017
0.0397
1.190173
0.723198
2.035509
2.073445
26.28615
0.000000

480

IV Einfiihrung in die konometrie


Betrachten wir zunchst das Modell A. Auf den ersten Blick fllt dabei auf, dass die beiden
Beruiserfahrungsvariablen keinen signifikanten Einfluss auf das Arbeitseinkommen zu haben scheinen. Dies ist verwunderlich, da hier theoretisch ein starker Zusammenhang zu
erwarten wre. Die Ergebnisse des Jarque-Bera-Tests weisen mit einer sehr hohen Teststatistik von 6.688,01 und einem zugehrigen p-Wert von 0,000 auf eine deutliche Verwerfung der Normalverteilungshypothese hin. Dies ist mitunter auf die starke Rechtsschiefe
(3,4316) und Wlbung (21,1087) zurckzufhren, die durch die wenigen hohen Beobachtungen am rechten Verteilungsrand bedingt ist.
Die Ergebnisse fOr Modell B zeigen ein etwas anderes Bild. Hier zeigt sich zunchst, dass
die Berufserfahrungsvariablen konform mit der theoretischen Erwartung auf Niveaus von
1% und 5% signifikant sind. Das Logarithmieren der abhngigen Variablen bzw. der
Wechsel auf eine linksseitige Semi-Log-Form (vgl. Abschnitt IV 4.2.2.3) fOhrt also offensichtlich zu einer tauglicheren funktionalen Form, was wir in Beispiel IV 4-3 noch anhand
eines formalen Spezifikationstests aufzeigen werden. Bei Betrachtung des mit dem Jarque-Bera-Test ausgewiesenen Histogramms zeigt sich auerdem, dass durch die Logarithmierung die Residuen nun eine deutlich normalverteiltere Form annehmen. Schiefe und
Wlbung sind nun nicht mehr so weit von den Werten der Normalverteilung (0 und 3) entfernt. Dennoch wird durch den Jarque-Bera-Test die Hypothese der Normalverteilung verworfen. In einem solchen Fall, der in einer groen Stichprobe auch bei kleinen Abweichungen von der Normalverteilung auftritt, werden wir diesen Testergebnissen kaum Beachtung
schenken und Hypothesentests mit der Annahme der asymtotischen Normalverteilung
durchfiihren.

4.

Verletzungen der Annahmen des


klassischen Regressionsmodells

Bisher sind wir bei den von uns durchgefOhrten Schtzungen und Tests davon ausgegangen, dass die dem CLRM zugrunde liegenden Annahmen alle erfllt waren. Welche
Folgen eine Verletzung dieser Annahmen nun aber fOr unsere Regressionsanalyse hat,
ist Thema dieses Abschnitts. Wir werden uns hier im Speziellen mit Modellspezifikation
(4.1, 4.2), Multikollinearitt (4.3), Heteroskedastizitt (4.4), Korrelation der Strterme
(4.5) und Korrelation zwischen Strterm und erklrenden Variablen (4.6) beschftigen.
Wir schlieen den Abschnitt mit einem berblick ber Besonderheiten ab, die bei Zeitreihendaten zu beachten sind (4.7).

4.1

Modellspezifikation I: Variablenwahl
Die Spezifikation eines Regressionsmodells umfasst allgemein zwei Teilbereiche:
Die Wahl der korrekten erklrenden Variablen und der korrekten funktionalen
Form. Dieser Abschnitt IV 4.1 befasst sich zunchst mit der Variablenwahl, wohingegen der funktionalen Form ein eigenstndiger Abschnitt IV 4.2 gewidmet wird.
Allgemein sollten alle Variablen in die Regressionsgleichung aufgenommen werden, die aufgrund der zugrunde liegenden Theorie fr das Modell essentiell sind.
Sollte sich bei der Schtzung herausstellen, dass einige davon keine signifikanten
Einflsse auf die erklrte Variable haben, gilt es die Modelltheorie zu berarbeiten.
Ist die zugrunde liegende Theorie mehrdeutig bzw. wenig ausdrcklich hinsichtlich
der Variablenwahl, so ist dies problematisch. wird eine relevante Variable vernachlssigt, fhrt dies ZU Verletzungen der Annahmen 2a sowie 2b und verzerrt die
verbleibenden Parameterschtzer sowie die Schtzer der Standardfehler. Wird eine
irrelevante Variable integriert, fhrt dies zu keinen Verzerrungen der Parameterschtzer jedoch zu hheren Standardfehlern.

4.1_1

VernaChlssigte Variablen

Die Vernachlssigung einer relevanten erklrenden Variablen fhrt oft dazu, dass
die verbleibenden Parameter verzerrt geschtzt werden. Betrachten wir dazu ein
korrekt spezifiziertes Regressionsmodell der Form
(IV4: la)
in dem wir die Variable ~ vernachlssigen, da wir z.B. kein Datenmaterial fr sie
zur Verfgung haben oder sie nicht kennen. Wir knnen die Vernachlssigung von
X, auch als Auferlegung einer falschen Restriktion 13, = 0 fr (Iv4: la) auffassen.

Die neue Regressionsgleichung hat dann die Form


mit
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_17, Springer Fachmedien Wiesbaden 2015

(IV4: Ib)

482

IV Einfiihrung in die konometrie

da der stochastische Strtenn die Effekte jeglicher vernachlssigter Variablen auf Y


beinhaltet. Es ist bereits in (Iv4: Ib) deutlich zu sehen, dass der Erwartungswert
des neuen stochastischen Strtenns nun von Null abweichen muss. Auerdem ist
hier E(E; I X,.) 0 und damit Annahme 2a verletzt.

fr den verbleibenden Koeffizienten ~, entsteht


Die Verzerrung des Schtzers
nun dadurch, dass dieser zum Teil die Effekte der vernachlssigten Variablen auf Y
aufnimmt. Dies lsst sich wie folgt erklren: Die erklrenden Variablen X, und X,
sind in der Realitt hufig korreliert. Bei der Schtzung einer Cobb-Douglas Produktionsfunktion ist etwa davon auszugehen, dass die Variablen Arbeit und Kapital
korreliert sind. Eine Zunahme des Kapitals erfordert nmlich meist auch eine Zunahme von Arbeit, da z.B. neue Maschinen auch bedient werden mssen. Wird X,
vernachlssigt, so wird diese Variable ein Teil des "neuen" stochastischen Strtenns
E", sodass E" und X, nun nicht unabhngig sind. Gerade daher kommt es bei
nderungen von X, sowohl zu nderungen von X, als auch von E", was dazu
fhrt, dass der stochastische Strtenn und die erklrende Variable korreliert sind.
Dies ist eine klare Verletzung der Annahme 2b des CLRM, die automatisch eine
Verletzung von Annahme 2a mit sich bringt.
Sind Annahmen des CLRM nicht erfllt, verliert das Gauss-Markov-Theorem seine
Gltigkeit. Die OLS-Schtzer sind nicht lnger BLUE, sodass ggf. eine andere
Schtzmethode zu whlen ist. Die Verletzung der Annahme 2b fhrt allgemein dazu, dass EC;l "'~' gilt. Durch Vernachlssigung von X, wird OLS nmlich Vernderungen von Y, die eigentlich auf nderungen von X, zurckzufhren sind, X, zuordnen. Formal knnen wir diese Verzerrung aufzeigen, indem wir zunchst in unsere Schtzfonnel (IVl: 12)

den Ausdruck (IV4: la) einsetzen und Umfonnungen analog zur Herleitung von
(1V2: 20) vornehmen. Wir erhalten also aufgrund der Definition und der Eigenschaften von 1<, aus Abschnitt IV 2.3.1 zunchst folgendes Ergebnis:
8" = LX,J~O + ~,XlI + ~2X2I + E.)

1',

'" 2
L..Jx u

L k, (~o + ~, Xli + ~2X2I + E.)


= ~oLk, + ~,Lk,XlI + ~2Lk,X2I + Lk,E,
= ~,

+ ~2Lk,X2I + Lk,E,

Die Resubstitution von k, ergibt schlielich!

Nehmen wir wieder an, dass X, und X, im Gegensatz zu E keine Zufallsvariablen


sind und der Erwartungswert des stochastischen Strterrns bei Null liegt, fhrt die
Erwartungsbildung aufgrund von E(l:x"c,) = Dl(X"E) = I:x"E(E,l = 0 zu folgender
wichtigen Darstellung:

4. Verletzungen der Annahmen des klassischen Regressionsmodells

483

+" Cov(JS,X,)
1-'1

"'2

Var(X1 )

x..

Dies verdeutlicht, dass der Schtzer fr Pt durch Vernachlssigung von


verzerrt
wird. Die Verzerrung nimmt mit zunehmendem Stichprobenumfang nicht ab, sodass es zustzlich zur Inkonsistenz des Schtzers kommt. (N4: 2) zeigt zudem, dass
es trotz Vernachlssigung einer Variablen nicht unbedingt zu einer Verzerrung der
brigen Parameterschtzer konunen muss. Ist die vernachlssigte Variable nmlich
nicht mit der verbleibenden Variable korreliert, d.h. Co~,x..:> - 0, so gibt es keine
Verzerrung. Ein hoher Wert von Var(X.) kann eine bestehende Verzerrung verringern, aber nicht eliminieren, da Var(X.) endlich ist.
Fonnel (N4: 2) ist besonders wertvoll, da sie uns die Richtung der Verzerrung in
Abhngigkeit von der Korrelation zwischen ~ und
und dem. Vorzeichen des
wahren Parameters Pi angeben kann. Ist z.B. der erwartete Koeffizient der vernachlssigten Variable und auch die Korrelation zwischen vernachlssigter und verbleibender Variable positiv, so wird der vetbleibende OLS-Schtzer nach oben verzerrt.

x..

Beispiel IV 4-1

Variablenvernachlssigung in Cobb-Douglas-Funktion

Betrachten wir unsere Cobb-Douglas Funktion aus Beispiel IV 3-5. Hier haben wir die erklArenden Variablen Xl: Arbeitsinput und Xl!: Kapitalinput zur ErkiArung des Outputs definiert. Dies lieferte fr den Zeitraum 1991 bis 2008 die folgenden Regressionsergebnisse:
1-nY; =-8,2683 +O,7211In~ +O,5853InX2t

n=18 (15)

(0,1173)
(0,0227)
R' =0,9933
t6, 15
25,84
Vernachlssigen wir nun die Variable Xl! im Modell, so wrde die Sch.tzung des damit
entstehenden Modells folgende Ergebnisse liefern:

lnY; =-27,0824 +3,01281nX


t-

(0,5011)
6,01

l1

n=18 (15)

RI

=0,6740

Abgesehen davon, dass sich dadurch der -Modellfit" verschlechtert (kleineres R2 ), kOnnen
wir feststellen, dass sich der geschAtzle Koeffizient der verbleibenden Variable deutlich erhht. Die Richtung dieser Vernderung htten wir auch mittels (IV4: 2) schtzen knnen,
da danach gilt: Verzerrung", (+) . (+) '" (+). Xl und Xl! sind nmlich positiv korreliert und die
Theorie besagt, dass mit zunehmendem Kapitalinput auch der Output steigt. Es ist dabei
aber unbedingt zu beachten, dass (IV4: 2) Aussagen aber die erwartete Verzerrung und
nicht Ober die beobachete Verlnderung der geschAtzten Koeffizienten macht. Die Schatzung nach (IV4: 2) muss also nicht zwangslufig die tatschliche Anderung der geschtzten Koeffizienten widerspiegeln. Sie ist jedoch als Anhaltspunkt rur die Tendenz der Entwicklung verwendbar.

Mit den Auswirkungen einer Vernachlssigung einer relevanten Variablen auf den
Schtzer der Konstante Po wollen wir uns an dieser Stelle und auch bei der Behandlung der Verletzung der anderen Annahmen des CLRM nicht nher beschftigen. Dies beruht einerseits auf der Tatsache, dass wir den Problemen, die mit der
Schtzung von Po verbunden sind, einen eigenen Abschnitt (vgl. IV 4.2.1) widmen

484

IV Einfijhrung in die konometrie


und andererseits der Schtzer der Regressionskonstanten in praktischen Fragestellungen nahezu nie von Bedeutung ist.

Durch vernachlssigte Variablen kommt es auerdem dazu, dass die Standardfehler


der OLS-Schtzer verzent geschtzt werden, was insgesamt zu wertlosen Hypothesentests fhrt, da diese verzerrten Werte 2.B. in die Berechnung der t-Statistik ein-

gehen. Wird X, vernachlssigt und sind X, und X, korreliert, so sind z.B. die Variund
nicht gleich. Im Fall (Iv4: la) bzw. (IV4: Ib) gilt konkret
anzen von
(vgl. (IV2: 23) und (IV2: 26))

(1')

J [-

a' , < Var(~,) = ~ '( _ ')


-.
( Var(~,) = ~
~xll
L..Jxu 1 f12

Trotz Modellfehlspezifikation hat der Schtzer


eine geringere Varianz. Bei vernachlssigten relevanten Variablen ist zudem der Schtzer fr a' verzerrt, da dieser
unter den Annahmen 2, 3 und 4 hergeleitet wird und wir bereits wissen, dass eine
dieser Annahmen klar verletzt ist. 2
Theoretisch ist es recht einfach den beschriebenen Verzerrungen der OLS-Schtzer
entgegenzuwirken: Einfach die vernachlssigte Variable in die Regressionsgleichung aufnehmen! Dies ist jedoch einfacher gesagt als getan. Das Problem liegt
nmlich darin, dass eine Verzerrung durch eine vernachlssigte Variable schwer zu
erkennen ist. Dies gilt besonders dann, wenn wir der berzeugung sind, dass das
verwendete Modell korrekt spezifiziert ist. Wir werden uns meist erst dann Gedanken machen, wenn das Vorzeichen eines geschtzten Regressionsparameters signifikant anders ist, als wir es in der Modelltheorie erwarten. In einem solchen Fall ist
es nmlich sehr wahrscheinlich, dass eine Verzerrung aufgrund vernachlssigter
Variablen vorliegt. Nach derartigem Feststellen einer Verzerrung aufgrund einer
vernachlssigten Variablen, stellt die Frage, welche Variable schlielich in die Gleichung eingefgt werden soll, ein weiteres Problem dar. Oft konzipieren wir unsere
Modelle ja gerade so, dass sie alle relevanten Variablen bercksichtigen. Unerfahrene konometriker neigen in einer solchen Situation dazu, ihre Modelle mit verschiedenen, theoretisch nicht immer unbedingt optimalen Zusatzvariablen zu testen
und entscheiden sich letztendlich fr diejenigen, die die Verzerrung beseitigen
(korrekte Vorzeichen, wnschenswerte t-Werte). Die so geschtzten Gleichungen
haben dann jedoch meist nur fr den jeweiligen Datensatz Gltigkeit, fr den sie
geschtzt wurden. In anderen Stichproben erweisen sie sich als untauglich, da sie
schlielich nicht die Charakteristika der Grundgesamtheit beschreiben. An Stelle
eines derartigen "Rumprobierens" sollten wir besser Variablen suchen, die mit der
Theorie im Einklang sind und daher auch sinnigerweise ins Modell aufgenommen
werden sollten. Wichtige Hinweise geben dabei anerkannte konomische Modelle
und auch Variablen, die sich in anderen empirischen Untersuchungen als wichtige
Einflussfaktoren auf unsere zu erklrende Variable herauskristallisiert haben.

4.1.2

berflssige Variablen

Neben vernachlssigten Variablen knnen auch berflssige Variablen das Regressionsergebnis beeintrchtigen. Whrend vernachlssigte Variablen bei CovCx"x,) " 0

2 Vgl. dazu

Rao und Miller (1971) oder von Auer (2007).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

485

zur Verzerrung der Parameter- und Varianzschtzer fhren, erhhen berflssige


Variablen lediglich die Varianz der Parameterschtzer und fUhren nicht zu ihrer
Verzerrung. Betrachten wir dazu das korrekt spezifizierte Modell

Y = Po + P1XU + EI>

(IV4: 3a)
in welches jedoch eine berflssige Variable eingefgt wurde, die zum Modell
I

y; = P~ + P;X11 + P~X~1 + E; mit

= EI

P;X21

(N4: 3b)
fUhrt. Wir haben unter N 4.1.1 gesehen, dass die Auferlegung einer falschen Restriktion zu verzerrten Schtzern fUhrt. Wir knnen das auch so interpretieren, dass
unsere Schtzung von einer falschen Information beeintrchtigt wird. Durch die
Aufnahme einer berflssigen Variablen wird von uns hingegen eine korrekte Information vernachlssigt, und zwar, dass in der Grundgesamtheit
= 0 gilt. Dadurch ist (IV4: 3b) aber nicht falsch und hat daher auch keine Verzerrung (und
keine Inkonsistenz) des Schtzers fUr
zur Folge.3
E;

P;

P;

Das Hinzufgen berflssiger Variablen fhrt nicht zur Verzerrung der Schtzer der
Steigungskoeft1zienten des korrekten Modells. Dies lsst sich auch fr den Schtzer
der Konstanten im Regressionsmodell zeigen. Auerdem kann gezeigt werden, dass
E(P;) = 0 gilt. 4
berflssige Variablen fhren bei korrelierten erklrenden Variablen dazu, dass die
Varianz des Schtzers von l erhht wird, also (vgl. (IV2: 23) und (IV2: 26))

[ ,.

Var(Pl)

a' J(' a')

Lx:,(1-11~2) > Var(p)= LX~

gilt. S Dies fhrt wiederum dazu, dass die absolute Hhe der t-Werte abnimmt, was
die Ablehnung von Hypothesen bzgl. Koeffizienten von Null erschwert. Wir knnen also sagen, dass die Schtzer des fehlspezifizierten Modells nicht effizient sind,
da es andere Schtzer (im korrekten Modell) gibt, die eine geringere Varianz aufweisen. Zudem ist zu erwhnen, dass berflssige Variablen auch oft ZU einem
sinkenden iF (nicht jedoch R~ fUhren, was das nachfolgende Beispiel zeigt.
Beispiel IV 4-2

OberflOssige Variable im GeftOgelkonsummodel1

Im Geflugelkonsumbeispiel IV 3-1 ergab sich die folgende Schtzung:


VI = 27.5939 -O,6072~1 +O,0922X 21 +O.2449XaI

(0.1571)

t-

-3,86

(0.0399)
2,31

(0.0111)

n=40 (36)
R2 =0.9896

22,07

FOgen wir nun eine OberflOsslge Variable >4 hinzu, die aus erzeugten Zufallszahlen besteht, so erhalten wir folgendes Ergebnis:
3 Fr einen f()1'lrul.l.en Beweis vgl. Aufgabe 16.

4 Die Beweise und auch Hinweise zum Beweis der Konsistenz der Schtzer finden sich z.B.
in Pindyck, R.S., Rubinfeld, D.L. (1998), Kapitel 7.
5 Der Schtzer von a' bleibt unvenent, da keine der Annahmen 2, 3 und 4 verletzt wird.

IV Einfijhrung in die konometrie

486

v, = 27,0824 -0,59t5)("
(0,1624)
t = -3,64

-Hl,0930x", -Hl,245tx", -Hl,577tX4 ,


(0,0404) (0,0112)
(1,2376)
2,30
21,82
0,47

n = 40 (36)
fj' =0,9893

Es fllt zunchst auf, dass fj' gefallen ist, was anzeigt, dass sich der "fit" des Modells verschlechtert hat. Auerdem ist festzustellen, dass sich keiner der geschtzten Regressionskoeffizienten signifikant verndert hat. Die Standardfehler der OlS-Schtzer haben sich
jedoch alle erhht, was zu durchgehend niedrigeren t-Werten gefhrt hat. Besonders auffllig ist der u erst niedrige t-Wert der neuen Variablen. Dieser deutet an, dass der geschtzte Koeffizient der neuen Variablen nicht signifikant von Null verschieden ist. Sie sollte also nicht in die Gleichung aufgenommen werden.

4.1.3

Modellspezifikationskriterien und Spezifikationstests

Wie wir im letzten Beispiel gesehen haben, scheint es eine Reihe von Kriterien
bzw. zu beantwortende Fragen zu geben, anhand derer wir beurteilen knnen, ob
eine Variable in ein Regressionsmodell aufgenommen werden sollte oder nicht.
Diese Spezifikationskriterien knnen wir zu den folgenden zusammenfassen: 6
1.

2.

Theorie: Rechtfertigt die zugrunde liegende Modelltheorie die Aufnahme der


Variable in die Regressionsgleichung?
t-Test: Ist der geschtzte Koeffizient der Variablen signifikant mit dem erwarteten Vorzeichen?

3.

i': Verbessert sich der "Gesamtfit" der Gleichung, wenn die Variable hinzuge-

4.

fgt wird?
Verzerrung: Kommt es bei Hinzufgung der neuen Variablen zu signifikanten
Vernderungen der bestehenden geschtzten Regressionskoeffizienten?

Knnen diese Fragen bejaht werden, gehrt die betroffene Variable in die Regressionsgleichung. Da die Spezifikationskriterien 1 bis 4 jedoch schnell an ihre Grenzen geraten, wenn es z.B. darum geht, sich zwischen zwei Spezifikationen zu ent-

scheiden, die beide alle 4 Punkte erfllen, muss hufig auf mehr fonmale Spezifikationskriterien zurckgegriffen werden. In der Praxis wird hier hufig der sog.
Ramsey RESET (engI. regression specification error test), das Akaike-Informationskriterium und das Schwarz-Kriterium herangezogen.
Der Ramsey RESET7 dient der Aufdeckung genereller Formen von funktionalen
Feblspezif/kationen. Ist das OriginaImodell (IV4: Sa) korrekt spezifiziert, dann sollten nichtlineare Funktionen der erklrenden Variablen nicht signifikant sein, wenn

sie der Gleichung (IV4: Sa) hinzugefgt werden. Y stellt eine Linearkombination
der erklrenden Variablen dar. Potenzen von Y agieren als Proxies fr jede mg-

liche (unbekannte) vernachlssigte Variable (oder falsche funktionale Form). Kann


durch einen F-Test gezeigt werden, dass eine derart erweiterte Gleichung einen
besseren "GesamtfW' aufweist als die originre Gleichung, so ist dies ein Hinweis

dafr, dass ein Spezifikationsfehler vorliegt. egt kein Spezifikationsfehler vor, sollten die geschtzten Koeffizienten dieser zustzlichen Terme nicht gemeinsam signifikant von Null verschieden sein. Die generelle Vorgebensweise des Ramsey RESET
6 Vgl. Studerunund (2007), Kapitel 6.
7 Vgl. Ramsey (1969).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

487

knnen wir im Falle eines Regressionsmodells mit zwei erklrenden Variablen folgendennaen beschreiben: Zunchst wird das vorliegende Modell
geschtzt. Die daraus resultierenden Werte Yt werden dann z.B. zur Schtzung des
erweiterten Modells
(IV4, Sb)

verwendet. Anschlieend wird der ~Gesamtfit~ beider Modelle durch Testen der
Nullhypothese 1\: p, = P4 = P5 = 0 gegenber H...: "mindestens eines der Pk mit
k - 3,4,5 ist ungleich Null" mittels des F-Tests verglichen. Die zu verwendende
Teststatisik und Testentscheidungsregel sind (IV3: 6) und (IV3: 7). Dabei bezieht
sich n - K - 1 wieder auf die originre Gleichung, whrend M die Anzahl der Zusatztenne der erweiterten Gleichung darstellt.

BoiopioliV 4-3

Ramsey RESET im Frauenlohnmodell

In Beispiel IV 3-9 hatten wir zwei Lohnmodelle A und B geschltzt und dabei darauf hingewiesen, dass die Semi-Log-Fonn des Modells B eine vorteilhaftere funktionale Form darzustellen scheint als die lineare Fonn des Modells A. Wir wollen dieses Argument nun anhand des Ramsey RESET umennauern. Die TestdurchfOhrung tOr belde Modelle wird uns
von EViews abgenommen. Im Menu der jeweiligen geschtzten Gleichung ist dazu lediglich unter View I Stability Tests I Ramsey RESET Test die Anzahl der hinzuzurugenden
Proxy-Varlablenw anzugeben. Wir wAhlen Im Folgenden exemplarisch zwei.
Betrachten wir zun4chst das Modell A. Mit einem kritischen F-Wert von 3,02, der sich bei
einem Signifikanzniveau von 5 % aus der F(2;422)-Verteilung ergibt, kann aufgrund des FWerts des Ramsey RESET von 5,7669 die Nullhypothese Ho: P3 - P4 - 0 abgelehnt werden. Gleiches gilt auch bei Verwendung des p-Werts der F-8tatistik von 0,0034. In der
Modellgleichung scheint es also einen Spezifikationsfehier zu geben.
Ramsey RESET Test:
F-statistic
Log likelihood ratio
Test Equation:
Dependent Variable: Y
Method: Least Squares
Variable

Xl
X2
X2'2
FITTED"2

Adjusted R-squared
S.E. of regression
Sum squared resld
Log likelihood
Durbin-Watson stat

lIodellA
5.788881 Prob. F(2,422)
11.54071 Prob. Chi-Square(2)

Coefficient
11.98285
2.061203
0.173049
-0.002014
-1.192849

0.133896
3.080705
4005.095
-1085.852
2.039328

0.0034
0.0031

Sam pie: 1 428


Inciuded observations: 428
t-Statistic
Std. Error
Prob.
8.129955
1.473914
0.1413
1.121283
1.838254
0.0667
0.105560
1.639343
0.1019
-0.992998
0.002028
0.3213
0.628658
-1.897452
0.0585

var

S.D. dependent var


Akaike info criterion
Schwarz crlterlon
F-statistic
Prob(F-statistic)

3.310282
5.102114
5.159017
14.20243
0.000000

488

IV Einfiihrung in die konometrie


Bei Modell B zeigt sich ein anders Bild. Hier kann Ho nicht abgelehnt werden, was als Indiz
dafr gedeutet werden kann, dass keine schweren Spezifikationsfehler vorliegen und die
Semi-Log-Form fr das Lohnmodell zu favourisieren ist, da sie den Spezifikationsfehler der
linearen Form beseitigt. Es sei in diesem Zusammenhang erwhnt, dass wir die gleichen
Schlussfolgerungen erhalten, wenn wir in den Tests anstatt zweier "Proxy-Variablen" ("V,'
und V,') nur eine (V,' ) oder drei (V,', V,' und V,') whlen.
Modell B

Ramsey RESET Test:

1_633261
3.300210

F-statistic
Log likelihood ratio

Prob. F(2,422)
Prob. Chi-Square(2)

Test Equation:
Oependent Variable: LOG(y)
Method: Least Squares

0_1965
0.1920

Sampie: 1 428
Included observations: 428

Variable

Coefficient

Std. Error

t-Statistic

Prob.

-1.793419
0.294231
0.120481
-0.002383
-2.164234
0.753994

2.274956
0.282096
0.110540
0.002172
2.409038
0.701110

-0.788331
1.043016
1.089925
-1.096694
-0.898381
1.075429

0.4309
0.2975
0.2764
0.2734
0_3695
0_2828

XI
X2
X2 A2
FITTEOA2
FITTEOA3
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Ourbin-Watson stat

0.163297
0.153383
0.665427
186.8587
-429.9489
1.948723

Mean dependent var


S.O.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

1.190173
0.723198
2.037144
2.094048
16.47211
0.000000

Abschlieend schlieen wir aus Modell B die Variable X, aus und wenden den Ramsey
RESET auf das resultierende reduzierte Modell an. Wir erhalten bei Verwendung zweier
"Proxy-Variablen" einen p-Wert von 0,0320. Oaran erkennen wir, dass der Test auch Fehlspezifikationen aufdecken kann, die aus vernachlssigten Variablen hervorgehen.

Wichtig im Zusammenhang mit dem Ramsey RESET ist, dass dieser nur Aussagen
dazu machen kann, ob ein Spezifikationsfehler vorliegt. Wo dieser genau liegt
(vernachlssigte Variable, falsche funktionale Fonn, ... ) wird nicht bestinunt. Dieser
Test empfiehlt sich daher nicht zur konkreten Fehlersuche, sondern zur Sicherstellung, dass ein wohlspezifiziertes Modell auch als solches bezeichnet werden kann.
Eine andere Kategorie von SpezifIkationskriterien befasst sich mit der Modifikation
der Residuenquadratesumme RSS, um ein Ma fr den "fit" einer Gleichung zu erhalten. Typischer Vertreter dieser Kategorie ist das bereits behandelte R:'. Neben
diesem wurden auch das sog. Akaike-Informationskriterium (AlC) und das
Schwarz-Kriterium (SC) entwickelt. BWie
AIC =

In(~S) + 2 (~+ 1)

B vgl. Akaike (1981) und Schwarz (1978).

(IV4: 6)

4. Verletzungen der Annahmen des klassischen Regressionsmodells

489

zeigen, wird bei diesen Maen RSS hinsichtlich Stichprobenumfang n und Zahl der
erklrenden Variablen K angepasst. Sie helfen also zu beurteilen, ob der verbesserte "fit", der durch Hinzufgen einer Variablen erreicht werden kann, die abnehmenden Freiheitsgrade und die zunehmende Modellkomplexitt wert ist.
Die Anwendung beider Mae ist gleich. Es werden die alternativen Spezifikationen
geschtzt und fr jede der Wert von Ale bzw. SC berechnet. Je geringer Ale bzw.
se dabei ausfallen, desto besser ist die Spezifikation. Im Vergleich zu R: 2 kann gesagt werden, dass Ale und se das Hinzufgen einer Variable strker "betrafen. Bei
einer Spezifikation, die Ale bzw. se minimiert ist es daher weniger wahrscheinlich,
dass sie eine irrelevante Variable enthlt, als bei einer, die R: 2 maximiert.
BeloplellV 4-4

Ale und SC im Geflugelkonsummodell

Betrachten wir die zwei mglichen Spezifikationen des GeflQgelkonsummodelis aus Beispiel IV 3-1 :

y, - 27,5939 -o,6072~ +O,0922Xtt +o,2449)(,t


1=

(0, 1571)
-3,86

(0,0399)
2,31

t=

Rt - 0,9896
RSS =143,07

(0,0111)
22,07

Vt =27,5415 -O,4162X1t +O,2682XSt


(0,"'3)
-2.95

" - 40 (36)

(0,0049)
55,00

"=40(37)

Rt - 0,9884
RSS=164,31

Unter Verwendung dieser Ergebnisse knnen wir fr das korrekte Modell (K _ 3)

Ale = 1"(143,07/40)+2(4)/40 = 1,47


= In(143,07/4O)+ln(40)4/40 = 1,64

sc

berechnen, whrend wir rur das Modell mit der vemachlssigten Variablen (K '" 2)
Ale - ln(164,31/4O)+2(3)/4O - 1,56

sc = In(164,31/4O)+ln(40) 3/40 = 1,69


erhalten. Eine solche Berechnung muss natrlich nicht "von Hand- durchgeffihrt werden.
Ale und SC sind Standardbestandteile eines jeden EViews-Regressionsoutputs und knnen daher direkt abgelesen werden. In diesem Fall erkennen wir deutlich, dass AIC und
SC beim korrekten Modell niedriger sind. Das Modell mit drei erklArenden Variablen ist
also zu bevorzugen.

Wie dieses Beispiel zeigt, knnen wir im Vergleich zum Ramsey RESET zusammenfassend sagen, dass dieser die Existenz eines Spezifikationsfehlers feststellen kann,
whrend Ale und se dazu dienen, zwei alternative Spezifikationen zu vergleichen.
4.1.4

Verzgerte erklrende Variablen

Bisher sind wir davon ausgegangen, dass sich die erklrte Variable in einer Periode
t durch die Ausprgungen der erklrenden Variablen in Periode t (kontemporre

490

IV Einfijhrung in die konomelrie

Variablen) beschreiben lsst. Wir bezeichnen Modelle, die einen derartigen Zweck
verfolgen, auch als statische Modelle. Was wir noch nicht bercksichtigt haben,
ist die Tatsache, dass in der Regel auch Ausprgungen der erklrenden Variablen
der Vorperiode t-l Einfluss auf Y in Periode t haben knnen. Wir mssen also die
Mglichkeit zulassen, dass eine gewisse Zeit verstreicht, bis die Vernderung einer
erklrenden Variablen Einfluss auf die erklrte Variable hat. Wir bezeichnen diesen
Zeitraum auch als Verzgerung (eng!. lag). Viele konometrische Modelle, wie z.B.

(N4: 8)

beinhalten verzgerte erklrende Variablen. Das Subskript t-l bedeutet hier,


dass die Beobachtung von X, aus einer Periode vor t stammt. Wir sagen, dass das
Modell (IV4: 8) bzg!. der Variablen X, eine Verzgerung von einer Periode oder
einen Lag von Eins hat. Bei derartigen Modellen sprechen wir auch von einfachen
Lag-Modellen. Sie gehren zur Klasse der dynamlschen Modelle (Modelle mit
Variablen zu unterschiedlichen Zeitpunkten). Der Regressionskoeffizient einer Vari-

ablen X, mit einer Verzgerung von einer Periode gibt (unter Konstanthaltung der

anderen erklrenden Variablen) an, welche Vernderung von Y in t durch eine Er-

hhung von X, (um eine Einheit) in der Vorperiode hervorgerufen wird.


Beispiel IV 4-5

Verzgerte Variablen

Nehmen wir zum besseren Verslndis von (IV4: 8) an, dass VI das Angebot an Mais in
Periode I, Xll1 den Preis von Mais in Periode 1-1 und
den durchschnittlichen Lohn von
Hilfsarbeitern im landwirtschaftlichen Bereich in Periode I darslellen. Der Preis von Mais isl
als verzgerte Variable ins Modell aufgenommen, da die Bauern bei Preiserhhungen
nicht sofort ihr Angebot erhhen knnen. (Der Mais muss schlielich erst wachsen.) Das
Angebot wird daher erst in der Folgepariode zunehmen. 1 wrde in einem solchen Fall
angeben, wieviele zustzliche Einheiten (z.B. Tonnen) Mais in Periode taufgrund einer
Vorjahrespreiserhhung von einer Einheit (z.B. Euro je Tonne) angeboten werden. Steigt
das Lohnniveau fr Hilfskrfte, knnen die Bauern relativ schnell darauf reagieren und Entlassungen veranlassen. Dieses Lohnniveau muss daher nichl als verzgerte Variable aufgenommen werden.
Zum besseren Verstndnis des Begriffs "Verzgerung" betrachten wir folgende Tabelle,
die hypothetisches Datenmateriel (n = 10) fijr unser Maisangebotsmodell darstellt:

x..

VI
XlI

1.500

2
1.400

3
1.400

4
1.200

5
1.250

6
1.1 00

7
1.300

8
1.400

9
1.350

10
1.050

150~ 160~ 130~120~115~110~105~ 100~ 120~ 140


~5

150

160

130

120

115

7~

~O

9~

9~

9~

110
10,0

105

100

1~5

10~

120
12,0

Wir erkennen, dass der Wert der verzgerten Variablen jeweils dem Wert aus der Vorperiode enlspricht. Auerdem zeigl sich, dass das Dalenmalerial, dass fijr unsere Schtzung
zur Verfgung steht, von 10 auf 9 Beobachtungen reduziert wird, da uns fr t = 1 keine
Beobachtung von X1t.1 zur Verfgung steht. Je hher wir also die Verzgerung whlen,
desto mehr Beobachtungen gehen verloren.

Modelle mit Verzgerungen von nur einer Periode der Art (N4: 8), die die kontemporre Variable nicht zustzlich enthalten, knnen wie jedes andere lineare

491

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Regressionsmodell ohne Probleme mit OLS geschtzt werden. Hat ein Modell allerdings die Gestalt
(IV4: 9)
weist die Schtzgleichung also neben der Variablen X, auch deren Verzgerungen
um 1 bis s Perioden auf, ist dessen Schtzung manchmal problematisch (siehe unten). Wir sprechen bei derartigen dynamischen Modellen auch von distributiven
Lag-Modellen, da Y hier eine Funktion gegenwrtiger und vergangener X-Werte
ist, der Einfluss von X auf Y also ber eine bestimmte Anzahl von Perioden verteilt
wird. Die Koeffizienten , bis P. messen die Effekte der verzgerten Werte von X
auf den gegenwrtigen Wert von Y. In vielen konomischen Anwendungen werden wir davon ausgehen, dass der Einfluss von X auf Y mit zunehmender Lnge

der Verzgerung (angezeigt durch Subskript der Koeffizienten) abnimmt. Die ersten Werte Po und p, sollten also absolut betrachtet grer sein als z.B. p, und p,.
Beispiel IV 46

Distributive Lag-Modelle

Geldmenge: Typisches Beispiel fOr ein distributives Lag-Modell bietet die Analyse des Einflusses einer Geldmengenvernderung (dM) auf das Brultoinlandsprodukt eines Landes.
Aufgrund der Komplexitt der Mrkte dauert es nmlich eine Weile, bis die Wirtschaft vollstndig auf dM reagiert hat.
Werbeausgaben: Auch die Ttigung von Werbeausgaben drfte sich nicht unmittelbar auf
den Umsatz einer Bank auswirken. Viele Banken investieren nmlich erhebliche Summen
in Marketingmanahmen gegenber Kindern und Jugendlichen. Hintergrund derartiger
Aktivitten ist es, die Beworbenen bereits jetzt an die Bank zu binden, sodass sich mit dem
Berufseinstieg der Beworbenen Geschfte fOr die Bank ergeben. Ein heute vergebenes
Werbegeschenk zieht also erst mit zum Teil erheblicher Verzgerung einen Umsatz fOr die
Bank nach sich.

Die Schtzung einer Gleichung wie (Iv4: 9) mit OLS verursacht eine Reihe von
Problemen. Zu diesen gehren beispielsweise folgende:
1.

Es besteht die Gefahr, dass die verschiedenen verzgerten Werte von X stark
multikollinear sind, was die Schtzungen der Koeffizenten unprzise macht
(vgl. Abschnitt IV 4.3).

2.

Es kommt zu einer deutlichen Abnahme der Freiheitsgrade. Dies ist einerseits


darauf zurckzufhren, dass fr jedes verzgerte X ein Koeffizient geschtzt
werden muss, was ber ein steigendes K eine Abnahme der Freiheitsgrade
n - K - 1 bedingt. Zustzlich reduziert sich der Stichprobenumfang n fr jede
einzelne verzgerte Variable um Eins.

Aufgrund dieser Schwierigkeiten ist es Standard geworden, Gleichungen der Art


(IV4: 9) unter gewissen Annahmen stark zu vereinfachen. Eine gngige Modiftkation besteht in dem Versuch, alle verzgerten erklrenden Variablen durch den um
eine Periode verzgerten Wert der erklrten Variablen zu ersetzen. Mit derartigen

Fonmen dynamischer Modelle werden wir uns unter IV 4.7 noch nher befassen.

492

IV Einfijhrung in die konometrie

4.2 Modellspezifikation 11: Funktionale Form


Nach Wahl der erklrenden Variablen gilt es die funktionale Fonm der Regressionsgleichung festzulegen. Nach Mglichkeit sollte diese nicht allein anband der vorliegenden Stichprobe ausgewhlt werden. Es knnte zwar so ein sehr guter "Modellfit" erreicht werden, doch besteht dabei die Gefahr, dass zufallsbedingte Besonderheiten der Stichprobe modelliert werden, die fr die allgemeinen Charakteristika
der Grundgesamtheit unbedeutend sind. Resultat wre ein geschtztes Modell, das
fr Prognosezwecke untauglich ist. Insbesondere sollten daher auch inhaltliche
berlegungen (z.B. das Gesetz abnehmender Grenzertrge) eine Rolle spielen.
Folge einer falschen funktionalen Fonm ist im Allgemeinen eine Verletzung der Annahme 2a und damit eine Verzerrung der Parameter- und Varianzschtzer. Selbst
korrekte erklrende Variablen knnen so in einer Schtzung als nicht signiftkant
oder mit falschem Vorzeichen auftreten.

4.2.1

Bedeutung des konstanten Terms

Im linearen Regressionsmodell stellt die Konstante Po den Erwartungswert von Y


fr den Fall dar, dass alle erklrenden Variablen den Wert Null annehmen. Er besteht aus mindestens drei Komponenten:

1.

dem wahren Wert der Konstanten, den wir im Folgenden mit

bezeichnen,

2.

dem Erwartungswert des stochastischen Strtenns der korrekt spezifizierten

Gleichung, sofern dieser nicht Null ist,


und dem konstanten Einfluss von Speziftkationsfehlern (z.B. vernachlssigte
Variablen, falsche funktionale Fonm, Messfehler bei der Enmittlung der Werte
der erklrten Variablen).
Nehmen wir zur Veranschaulichung an, dass der Erwartungswert des stochastischen Strterrns I;. eines korrekt spezifizierten Modells (wir blenden also den obigen Punkt 3 zunchst aus) der Fonm
3.

Y, =

P: + p,X,

+~,

(IV4: lOa)

den Wert a mit a > 0 annimmt, also E(I;.) - a gilt. Damit wre die Annahme verletzt,
dass der Erwartungswert des Strtenms Null sein muss. Das Modell ist also korrekt
spezifiziert, aber der Erwartungswert des Strtenms ist von Null verschieden. Subtrahieren wir nun a vom Strtenn und addieren a zu ;, so erhalten wir
Y, =

(P;
+ a), + P,X, + "-v----'
(~, - a).
,

(IV4: lOb)
Ji,
,
Der neue Strterrn E, - I;. - a besitzt nun einen Erwartungswert von Null, da E(E) E(~, - a) - E(I;.) - a - a - a - 0 gilt. Durch die Prsenz eines konstanten Tenms, der
einen Nicht-Null-Erwartungswert des stochastischen Strterrns aufnimmt, wird also
ein Erwartungswert des stochastischen Strtenms von Null sichergestellt (solange
alle anderen Annahmen erfllt sind). Wir sehen auch, dass die Regressionskonstante Po mehr als nur eine Komponente aufweist. Im Falle eines fehlspeziflZierten Modells (z.B. vernachlssigte Variable) wrde der konstante Tenm zustzlich den obi-

4. Verletzungen der Annahmen des klassischen Regressionsmodells

493

gen Punkt 3 aufnehmen, da auch hier der Erwartungswert des stochastischen Strtenms von Null abweicht.
Unglcklicherweise lassen sich nun diese drei Komponenten der Konstanten ~o

nicht unterscheiden, da wir schlielich nur eine Schtzung fr o erhalten. Dies ist
der Grund, warum wir o anders als die anderen Regressionskoeffizienten analysieren mssen9 und wir o bereits beim t-Test auer Acht gelassen haben. Grundstz-

lich gilt, dass wir uns weder auf Schtzungen von Po beim Rckschluss auf P; verlassen drfen (auer bei korrekt spezifizierten Modellen ntit erwartetem Strtenm
von Null), noch den Tenm aus der Regressionsgleichung ausschlieen sollten.
Warum wir uns nicht auf Schtzungen des konstanten Terms fr Rckschlsse
auf den wahren ~; -Wert der Grundgesamtheit verlassen sollten, hat folgenden
Grund: Po beinhaltet, wie wir gesehen haben, nicht nur den wahren Wert P; , sondern auch andere Komponenten. Der geschtzte Wert von Po wrde also ggf. anders aussehen, wenn es diese nicht gbe. Die Durchfhrung eines t-Tests fr Po ist
daher meist bedeutungslos.
Auch wenn wir uns nicht auf Schtzungen von

o verlassen

knnen, ist dies kein

Grund fr eine Vernachlssigung des konstanten Terms. Ein Auschluss von Po


aus dem Regressionsmodell wrde nmlich dazu fhren, dass ein Nicht-NullErwartungswert des Strterrns in die Schtzungen der anderen Koeffizienten "gezwungen" wird, was zu deren Verzerrung fhrt. Nehmen wir etwa an, die wahre
Regressionsfunktion eines einfachen linearen Modells weist ein positives ~o ntit sehr
geringer Steigung bzw. niedrigem Wert ~, auf (vgl. Abbildung IV 15). Schtzen wir
nun aber ohne Bercksichtigung von Po (also Po - 0), so wird unsere geschtzte
Regressionsgerade durch den Ursprung gezwungen und damit eine deutlich grere Steigung besitzen. Der OLS-Schtzer fr ~, ist also nach oben verzerrt und zeigt
auch einen hheren t-Wert. Dies knnte aufgrund eines t-Tests ZU dem Schluss
fhren, dass p, sehr hoch ist, obwohl dies nicht zutrifft.
y

Po

geschtzte Regressionsfunktion
ohne konstanten Tenm

L~4.+

--~

Regressionsfunktion
der Grundgesamtheit

o
Abbildung IV 15: Vernachlssigung des konstanten Tenms

9 Vgl. Allen und Stone (2005).

IV Einfijhrung in die konometrie

494

Selbst wenn die Modelltheorie keinen konstanten Tenn vorsieht, sollte ein solcher
trotzdem in die Gleichung aufgenommen werden, da wir uns prinzipiell nie wirk-

lich sicher sein knnen, ob unser Modell korrekt spezifiziert ist, d.h. ob wir alle
relevanten Variablen bercksichtigt, die korrekte funtionale Fonn gewhlt und erklrte Variablen ohne Messfehler vorliegen haben.

4.2.2

Alternative funktionale Formen

Wie bereits mehtfach erwhnt wurde, ist es zur Anwendung linearer Regressionstechniken zwingende Voraussetzung, dass die Regressionsfunktion parameterlinear

ist. Variablenlinearitt ist nicht unbedingt notwendig, sodass die Regressionsfunktion lediglich die bereits unter Annahme 1 behandelte Fonn
f(Y) =

~o

+ P,f(X,) + ... + PKf(X",) + Ei

aufweisen muss. Auf einige besonders wichtige parameterlineare Funktionen wollen wir im Folgenden nher eingehen und uns dabei im Besonderen mit der Be-

deutung ihrer Parameter und mit Anwendungsfallen beschftigen, bei denen sich
ihr Einsatz empfiehlt.
4.2.2.1

Lineare Form

Die Fonn, mit der wir uns bisher berwiegend beschftigt haben, ist die lineare
Fonn, die sich wie folgt darstellt:
Y, = Po + P,X 1i + P,X" + ... + PKXKi + E,

C1V4: 11a)

Besonderheit ist hier die Tatsache, dass die Vernderung der erklrten Variable Y
bei nderung einer erklrenden Variable x,. (bei Konstanthaltung aller anderen x,.)
durch eine Konstante beschrieben wird, wie die partielle Ableitung von Y nach x,.
zeigt:

ilYi
OXid

_R

(N4: 11b)

-1'.

Verndert sich also x,. ceteris paribus um eine Einheit, so verndert sich Y um P.
Einheiten (marginale VernderuniJ. Mit derart konstanten Koeffizienten ergibt sich
die (partielle) Elastizitt von Y bezglich x,. (prozentuale Vernderung von Y bei
Zunahme der Variable x,. um 1 % und Konstanthaltung aller anderen x,) nach
Elastizitty,.K.

I1Y in %
11X. in %

ilY, / Y,

iN, X..

ax .. / x.. ax.,

Y,

=~. x'" .
Y,

(N4: 11c)

Da es keine genauen Regeln fr die Wahl der funktionalen Fonn gibt, empfiehlt es
sich die lineare Fonn zu whlen, solange die Modelltheorie oder der gesunde Menschenverstand keine andere Fonn erfordert. Zur Rechtfertigung der linearen Fonn
knnen im Zweifelsfall auch fonnale Tests herangezogen werden 10

10 MacKinnon, J., White, H., Davidson, R. (1983) und Bera, A. K., Jarque, C. M. (1982) schlagen beispielsweise Tests vor, die uns bei der Wahl zwischen einem linearen und einem
Doppel-Log-Modell untersttzen knnen.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

4.2.2.2

495

Doppel-Log-Form

Bei der Doppel-Log-Form ist der natrliche Logarithmus von Y die erklrte und
sind die natrlichen Logarithmen der X. die erklrenden Variablen:
InY,

= Po +P,luX lI + p,lnX 2I + ",+PK luXKI +E,

(1V4: 12a)

Eine derartige Fonn wird gewhlt, wenn wir aufgrund unserer Modelltheorie an-

nehmen, dass die Elastizitten des Modells als konstant gelten. 11 In einem DoppelLog-Modell knnen die Koeffizenten der erklrenden Variablen nmlich als Elastizitten betrachtet werden, die auerdem konstant sind:

Elastizitt~ x

,..

= tlY in %

tlXk in %

ilYi / Yi
ilX", / X",

dYi Xki = ilOn Y)


dXki Yi
il(ln X",)

Pk (1V4: 12b)

Die P. im Doppel-Log-Modell sind daher wie folgt ZU interpretieren: Nimmt X. bei


Konstanthaltung aller anderen X. um 1 % zu, so verndert sich Yi um P. %. Interessieren wir uns in einem solchen Modell fr die Vernderung von Y (in Einheiten),
die ceteris paribus aus einer Erhhung von ~ um eine Einheit ergibt, so erhalten
wir diese als

dYi

dX",

_R

-fJk

~
X ki

(1V4: 12c)

Ein Parameterwert von P. > 1 impliziert, dass die Elastizitt grer als Eins ist und
die marginale Vernderung von Y mit steigendem Wert von X. zuoimmt. Fr einen
Parameterwert zwischen 0 und 1 nimmt die marginale Zunahme hingegen ab. Die
Doppel-Log-Form ist daher eine funktionale Form zur Abbildung von zu- oder abnehmenden Grenzertrgen.
Zur Beantwortung der Frage, fr welche konkreten Modelle sich das Doppel-LogModell damit eignet, betrachten wir Abbildung IV 16 nher. Abbildung IV 16
(oben) zeigt, dass die Doppel-Log-Form das konomische Konzept der Produktionsfunktion (oder von Indifferenzkurven) darstellen kann (vgl. auch Anwendungsbeispiel IV 3-5). Ist X, beispielsweise der Arbeitsinput und X, der Kapitalinput, so
geben die sog. Isoquanten der Produktionsfunktion die verschiedenen Kombinationen von X, und X, an, die ein bestimmtes Outputlevel Y produzieren. Abbildung IV 16 (unten, links) zeigt die Beziehung zwischen Y und x" die bei einer
Doppel-Log-Form mit zwei erklrenden Variablen und Konstanthaltung von X, besteht. Fr den Fall p, < 0 knnte die Doppel-Log-Form daher auch zur Modellierung einer typischen nicht-linearen Nachfragefunktion verwendet werden. Abbildung IV 16 (rechts) verdeutlicht die Mglichkeit der Modellierung nicht-linearer
Angebotsfunktionen.

11

Wichtig bei Verwendung der Doppel-Log Fonn ist auerdem, dass die Beobachtungswerte
von Y und

stets grer als Null sein mssen, da sonst der natrliche Logarithmus In

nicht deftniert ist.

IV Einfijhrung in die konometrie

496

x,

Y,

Y,

x,

p, > 1
p, <-1
-1<P, <0
oL-----------------~
(Konstanthaltung von X)

Xl

o~----------------~
(Konstanthaltung von X2 )

Xl

Abbildung IV 16: Doppel-Log-Fonn

4.2.2.3

SemiLog-Form

Bezieht sich der natrliche Logarithmus nur auf die erklrenden Variablen und
nicht auch auf die erklrte Variable, so liegt die sog. rechtsseitige Semi-LogForm, als Variante der Doppel-Log-Fonn vor:
(IV4: 13a)

Anders als im Doppel-Log-Modell sind die Koeffizienten der erklrenden Variablen


nun keine Elastizitten mehr. Stattdessen gibt Pk nun an, um wie viele Einheiten
sich Y bei einer 1 %igen Erhhung von Je,. (bei Konstanthaltung aller anderen erklrenden Variablen) verndert. Um dies zu zeigen betrachten wir zunchst die
Vernderung von Y (in Einheiten) bei ceteris paribus Vernderung von Je,. um eine
Einheit: 12
12

Damit ergibt sich eine ElastiZitt von Y bzgl. Je,. von ~k /Y,.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

iNl

OXkl

aIn Xid = Pk _1_

iNl

aIn X

kI

Eine Umstellung von (IV4: 13b) nach

497

OXid

(IV4: 13b)

Xid

Pk beweist seine geschilderte Eigenschaft

Pk = OX a~lx
Id

(IV4: 13c)
ld

da der Nenner von (IV4: 13c) gerade die prozentuale Vernderung der Variablen X.
darstellt, d.h. AX. in %.
Von Form (IV4: 13a) gibt es wiederum eine Vielzahl von Ausprgungen. So mssen
z.B. nicht alle Xk in Log-Form vorliegen. In einem Modell mit zwei erklrenden Variablen knnte X, etwa linear sein, whrend nur X, eine Log-Form anninunt. Ein
solcher Fall ist in Abbildung IV 17 Ginks) unter Konstanthaltung von X, abgebildet.
Ist PI > 0, so wird der Einfluss einer Vernderung von X, auf Y mit zunehmendem
XI inuner schwcher. Typische Anwendung findet ein solches Modell in Konsumfunktionen, da bei bestimmten Gtern davon ausgegangen wird, dass ihr Konsum
ab einem bestimmten Einkommensniveau weniger stark als das verfgbare Einkommen zunimmt. Erklrt wird dies meist damit, dass ab einem bestimmten Einkommen mehr Luxusgter konsumiert werden. Wir htten also unser Geflgelkonsumbeispiel IV 3-1 auch in der Hinsicht spezifizieren knnen, dass wir den loga-

rithmus des verfgbaren Einkommens als erklrende Variable aufnehmen.


Y

P, > 0

P, < 0
PI< 0
(Konstanthaltung von Xz)

(Konstanthaltung von X 2 )

XI

Abbildung IV 17: Semi-Log-Formen


Von einer sog. linksseitigen Semi-Log-Form (vgl. Abbildung IV 17, rechts) sprechen wir, wenn der natrliche Logarithmus der erklrten Variablen im Modell auftaucht, die erklrenden Variablen aber keine Log-Form besitzen:

In Yi = Po + PIXIi + P,X" + ... + PKXKi + Ei

OV4: 14a)

Im Vergleich zu (IV4: 13a) ist sie die praktisch relevantere Form. In (IV4: 14a) gibt

Pk an, dass sich Y bei Erhhung von X. um eine Einheit (bei Konstanthaltung aller
anderen erklrenden Variablen) um Pk % verndert. Es gilt nmlich zunchst

IV Einfijhrung in die konometrie

498
ilOnY)

ilxkl
was wir aufgrund von ilOn Y) / ilYj = 1 / Yj und damit ilOn Yj ) = ilYj

P. = ilY /Y
j

ilX..

Yj als
(IV4: 14b)

ausdrcken knnen. Der Zhler von (IV4: 14b) ist dabei die prozentuale Vernderung der Variablen Y, d.h. !1Y in %.13
Gerade aufgrund der Eigenschaft (IV4: 14b) ist die Semi-Log-Form z.B. fr Modelle
geeignet, die das Einkommen von Individuen beschreiben (vgl. dazu die Beispiele
IV 3-9 und IV 4-3). So knnte etwa das logarithmierte Einkommen eines Arbeiters
linear von seiner Berufserfahrung und anderen Variablen abhngen. Sein Arbeitgeber wird nmlich in der Regel mit steigender Erfahrung prozentuale Gehaltserhhungen vergeben.
Wohl am hufigsten findet die linksseitige Semi-Log-Form bei der ModelIierung von
Wachstumsprozessen der Form
Y, = Yoe"'e~

(IV4: iSa)

Anwendung. Ein solcher Wachstumsprozess besagt, dass die Variable Y in Abhngigkeit von der fortschreitenden Zeit t bestimmt wird. Je hher der Wert Yo ist, desto hher ist der Ausgangswert von Y, bei dem das Wachstum zu t = 0 beginnt. Zur
Schtzung der Parameter Yo und P derartiger Prozesse ist eine Logarithmierung von
(IV4: iSa) erforderlich:
(IV4: 15b)
a=lnYo
(IV4: 15b) stellt eine typische linksseitige Semi-Log-Form dar. Ihre Schtzun.l!' die
nun mit den Meth~den qer linearen Repession mglich ist, liefert die Werte [j und
sowie daraus Yo = e a . Der Wert [j kann dabei als geschtzte Wachstumsrate
dieses exponentiellen Wachstumsprozesses interpretiert werden.1 4
mit

4.2.2A

Polynom-Form

Bei der polynom-Form sind Variablen mehrfach, aber mit unterschiedlichen Exponenten als erklrende Variablen iro Modell enthalten. Ein quadratisches Polynom-Modell hat beispielsweise die folgende Form:
(IV4: 16a)
Anders als iro linearen Modell ist die nderung von Y, die durch eine Vernderung
von X hervorgerufen wird, nicht lnger konstant. Stattdessen hngt diese vom Wert
von X selbst ab: 15
(IV4: 16b)

X. erhalten wir damit als .X.. und ist nicht konstant.


14 Vgl. hierzu auch die Abschnitte IV 4.7.2.3 und IV 6.2.4.
15 Die Elastizitt von Y bzgl. X ergibt sich damit als C,X, + 2,X,) / Y, .
13 Die ElastiZitt von Y bzgl.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

499

Gilt ~, < 0 und ~, > 0, so erhalten wir aus (Iv4: 16a) grafisch eine typische nach
oben geffnete Parabel. Eine solche knnte zur ModelIierung einer unternehmerischen Stckkostenfunktion eingesetzt werden. Whrend bei kleinen hergestellten
Stckzahlen X, noch die Fixkosten die Stckkosten dominieren, setzt mit zunehmendem X, ein Kostendegressionseffekt ein. Die Gesamtkosten werden auf mehr
Stck verteilt, was die Stckkosten irgendwann bei ihrem Minimum ankommen
lsst, da der Fixkostendegressionseffekt immer schwcher wird. Der danach durch
die Polynom-Fortn modellierte Anstieg der Stckkosten lsst sich damit erklren,
dass mit zunehmender Stckzahl der Grenzkostenanstieg den Fixkostendegressionseffekt bersteigt.
Eine nach unten geffnete Parabel (P, > 0 und ~, < 0) knnte dazu verwendet
werden, das Einkommen eines Arbeiters als Funktion seines Alters abzubilden (ggf.
Erweiterung um andere Faktoren). Mit zunehmendem Lebensalter X, wird sein Einkommen Y nmlich hchstwahrscheinlich aufgrund der steigenden Erfahrung zunehmen (vgl. dazu die Beispiele IV 3-9 und IV 4-3). Das positive p, aus (Iv4: 16b)
dominiert also in der Phase kleiner X, die Einkommensentwicklung. Diese Einkommenssteigerungen werden aber im Zeitverlauf immer geringer ausfallen. Ab
einem gewissen Alter kann das Einkommen sogar fallen. In dieser Phase fallenden
Einkommens fallt der negative Term 2P,x, aufgrund des hohen X, nmlich stark ins
Gewicht und bestimmt die Einkommensabnahme.
Der Einsatz von Polynom-Modellen ist nur bei vernnftiger theoretischer Rechtfertigung eines derartigen Verlaufs der Regressionsfunktion der Grundgesamtheit zu
empfehlen. Wir wir bereits in unserem kleinen BIP-Regenmenge-Beispiel unter IV
3.1.3 gesehen haben, sollte z.B. ein quadratischer Term nicht nur ins Modell aufgenommen werden, um einen offensichtlich besseren 1!fitlt zu erreichen.
4.2.2.5

Inverse Form

Bei einer inversen Form hngt die erklrte Variable vom Kehrwert mindestens
einer erklrenden Variablen ab. 16 Im Fall von nur einer sog. inversen Variablen ergibt sich beispielsweise
(IV4: 17a)

Eine solche funktionale Form wird verwendet, wenn der Einfluss einer bestimmten
erklrenden Variablen (hier x,) auf Y mit zunehmendem Wert dieser Variablen abnimmt und sich Null annhert. Den Wert Null selbst darf sie aber nicht annehmen.
Die Vernderung von Y in Einheiten durch ceteris paribus Vernderung einer inversen Variablen X. um eine Einheit kann hier wie folgt dargestellt werden: 17

ilY, __ _1_
ax
- 1'. X'
R

kI

(IV4: 17b)

kI

16 Das sog. Log-inverse Modell unterscheidet sich von (IV4:17a) dadurch, dass die Variable

In Y durch eine oder mehrere inverse Variablen erklrt. Fr eine detaillierte Betrachtung

dieses Modells vgl. z.B. von Auer (2007).

17 Die Elastizitt von Y bzgl. X. ergibt sich damit als -~. I(X. Y,) .

IV Einfijhrung in die konometrie

500

Abbildung IV 18 zeigt den Fall eines Modells mit zwei erklrenden Variablen, wobei X, die inverse Variable ist. Unter Konstanthaltung von X, erkennen wir folgendes: Ist p, > 0, nhert sich Y mit zunehmendem X, dem (konstanten) Term Po + p,x,
von oben her an. Dies ist der Fall, da 1/X, gegen Null strebt. Gilt p, < 0, so fmdet
diese Annherung von unten her statt.
Y

p, >0

Po + P,X, ---------------------------------------------

X,

(Konstanthaltung von X 2 )

Abbildung IV 18: Inverse Form


Anwendung findet die inverse Form z.B. beim konomischen Konzept der PhillipsKurve, die einen nichtlinearen, negativen Zusammenhang zwischen der Arbeitslosenquote und prozentualen Lohnnderungen herstellt. Jenseits einer gewissen
Arbeitslosenquote fhren Zunahmen der Arbeitslosenquote nach diesem Theorem
aufgrund institutioneller und anderer Grnde jedoch nicht mehr zu einer Reduzierung von Lohnerhhungen. Ein solches Modell knnte beispielsweise durch eine
inverse Fonn

L, =

Po + P,(11 A,) + E,

mit L als prozentualer Lohnnderung und A als Arbeitslosenquote umgesetzt bzw.


getestet werden.
4.2.2.6

Zusammenfassender berblick

Die nachfolgende Tabelle bietet einen abschlieenden berblick ber die wichtigsten funktionalen Formen und die Interpretation der Koeffizienten ihrer erklrenden
Variablen. Wir haben uns bei der Darstellung mit Ausnahme der Polynomform auf
Modelle mit einer erklrenden Variablen beschrnkt. Fr das Polynommodell und
das inverse Modell knnen wir keine genaue Interpretation von p, angeben. Wir
nennen daher nur eine Nherung fr bestimmte Werte von X: Im Polynommodell
kann p, aufgrund der gleichzeitigen Bercksichtigung von X' nicht als marginaler
Effekt von X interpretiert werden. Dies ist nur mglich, wenn X nahe an null liegt,
da dann x' praktisch gegen null geht. Im inversen Modell gilt laX - -P,T, d.h.
nur im Fall X - 1 ist (jylax I x-' - -p,.

ay

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Fonn

Gleichung

linear

Y, = Po

Doppel-Log

InY, =o +,lnX, +E,

+ /l,x, + E,

501

Interpretation von p,
Vernderung von Y On Einheiten) bei Erhhung von X um
eine Einheit
Prozentuale Vernderung von

Y bei Erhhung von X um ein


Prozent
Vernderung von Y (in Einheiten) bei einer Erhhung von X
um ein Prozent

Semi-Log (rechtsseitig)

Prozentuale Vernderung von


Y bei Erhhung von X um eine
Einheit

Semi-Log (linksseitig)

Vernderung von Y (in EinheiPolynom

ten) bei Vernderung von X (in

Einheiten), wenn X nahe 0


Entgegengesetzte Vernderung

von Y (in Einheiten) bei


Vernderung von X (in Einheiten), wenn X ungefahr 1

invers

4.2.3

Dummy-Variablen
Achsenabschnitts-Dummies

4.2.3.1

Bei Dummy-Variablen (binren Variablen) handelt es sich um Variablen, die abhngig von gewissen qualitativen Bedingungen nur die Werte 0 und 1 annehmen
knnen. Fhrt eine Dummy-Variable zu Vernderungen des konstanten Tenns
eines Regressionsmodells, so spricht man von sog. Achsenabschnitts-Dummies.
Diese werden folgendennaen in ein einfaches Regressionsmodell integriert:
Y, =Po +P,X, +P,D, +E,
.

ffilt

0, =

{I i-te Beobachtung erfllt bestimmte Bedingung


o
Bedingung nicht erfllt

(IV4: 18)

Zum besseren berblick bezeichnen wir Dummy-Variablen in diesem Abschnitt mit


dem Buchstaben D. Abbildung IV 19 veranschaulicht, dass es durch die Verwendung von Achsenabschnitts-Dummies in der Tat zu einer Vernderung des YAchsenabschnitts der Regressionsfunktion abhngig von 0 kommt, wobei ihre Steigung unverndert bleibt. Nimmt die Dummy-Variable nmlich den Wert 1 an, so
erhht sich die Konstante des Modells bei p, > 0 um p, auf Po + p, (Verringerung
bei p, < 0). Beim Wert 0 verbleibt die "dummylose" Funktion Po + p,x,. Dies knnen wir durch Bildung des Erwartungswertes von (Iv4: 18) bei detertninistischem X
und Gltigkeit der Annahme E(E) = 0 einfach zeigen:
_ {(Po + P,) + P,X,
R
R
1'0 + I',X,

E(Y)-

fr 0, = 1
fr 0, = 0

IV Einfijhrung in die konometrie

502

Die Regressionsfunktion wird also genau genommen durch zwei Funktionen beschrieben. Je nachdem welchen Wert D annimmt, wird der Erwartungswert von Y
durch eine andere Funktion bestimmt. Es kommt also zu einem "Springen" von ei-

ner Funktion auf die andere.


y

Steigung

/3,

Steigung

/3,

/3,

o
Abbildung IV 19: Achsenabschnitts-Dummy

Wichtig ist bei (Iv4: 18) auerdem, dass wir hier trotz zweier Bedingungen (Erfllung, Nicht-Erfllung) nur eine Dummy-Variable bentigen. Dies liegt daran, dass
immer ein Dummy weniger bentigt wird, als Bedingungen vorhanden sind. Die
nicht direkt durch eine Dummy-Variable reprsentierte Bedingung, die vernachlssigte Bedingung, wird oft auch ReJerenzkategorie genannt. Die Inte7pretation des
Koeffizienten der Dummy-Variablen wollen wir im folgenden Beispiel aufzeigen.
Beispiel IV 4-7

Mnnerlohnmodell

In diesem Beispiel verwenden wir einen Datensatz von Blackburn und Neumark (1992) fr
935 amerikanische Mnner zwischen 28 und 38 Jahren, wobei sich alle Variablen auf das
Jahr 1980 beziehen. Mit diesen Daten schtzen wir das Modell

Y; = ~o + ,x,; + ,X,; + ,l<,,; + ~.D,; + &, ,


welches den Stundenlohn in US-Dollar M in Abhngigkeit von der Ausbildungsdauer in
Jahren (X,), der Berufserfahrung in Jahren (x,,), der BetriebszugehrigkeH in Jahren (x,,)
und der Hautfarbe (D,) abbildet' Die Dummy-Variable D, nimmt den Wert 1 an, wenn es
sich beim Beobachtungssubjekt um einen Mann schwarzer Hautfarbe handelt. Andernfalls
ist sie O. Wir erkennen also, dass wir fr die beiden Bedingungen "Schwarz" und "Wei"
nur eine Dummy-Variable bentigen, wobei "Schwarz" die Referenzkategorie ist. Eine derartige Dummy-Variable erlaubt es, Lohndiskriminierung zu untersuchen.
Die nachfolgende Tabelle zeigt die OLS-Schtzergebnisse zu diesem Modell. Wie wir erkennen, sind alle erklrenden Variablen (inkl. Dummy-Variable) hochgradig signifikant. Der
Koeffizient der Dummy-Variable nimmt einen Wert von -3,23 an. Dies bedeutet, dass bei

18 Darber hinaus enthlt der in unserem Online-Service Zu findende Datensatz zu bungszwecken auch noch die Dummy-Variablen D2 0, wenn verheiratet), D, 0, wenn Wohnort
in den Sdstaaten) und D4 0, wenn Stadtbewohner).

503

4. Verletzungen der Annahmen des klassischen Regressionsmodells

gleicher Ausbildung, Berufserfahrung und Betriebszugehrigkeit der Stundenlohn schwarzer Mnner im Durchschnitt 3,23 US-Dollar niedriger ist.
Sampie: 1 935
Included observations: 935

Dependent Variable: Y
Method: Least Squares
Variable

Coellicient

Std. Error

t-Statistic

2.014028
1.447950
0.328434
0.200563
-3.230134
0.122321
0.118546
9.272991
79969.18
-3406.545
1.884925

2.693430
0.157956
0.080590
0.062082
0.925117

-0.747756
9.166806
4.075384
3.230643
-3.491594

XI
X2
X3
Dl
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.

0.4548
0.0000
0.0000
0.0013
0.0005
22.32186
9.876887
7.297422
7.323308
32.40332
0.000000

Lohnmodelle werden in der Praxis hufig als linksseitige Sem i-Lag-Form geschtzt (vgl.
Beispiel IV 3-9). In diesem Fall ndert sich die Interpretation des Koeffizienten der DummyVariable etwas. Wir wollen dies durch Schtzung des Modells
In('1';) = ~o + p,X,; +p,X,; + P,X,; +~.D,; +"
veranschaulichen. Wie die folgende Tabelle zeigt, erhalten wir fOr die Dummy-Variable den
Koeffizienten -{),1575. Unserer Argumentation aus Abschnitt IV 4.2.2.3 folgend, bedeutet
dieser Wert, dass sich bei einem Wechsel der Dummy-Variable von 0 auf 1 der durchschnittliche Stundenlohn um 15,75% reduziert. Ein Schwarzer verdient also trotz gleicher
Ausbildung, Berufserfahrung und Betriebszugehrigkeit durchschnittlich 15,75% weniger
als ein Weier."
Sampie: 1 935
Included observations: 935

Dependent Variable: LOG(y)


Method: Least Squares
Variable

Coellicient

Std. Error

t-Statistic

1.890085
0.063899
0.015569
0.013547
-0.157476
0.133966
0.130241
0.422846
166.2830
-519.4025
1.854409

0.122820
0.007203
0.003675
0.002831
0.042185

15.38909
8.871534
4.236700
4.785425
-3.732977

XI
X2
X3
Dl
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(Fstatistic)

Prob.

0.0000
0.0000
0.0000
0.0000
0.0002
3.008540
0.453401
1.121717
1.147602
35.96511
0.000000

19 Wie wir in Abschnitt N 4.2.2.3 gesehen hoben, handelt es sich hier um eine stetige Vernderungsrate. Ist man an einer diskreten interessiert, erhlt man diese durch Umrechnung
auf Basis der in Abschnitt I 2.2.1.2 beschriebenen Zusammenhnge.

IV Einfijhrung in die konometrie

504

Beispiel IV 4-8

Dummy-Regression und Mittelwertvergleich

Interessant ist im Zusammenhang mit dem Mnnerlohnbeispiel IV 4-7 die Betrachtung des
Regressionsmodells

v, = , +11,0" +',
in dem nur die Dummy-Variable D, als erklrende Variable auftaucht. Die nachfolgende
Tabelle enthlt die dazugehrige OlS-Schtzung, die eine einfache und interessante Interpretation besitzt. Die Konstante 110 ist der durchschnittliche Stundenlohn fr weie Mnner (D, = 0), whrend 11, den Unterschied im durchschnittllichen Stundenlohn von weien
und schwarzen Mnnern beschreibt. Insgesamt (D, = t) gilt daher fr den durchschnittlichen Studenlohn schwarzer Mnner o + 11,. Konkret verdienen also weie Mnner
durchschnittlich 22,95 US-Dollar pro Stunde, whrend schwarze Mnner durchschnittlich
nur 22,95 - 4,93 = 18,02 US-Dollar pro Stunde erhalten.
Dependent Variable: Y
Method: least Squares
Variable

Coefficient

Sampie: 1 935
Included observations: 935
Std. Error
t-Statistic
Prob.

C
Dl

22.95510
-4.933961

0.341286
0.952652

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
log likelihood
Duribin-Watson stat

0.027947
0.026905
9.743113
88568.06
-3454.291
1.838572

67.26051

-5.179187

Mean dependenl var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.0000

0.0000

22.32186
9.876887
7.393135
7.403489
26.82397
0.000000

Durch Regression der Stundenlhne auf eine Konstante und die Dummy-Variable kann ein
einfacher Mittelwertvergleich zwischen beiden Mnnergruppen vorgenommen werden.
Liegt Homoskedastizitt (gleiche Varianz der lhne von schwarzen und weien Mnnern)
vor, so kann dieser durch Betrachtung des t- bzw. p-Wertes der Dummy-Variable erfolgen.
Im vorliegenden Fall ist der Koeffizient der Dummy-Variable hochgradig signifikant, d.h. die
durchschnittlichen Stundenlhne von schwarzen und weien Mnnern sind signifikant voneinander verschieden.
Im Vergleich zu den Ergebnissen in Beispiel IV 4-7 fllt der Koeffizient der DummyVariable absolut betrachtet hher aus. Dies ist damit zu begrnden, dass in Beispiel IV 4-7
auch andere Faktoren bercksichtigt werden, die lohnunterschiede erklren. Dadurch wird
sichergestellt, dass der Koeffizient der Dummy-Variable nur lohnunterschiede widerspiegelt, die rein auf die Hautfarbe und nicht auf andere Faktoren zurckzufhren sind.

Unsere bisherigen Dummy-Variablen waren solche, die qualitative Variablen mit

nur zwei mglichen Ausprgungen (z.B. SchwarzlWei, MannIFrau) reprsentieren. Wie Dummy-Variablen in Modelle zu integrieren sind, wenn diese mehr als
zwei mgliche Bedingungen vertreten sollen, knnen wir anhand des Lohnbeispiels
N 4-7 aufzeigen. Nehmen wir an, wir interessieren uns nicht lnger fr die Hautfarbe der arbeitsttigen Mnner, sondern wollen den Industriesektor, in dem sie ttig sind, mit in die Gleichung aufnehmen. Es ist nmlich zu vermuten, dass es
Unterschiede im Lohnniveau der einzelnen Sektoren gibt. Beschrnken wir uns der
Einfachheit halber auf den Indusmegter-, den Dienstleistungs- und den Landwirt-

505

4. Verletzungen der Annahmen des klassischen Regressionsmodells

schaftssektor, haben wir drei qualitative Bedingungen, die wir unterscheiden mssen. Wir fgen daher zwei Dummy-Variablen (eine weniger als Bedingungen) der
Fonn Oll - {t, wenn Industriegtersektor; 0, wenn sonstiger Sektor} und 0 21 - {t,
wenn Dienstleistungssektor; 0, wenn sonstiger Sektor} ein. Der Landwirtschaftssektor bentigt keine eigene Dummy-Variable, da er durch ein gleichzeitiges "Null_
werden" der beiden Dummy-Variablen reprsentiert wird.
Eine besondere Anwendungsmglichkeit von Acbsenabschnitts-Dummies stellen
sog. saisonale DlImmJes dar. Sie werden benutzt, um saisonalen Schwankungen
in Zeitreihendaten Rechnung zu tragen. Wrde auf sie verzichtet (vgl. vernachlssigte Variablen), ist es wahrscheinlich, dass Vernderungen von Y, die rein saisonbedingt sind, auf Vernderungen von X zurckgefhrt werden, was zu einer Fehleinschtzung des Einflusses von X auf Y fhrt. Ein typisches Quartalsmodell htte
z.B. folgende Gestalt:

YI = Po + P1DlI + P2DlI + P,D'I + p(~ + EI


mit

D,,={~

Quartal 1
sonst

D. {Io
=

Quartal
sonst

OV4, 19)

Quarta13
sonst

Es sind hier drei Dununy-Variablen zur Abbildung der vier mglichen Quartale
enthalten. X ist eine "nonnale" erklrende Variable. t bezieht sich auf ein Quartal.
PI beschreibt nun das Ausma, in dem sich der erwartete Wert von Y im ersten
Quartal von dem des vierten Quartals unterscheidet. Jil und Ji, sind analog zu interpretieren. Um die Hypothese signifikanter Saisonalitt in den Daten zu testen,
muss getestet werden, ob die Koeffizienten der Dummies gleichzeitig Null sind.
Das Hypothesenpaar des notwendigen F-Tests muss also hier

HO: PI =Pl =!i, =0


HA : mindestens ein Ji ist

(keine Saisonalitt)
ungleich Null

(Saisonalitt)

lauten. Die "restriktive" Gleichung wrde dann eine Gestalt

YI =Po +P4~1 +21

(IV4,20b)

annehmen. Um zu bestimmen, ob die Dummies wirklich zur Desaisonalisierung


bentigt werden, wird der "fit" der "restriktiven" Gleichung mit der der originren
Gleichung mittels des F-Tests verglichen. Kommen wir zu einer Ablehnung von He,
so werden alle Dummies beibehalten. Eine Nicht-Ablehnung wrde dafr sprechen, alle Dummies aus der Regressionsgleichung zu entfernen.
BeIspIel IV 4-8

Konsumtheorie nach Keynes

Die Konsumtheorie nach John M. Keynes besagt, dass Individuen ihren Konsum bei steigendem Einkommen erhhen, diese Erhhung aber nicht 80 stark ausfllt, wie die EinkommenserhOhung. Anders ausgedruckt wird eine marginale Konsumneigung (MKN) von
grOer als 0 und kleiner als 1 angenommen. Das zum Test dieser Theorie zu verwendende
konometrische Modell kann z.B. die Fonn
YI - Po+P1><t+~

besitzen, wobei Y die Konsumausgaben und X das verfOgbare Einkommen beschreiben.


p, misst dabei die MKN. Zur Schtzung dieses Modells rur Deutschland bedienen wir uns

Q.

IV Einfijhrung in die konometrie

506

nun zweier Zeitreihen (Ouartalsdaten von 1999 bis 2007) aus dem Zeitreihenservice der
Deutschen Bundesbank. FOr die Konsumausgaben verwenden wir saisonbereinigte private
Konsumausgaben aus der Volkswirtschaftlichen Gesamtrechnung (VGR) der Bundesrepublik Deutschland. Analog gewinnen wir auch das verfgbare Einkommen der privaten
Haushalte aus der VGR. Das Ergebnis der Schtzung mit EViews zeigt sich wie folgt:
Dependent Variable: Y
Method: Least Squares
C

X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Sampie: 199901 200704


Included observations: 36
Coefficient

Std. Error

t-Statistic

Prob.

32.65175
0.807545

4.505499
0.012595

7.247089
64.11577

0.0000
0.0000

0.991797
0.991556
1.450399
71.52430
-63.43912
1.151605

Mean dependent var


S.O. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

321.1092
15.78363
3.635506
3.723480
4110.832
0.000000

Fr den Betrachtungszeitraum lag die MKN somit bei etwa 0,8, was bedeutet, dass eine
Erhhung des Einkommens um 1 Euro im Durchschniff zu einer Erhhung des Konsums
um 80 Cent fhrte. Das sehr hohe R2 , nahe Eins, zeigt einen sehr guten "fit" des Modells
auf, allerdings weist der niedrige Wert der Durbin-Watson-Statistik auf mgliche Spezifikationsprobleme hin (vgl. Abschnitt IV 4.5 zu Autokorrelation und IV 4.7 zu nicht stationren
Variablen).
Da wir mit saisonbereinigten Daten arbeiten, sollte das Ergebnis unserer Schtzung nicht
durch (quartalsweise) saisonale Effekte in den Zeitreihendaten verflscht worden sein. Wir
wollen dies dennoch durch Schtzung des gleichen Modells mit Ouartalsdummies berprOfen. Wir erhalten folgende Ergebnisse:
Dependent Variable: Y
Method: Least Squares
C
01
02
03

X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Sampie: 199901 200704


Included observations: 36
Coefficient

Std. Error

t-Statistic

Prob.

32.99686
-0.378220
0.093903
0.631693
0.806335

4.647134
0.696507
0.693680
0.692663
0.012837

7.100476
-0.543024
0.135370
0.911978
62.81278

0.0000
0.5910
0.8932
0.3688
0.0000

0.992332
0.991343
1.468564

66.85706
-62.22447
1.077779

Mean dependent var


S.O. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

321.1092
15.78363
3.734693
3.954626
1002.982
0.000000

Nach (IV3: 6) knnen wir damit die Teststatisik des notwendigen F-Tests fr das Hypothesenpaar (IV4: 20a) berechnen. Unter Verwendung der RSS-Werte der originren Regression und der Dummy-Regression erhalten wir

4. Verletzungen der Annahmen des klassischen Regressionsmodells


F= (RSS.-RSS)/M
RSS/(n-K-1)

(71,5243-66,8571) 13
66,85711 (36 -1-1)

507
0,7912.

Bei einem Signifikanzniveau von 5 % erhal1en wir aus der F(3;34)-Verteilung den kritischen
Wert 2,88. Da dieser deu11ich uber dem Wert der F-Sta1is1ik lieg1, knnen wir Ho nich1 ablehnen. Es gib1 also keine Hinweise auf Saisonalit1.
Analog zu Beispiel IV 3-7 htten wir diesen Test in EViews im Dummymodell auch viel
schneller uber View 1 Coefficient Tests 1 Wald - Coefficient Restrietions und Verwendung
der Res1riktion c(2) = c(3) = c(4) = 0 durchfUhren knnen.

4.2.3.2

Steigungs-Dummies

Achsenabschnitts-Dummies haben im Regressionsmodell keinen Einfluss auf die


Steigung der Regressionsgeraden. Anders ist dies bei sog. Steigungs-Dummies.
Abhngig vom Wert des Durrunies verndern solche nmlich deren Steigung. Ein
Steigungs-Dummy wird in ein Modell durch Addition einer sog. Interaktionsvariablen integriert. Derartige Interaktionsterme werden verwendet, wenn die Vernderung von Y durch eine Variable X. vom Wert einer anderen Variablen abhngt. Im Fall eines Steigungs-Dummies handelt es sich beim Interaktionsterm um
das Produkt der Dummy-Variablen, die die Steigungsnderung hervorrufen soll,
und der erklrenden Variablen, deren Steigungskoeffizient abhngig von der
Dununy-Variablen verndert werden soll. Die einfachste Form eines Steigungs-

Dummy-Modells ist daher

GV4: 21a)
Abbildung IV 20 (oben) und der Erwartungswert von GV4: 21a), also
E(Y,) = {

Po + (P, + P,)X,
Po + P,X,

fr D, = 1
..
fr D, = 0,

veranschaulichen die Bedeutung dieses Modells. Fr einen Wert der DummyVariable von Eins erhht sich die Steigung bei p, > 0 um p" wobei die Konstante Po
unverndert bleibt (Steigungsverringerung bei p, < 0). Ein Wert von Null reduziert
das Modell auf ein "dummyloses" Modell.
Typische Anwendung finden derartige Steigungs-Dummies z.B. bei der Modeliierung von Konsumfunktionen, die ber Zeitrume geschtzt werden sollen, in
denen es zu Kriegen kam. Kriegszeiten wrden nmlich die marginale Konsumneigung reduzieren und diese nderung knnte durch eine Dummy-Variable
"Krieg oder kein Krieg" modelliert werden.
Sollen sich in einem Modell in Abhngigkeit von einer Dummy-Variable sowohl YAchsenabschnitt als auch Steigung verndern, so ist dieses wie folgt zu formulieren:
Y, = Po + P,X, + PP, + P,D,X, + E,

(IV4: 21b)

Fr den Erwartungswert von Y, gilt hier


_ {(Po + P,) + (P, + P,)X,
R
+ ",X,

"0

E(Y,) - "

fr D, = 1
fr D, = 0.

Dies und auch Abbildung IV 20 (unten) zeigen, dass es fr

p,

> 0 und

p, > 0 bei

einem Wert der Dummy-Variablen von Eins sowohl zu einer Erhhung der Regres-

508

IV Einfijhrung in die konometrie

sionskonstanten um l' als auch der Steigung um 3 kommt. Bei negativen Vorzei-

chen kommt es entsprechend zu einer Verringerung. Selbstverstndlich knnen

und

3 unterschiedliche

~,

Vorzeichen annehmen und in gewissen Relationen zuein-

ander und Zu ~, stehen, sodass eine Vielfalt unterschiedlicher Lagen von durch
Dummies vernderten Regressionsgeraden denkbar ist.
y

~~~~--------------------~S~~igung~
D,=O

~o {

"-----_-------'

Steigung ~, + ~3

L-__------------------------~S~t~eigungPI

,
Po +p,
o
o

Abbildung IV 20: Steigungs-Dummies


Beispiel IV 4-10

Steigungs-Dummy im Mnnerlohnmodell

Greifen wir emeut auf unser Mnnerlohnmodell aus Beispiel IV 4-7 zurck. Aufgrund des
besseren "fils" whlen wir die Semi-Log-Variante und erweitern diese in der Form
In(~) =

o +,X,; +,x,,; +,X,; +.D,; +,D,;x,,; +&,.

In der Originalform ohne Interaktionsterm sind wir davon ausgegangen, dass Diskriminierung hinsichtlich der Hautfarbe Einfluss auf den Stundenlohn hat. Wir haben daher den

4. Verletzungen der Annahmen des klassischen Regressionsmodells

509

Achsenabschnitts-Dummy D, = {I, wenn Schwarz; 0, wenn Wei} in unsere Modellgleichung aufgenommen. . beschrieb die durchschnittliche Stundenlohndifferenz zwischen
Schwarzen und Weien (bei Konstanthaltung aller anderen erklrenden Variablen). Nehmen wir nun an, wir wollen untersuchen, ob der Stundenlohn von Schwarzen mit zunehmender Berufserfahrung (x,,) strker zunimmt als der von Weien, so knnen wir dies
durch Hinzufgen des Interaktoinsterms D,x" tun. ps beschreibt dann den unterschiedlichen Einfluss eines zustzlichen Jahres an Erfahrung auf den Stundenlohn.
Die im Folgenden zu sehenden Schtzungen zeigen, dass das geschtzte Stundenlohnwachstum durch ein zustzliches Jahr Berufserfahrung fr Weie bei statistisch signifikanten 1,51% liegt. Fr Schwarze erhalten wir 1,51% + 0,32% = 1,83%. Ein nherer Blick auf
den poWert von 0,7218 verrt uns jedoch, dass die Differenz zwischen beiden Gruppen
nicht statistisch signifikant ist, sodass die Nullhypothese einer gleichstarken Lohnzuhahme
(durch zustzliche Berufserfahrung) nicht verworfen werden kann.
Dependent Variable: LOG(Y}
Method: Least Squares
Variable
Coellicient
1.897108
C
XI
0.063784
0.015066
X2
X3
0.013591
Dl
-0.196444
Dl*X2
0.003217
R-squared
0.134084
Adjusted R-squared
0.129423
S.E. of regression
0.423045
Sum squared resid
166.2602
Log likelihood
-519.3387
F-statistic
28.77045
Prob(F-statistic}
0.000000

Sampie: 1 935
Included observations: 935
Std. Error
t-Statistic
Prob.
0.124449
15.24402
0.0000
0.007213
8.842357
0.0000
0.0001
0.003939
3.825160
0.002835
4.794125
0.0000
0.0942
0.117261
-1.675278
0.009033
0.356191
0.7218
Mean dependent var
3.008540
S.D.dependentvar
0.453401
Akaike info criterion
1.123719
Schwarz criterion
1.154781
Hannan-Quinn criter.
1.135563
DurbinWatson stat
1.854801

Abschlieend ist zu erwhnen, dass durch das Hinzufgen des Interaktionsterms der Koeffizient von D, nun nicht mehr auf einem 5% Niveau signifikant ist. Dies ist darauf zurckzuIOhren, dass er nun deutlich unprziser geschtzt (hherer Standardfehler) wird, was auf
ein Multikollinearittsproblem zwischen D, und D,x" zurckzuIOhren ist (vgl. dazu Abschnitt IV 4.3.2). D,x" sollte aus dem Modell ausgeschlossen und das ursprngliche Modell verwendet werden.

4.2.4

Folgen der Wahl einer falschen funktionalen Form

Nehmen wir an, die unserem Regressionsmodell zugrunde liegende Theorie ver-

langt eine nichtlineare Regressionsfunktion. So knnten wir z.B. eine Phillips-Kurve


nicht nur ber eine inverse Fonn, sondern auch als Doppel-Log-Fonn oder diverse
Semi-Log-Fonnen modellieren. Wir knnten dabei in Versuchung geraten, die Fonn
anhand des "fits" in der Stichprobe auszuwhlen. Warum wir dies jedoch nicht tun
sollten, knnen wir wie folgt begrnden:
Wird eine falsche funktionale Fonn verwendet, wird im Allgemeinen die Annahme
2a verletzt und es steigt die Wahrscheinlichkeit falscher Rckschlsse auf die wah-

IV Einfijhrung in die konomelrie

510

ren Parameter der Grundgesamtheit. Eine falsche funktionale Fonn ist nmlich ein
mit einer vernachlssigten Variablen vergleichbarer Spezifikationsfehler. Betrachten
wir dazu ein Polynommodell dritten Grades
Yi = Po + P,Xi + P2X~ + P,X~ + Ei'
(IV4: 22a)
welches die wahren Zusammenhnge in der Grundgesamtheit beschreibt. Entscheiden wir uns stattdessen aber fr die lineare Fonn

YI = P; + P;X I + E;
mit
E; = EI + p,X: + p,X: ,
(IV4: 22b)
so ist klar, dass hier ein Fall vernacblssigter Variablen vorliegt. Aufgrund der Korrelation der erklrenden Variablen

und X mit X kommt es zu einer Verletzung

der Annahme 2b und somit zur Verzerrung des verbleibenden Schtzers fr


Abschnitt IV 4.1.1).

p, (vgl.

Zudem ist zu erwhnen, dass es durchaus sein kann, dass eine falsche funktionale
Form zwar innerhalb einer Stichprobe, einen guten "fit" aufweist, aber zu schweren

Prognosefehlern fhrt, wenn sie fr Werte auerhalb der Stichprobe verwendet


wird. Problematisch ist es insbesondere, wenn wir eine spezielle funktionale Fonn
2
allein anhand von R oder anderen Kriterien zur Messung des "fits" auswhlen. Es
besteht dabei die Gefahr, dass die Spezifikation an besondere Zufalligkeiten in der
Stichprobe angepasst wird, die in der Grundgesamtheit keine Bedeutung haben.
Die gewhlte funktionale Fonn weist zwar dann innerhalb der Stichprobe einen
guten "fit" auf, beschreibt aber die wahren Beziehungen zwischen den Variablen
nur schlecht. Auerhalb der Sticbprobe kann dies deshalb zu schlecbten Prognosen
der erklrten Variable fhren. Ist es mglich, die Entscheidung ber die funktionale
Form aucb anhand inhaltlicher Erwgungen zu treffen, kann der konometriker
eher funktionale Fehlspezifikationen venneiden als bei alleinigem Blick auf die vorliegenden Daten. Es gUt schlielicb ein Modell zu finden, dass die Grundgesamtheit
und nicht nur die vorliegende Stichprobe beschreibt.

511

4. Verletzungen der Annahmen des klassischen Regressionsmodells

4.3 Multikollinearitt
4.3.1

Formen und Ursachen von Multikollinearitt

Vollkommene Multikolllnearitt verletzt Annahme 6 des CLRM, die besagt, dass


keine erklrende Variable eine lineare Funktion einer anderen erklrenden Variablen sein datf. Der Begriff "vollkommen" bezieht sich dabei auf die Tatsache, dass
die Vernderung einer erklrenden Variablen vollstndig durch die Variation
einer oder mehrerer anderer Variablen erklrt werden kann. Im Fall eines multiplen
linearen Regressionsmodells mit zwei erklrenden Variablen wrde also vollkommene Multikollinearitt vorliegen, wenn z.B.
(IV4: 23a)
gilt, der Wert von Je, also bei gegebenem Je, exakt mit einer linearen Funktion bereebnet werden kann. Grafisch veranschauliebt Abbildung IV 21 Oinks) einen
solchen Fall.
Beispiel IV 4-11

Vollkommene Multikollinearitt

Studienleistungen: Versuchen wir die Studienleistungen Y eines Studenten in Abhngigkeit


durchschnittvon X,: Einkommen der Eltem, X:.: durchschnittliche Lernzeit pro Tag und
liche Lernzeit pro Woche zu erklren, so wird schnell deutlich, dass X:. und X. aufgrund
von X. = 7X:. vollkommen multikollinear sind.

x.:

Nomina/- vs. Realzins: Nehmen wir an, wir integrieren sowohl den Nominalzins (i), als auch
den Realzins (r) als erklrende Variablen in ein Modell. Beide Variablen sind nach der sog.
Fisher-Identitt in der Form r, = ;, - ";M nherungsweise ber die erwartete Inflationsrate
("o<W) verbunden. Ist die Inflationsrate (z.B. aufgrund strikter Preissetzung des Staates)
konstant, so wren die beiden Variablen Nominal- und Realzins perfekt multikollinear.

Liegt vollkommene Multikollinearitt vor, so ist OLS nicht in der Lage die Regressionskoeffizienten zu schtzen. In multiplen Regressionsmodellen messen diese nmlich die Vernderung von Y, die mit einer Vernderung einer erklrenden Variablen
unter Konstantbaltung aller anderen Variablen verbunden ist. Aufgrund der Multikollinearitt knnen nun aber niebt alle anderen Variablen der Regressionsgleichung konstant gehalten werden, da sieb bei Vernderung einer Variablen aueb
eine andere ndert. Die meisten Softwarepakete liefern in einem soleben Fall eine
Fehlermeldung, die auf die Unmglichkeit der Schtzung hinweisen soll.20 Formal
lsst sich die Unmglichkeit der Schtzung z.B. bei Vorliegen von (IV4: 23a) mit
~ = 0 anhand des Nenners von
im Regressionsmodell mit zwei Regressaren,
(IV1:18), aufzeigen. Wrde dieser nmlich den Wert Null annehmen, kme es zu
einer Division durch Null, wodurch der Schtzer nicht definiert wre. Genau dies
ist nun hier der Fall, wie die folgenden Umfonnungen zeigen:

20 EViews 6.0 zeigt hier die Fehlenneldung liNear singular matrix".

IV Einfijhrung in die konomelrie

512

(L x:,) (L x~,) - (L XliX,,)'


= (L (a,X" - a,x,)')(L (X" - X,)') - (L (a,X" - a,X,)(X" - X,))'
= a: (L (X" - X,)')' - a: (L (X" - X,)')' = 0
Vollkommene Multikollinearitt stellt jedoch in der Praxis kein allzu groes Problem dar. Sie ergibt sich hufig aufgrund logischer Fehler und ist einfach aufzudecken (Fehlermeldung der Statistiksoftware). Bei festgestellter vollkommener Multikollinearitt knnen einfach entsprechende Variablen aus der Regressionsgleichung
ausgeschlossen werden. Hufig stellen wir uns auch bereits im Vorfeld der Schtzung die Fragen, ob nicht eine Variable nur ein Vielfaches einer anderen ist, sie
durch Addition einer Konstanten zu einer anderen Variablen oder eine lineare
Kombination verschiedener anderer Variablen entsteht. Kann dies bejaht werden,
kommt es sofort zum Ausschluss betroffener Variablen.

X,

X,
vollkommen

o~--------------~

unvollkommen

X,

X,

Abbildung IV 21: Vollkommene vs. unvollkommene Multikollinearitt


Schwerer wiegt das Problem unvollkommener Multlkollinearltt. Die Beziehung zwischen zwei erklrenden Variablen hat hier nmlich Z.B. die Form
(N4: 23b)

Der hier integrierte stochastische Strterm u, und auch Abbildung N 21 (rechts)


zeigen, dass die Beziehung zwischen den erklrenden Variablen nicht mehr perfekt
linear ist. Es verbleibt also ein Teil der Variation von XII der sich nicht durch Vernderung von ~ erklren lsst.

Ob erklrende Variablen unvollkommen multikollinear (starke lineare Beziehung


zwischen ihnen) sind, hngt von ihrer theoretischen Beziehung zueinander und
von der vorliegenden Stichprobe ab. So kann es z.B. vorkommen, dass zwei Vari-

ablen in einer Stichprobe nur schwach korreliert sind, whrend in einer anderen
Stichprobe hohe Korrelation festgestellt und damit auf unvollkommene Multikollinearitt geschlossen wird. Unvollkommene Multikollinearitt kann also als ein
stichprobenabhngiges Phnomen betrachtet werden.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

4.3.2

513

Konsequenzen von Multikollinearitt

Wie wir bereits erwhnt haben, hat vollkommene Multikollinearitt die Unmglichkeit der Schtzung von Regressionskoeffizienten zur Folge. Im Fall unvollkommener Multikollinearitt ist eine Schtzung mglich, wobei aber folgende Punkte zu
beachten sind:
1.

Werden alle anderen Annahmen des CLRM eingehalten, so bleiben die OLSSchtzer trotz Multikollinearitt unverzerrt.

2.

Da im Falle von Multikollinearitt kaum zwischen dem Effekt einer Variablen


auf Y und dem Effekt einer anderen Variablen unterschieden werden kann,
steigt die Wahrscheinlichkeit geschtzte Betas zu erhalten, die weit vom wahren Koeffizienten der Grundgesamtheit entfernt sind. Auch unerwartete Vorzeichen werden wahrscheinlicher. Die geschtzten Koeffiztenten stammen im
Falle von Multikollinearitt also aus Verteilungen mit greren Varianzen und
damit greren Standardjehlern. 21 Wir knnen dies leicht durch einen Blick
auf die Varianzen (IV2: 26) und (N2: 27) der Schtzer der Steigungskoeffizienten in einem Regressionsmodell mit zwei erklrenden Variablen zeigen:
A

Var(Il,)

="L.J , ( , )
0'

Xli

1-

f 12

Var(Il,)

=" ,cr'( , )
~X2i 1- f 12

Sind die beiden Variablen X, und X, nicht miteinander korreliert (r" = 0), so
erreichen die Varianzen beider Schtzer ihren jeweiligen minimalen Wert. Unterschiede in den Varianzen der Schtzer sind nur durch Unterschiede der
Varianzen der erklrenden Variablen bedingt. Liegt nun aber absolut betrachtet ein hoher Wert fr f 12 vor, so fhrt dies in beiden Fllen ZU einem Anstieg
der Varianzen der Schtzer und zeigt somit die zunehmende Ungenauigkeit
der Schtzer an. Bei perfekter Korrelation (r" = l) ist neben dem OLSSchtzer (vgl. Abschnitt N 4.3.1) auch die zugehrige Varianz nicht definiert.
3.

Die Betrachtung der t-Statistik (N3: 2a) bzw. (IV3: 2b)


t k --

0"
A

macht klar, dass grere Standardfehler der OLS-Schtzer auch zu niedrigeren


t-Werlen fhren und damit Hypothesentests beeinttchtigen. Sie knnen uns
dazu bewegen, flschlicherweise wichtige erklrende Variablen aufgrund fehlender Signifikanz aus unserem Modell auszuschlieen.
4.

Liegt starke Multikollinearitt vor, so knnen Anderungen der Model/spezifikation (Hinzufgen oder Ausschluss von erklrenden Variablen) oder der Datengrund/age zu deutlichen Vernderungen der geschtzten Koeffizienten der
multikollinearen Variablen fhren. Diese hhere Sensibilitt der Schtzer beruht vor allem darauf, dass sich OLS z.B. bei zwei sich nahezu gleich entwickelnden Variablen zur Unterscheidung an Beobachtungen orientiert, bei

21 Dies beeintrchtigt allerdings nicht die Effizienz der OLS-Schtzer. Es gibt also trotzt Multikollinearitt keine andere unverzerrte Schtzmethode, welche eine geringere Schtzvarianz
aufweist.

IV Einfijhrung in die konomelrie

514

denen beide Variablen eine deutlich andere Entwicklungstendenz aufweisen.

Fhrt eine nderung des Stichprobenumfangs nun aber dazu, dass genau diese Beobachtungen eliminiert werden, die zur Unterscheidung der Variablen

dienen, hat dies eine deutliche nderung der geschtzten Koeffizienten zur
Folge.
5.

4.3.3

Auch wenn die individuellen t-Werte von multikollinearen Variablen oft sehr
niedrig sind, kann es zu einem relativ hohem If kommen oder die Koeffizienten dieser Variablen knnen gemeinsam hoch signifikant sein. Als erstes Anzeichen vorliegender Multikollinearitt knnen wir daher die Kombination
niedriger t-Werte bei hohem R' ansehen. Es kann auch vorkommen, dass die
F-Statistik fr den Ausschluss von mehreren multikollinearen Variablen hoch
signifikant ist, wohingegen keine der individuellen t-Statistiken signiftkant ist.

Aufdecken von Multikollinearitt

Bei der Untersuchung eines geschtzten Regressionsmodells auf Multikollinearitt


mssen wir uns zweier wichtiger Punkte bewusst sein. Erstens tritt unvollkommene
Multikollinearitt in nahezu jeder Gleichung auf. In empirischen Daten ist es nmlich fast unmglich, dass erklrende Variablen berhaupt nicht korreliert sind. Es
gilt also nicht festzustellen, ob Multikollinearitt vorliegt, sondern wie stark diese ist
und wie hohe Multikollinearitt mglicherweise die Varianzen der Schtzer erhht
hat. Bereits jetzt sei aber erwhnt, dass Multikollinearitt nicht zwangslufig die Varianzen der Schtzer erhhen und damit die t-Werte verringern muss. Sie ist bei
konometrischen Analysen also nicht immer ein Problem.
Grundstzlich gibt es keine allgemeingltige Methode zur Messung der Strke und
der Folgen von Multikollinearitt. Es existieren zwar eine Reihe formaler und auch
weniger formaler Methoden, doch knnen diese nur als "Daumenregeln" betrachtet
werden, die grobe Hinweise geben. Auch kommen sie nicht immer zum gleichen
Ergebnis. Wir wollen nun zunchst einige dieser Methoden nher betrachten, wobei Regel Nr. 1 mehr ein klassisches Symptom von Multikollinearitt als eine
Methode zur Aufdeckung ist. Wir beschrnken uns dabei auf fr die Praxis wirklich
interessante Verfahren. 22

1. Hohes R' bei wenig signifikanten t-Werten


Bei hohem R' wird der F-Test auf Gesamtsignifikanz meistens die Nullhypothese
ablehnen, dass alle Steigungskoeffizienten gleichzeitig Null sind, wobei individuelle
t-Tests

zeigen werden, dass keiner oder nur wenige der Koeffizienten signifikant

von Null verschieden sind CSpezialfall von Punkt 5 aus Abschnitt IV 4.3.2).

2. Hohe paarweise Korrelation der erklrenden Variablen


In Modellen mit nur zwei erklrenden Variablen gilt der Korrelationskoeffizient
zwischen den erklrenden Variablen als Indikator fr Multikollinearitt. Je hher
dieser ist, desto schwerer wiegt das Problem der Multikollinearitt. In Modellen mit
mehr als zwei erklrenden Variablen ist dieser Indikator allerdings weniger aus22 Einen umfassenden berblick ber weitere, jedoch nicht unbedingt praxisrelevante Verfahren bieten z.B. Gujarati, D.N. (2003) und Klien, L.R. (1962).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

515

sagekrftig. Es ist nmlich mglich, dass Gruppen von erklrenden Variablen in einer multikollinearen Beziehung stehen, whrend nicht ein Korrelationskoeffizient
hoch genug ist, um auf ernste Multikollinearitt aufmerksam zu machen.

3. Hllfsregressionen und Varianzschwellungsfaktoren


Da Multikollinearitt nichts anderes aussagt, als dass sich eine erklrende Variable
als exakte oder approximative lineare Kombination anderer erklrender Variablen
ergibt, besteht eine Mglichkeit diese aufzudecken darin, dass zunchst fr jedes Je,.
ein Regressionsmodell geschtzt wird, welches diese Variable in Abhngigkeit von
allen anderen erklrenden Variablen modelliert. Im Fall eines Modells mit drei erklrenden Variablen wrden wir also die Modelle
Xli

+ (ltX2i + (l2X3i + u
a~ + a;x ti + a;X3i + u

= (Xo

X 2i =

(Iv4: 24)

X 31 = a~ + a"l1 + a;x 2! + ll,

schtzen. Wir bezeichnen diese Regressionen auch als Hllfsregressionen (eng!.


auxiliary regressions). Nach der Schtzung der K Modelle kann fr jede davon das
Bestimmtheitsma R~ erfasst werden, da ein hoher Wert des Bestimmtheitsmaes
als Hinweis auf Multikollinearitt angesehen werden kann.23 Nachteil einer solchen
Methode ist es jedoch, dass die Hilfsregressionen der Je,. stets in Abhngigkeit aller
anderen Variablen durchgefhrt werden. Betrifft die Multikollinearitt nur einige
wenige Variablen, knnen die Hilfsregressionen natrlich wenig zur Diagnose beitragen. Um jeden mglichen Fall abzudecken, mssten weitere Hilfsregressionen

geschtzt werden.
Die Bestimmtheitsmae R~ aus Hilfsregressionen der Art (IV4: 24) knnen zur
Konstruktion sogenannter VIFs (engl. variance inflation factors) herangezogen
werden. Sie knnen fr jeden Parameterschtzer einer Regressionsgleichung berechnet werden und geben an, wie stark Multikollinearitt die Varianz eines Parameterschtzers beeinflusst. Im Fall eines Regressionsmodells mit zwei erklrenden
Variablen knnen wir den VIF fr ~ aus der Varianz des Schtzers (IV2: 26) unter
Beachtung der Tatsache herleiten, dass in den Hilfsregressionen (r12 )' = R; gilt. Wir
erhalten
A

es'

(Iv4: 25)

LX;, (1-r;,) LX;, (l-R;) ,


wobei der Term 1I( 1- R;) den VIF fr , darstellt. Dieses Ergebnis lsst sich auch
auf den Fall eines Regressionsmodells mit K erklrenden Variablen erweitern, womit wir den Varianzschwellungsfaktor Zum Schtzer . allgemein als
Var(,) = ~,

,
L.,x u (1-r12 )

VIF(k) =

,
(1-R k )

(Iv4: 26)

definieren knnen. R~ stellt dabei das Bestimmtheitsma einer Hilfsregression von


Je,. auf alle anderen erklrenden Variablen dar. Ein R~ von Eins, was auf vollkom-

23 Die Signifikanz dieser Bestimmtheitsmae kann durch einen klassischen F-Test mittels der
Teststatistik (N3: 11) geprft werden.

IV EinfOhn.mg in die Okonometrie

516

mene Multikollinearitt hindeutet, fhrt zu einem VIF der gegen unendlich strebt,
wohingegen ein
von Null auf die Abwesenheit von Multikollinearitt hinweist
und einen VIF von Eins liefert. Besonderheit bei diesem Faktor ist, dass im Falle
eines Modells mit nur zwei erklrenden Variablen die heiden entstehenden VIFs
identisch sind. Dies begrndet sich dadurch, dass die heiden Hilfsregressionen dasselbe Bestimmtheitsma aufweisen.
Da es bei diesem Indikator keine formale Testentscheidung gibt, hat sich in der
Praxis als grobe Entscbeldungsregel eingebrgert, dass bei einem R! von bet
0,90, also bei VIF> 10 von hoher Multikollinearltt ausgegangen werden kann. 24
Die Varianzschwellungsfaktoren bleiben jedoch nicht ohne Kritik. Erstens sind sie
nmlich gerade Resultat von Hilfsregressionen, die eine erklrende Variable in Abhngigkeit aller anderen darstellen, sodass auch fr sie die im Zusammenhang mit
den Hilfsregressionen aufgefhrten Kritiken angebracht sind. Zweitens handelt es
sich bei der Entscheidungsregel um eine recht willkrliche Vorgehensweise. Die
sich daraus ergebenden Konsequenzen bleiben auerdem unklar, wie wir gleich
sehen werden. Drittens ist ein hoher VIF weder notwendige noch hinreichende
Bedingung fr hohe Varianzen und Standardfehler der oLS-Schtzer. Wie wir nmlich in (IV4: 25) gesehen haben, hngt die Varianz eines OLs-schtzers von drei
Faktoren ab. Eine Verallgemeinerung dieses Ergebnisses liefert

R!

VarCP.) =

Bit

0'1

'" , . VlFCIl.).
L.,%"

Ein hoher VIF kann also durch ein niedriges ci oder ein hohes I:.x~ ausgeglichen
werden. Hohe, durch einen VIF gemessene Multikollinearitt, muss daher nicht unbedingt zu hohen Standardfehlem fhren.
Zum Abschluss dieser Methodendiskussion wollen wir uns nun mit der Anwendung der beschriebenen verfahren befassen. Wir veranschaulichen diese anhand
eines hypothetischen Beispiels, das bewusst so konstruiert wurde, dass es die
typischen Anzeichen von Multikollinearitt aufweist. Im Anschluss darm untersuchen wir ein empirisches Beispiel und werden dabei feststellen, dass eine Multikollinearittsanalyse mit "echten" Zahlen nicht mehr so eindeutig ist.

BeloplellV 4-12

Hypothetischer Mullikollinearittsfall

Nehmen wir an, wir schtzen ein Modell ~ de Ergebnis:

Y; =35,8677 --6,3265~
(33,7510)
t - -0,19

Po +P1Xu + PI>C.t1 +t;

und erhalten das folgen-

+1,1790~i

n=25 (22)

(8,4383)
0,21

R 2 =0,7356

Erstes deutliches Anzeichen fUr Multikollinearitt sind die hohen Standardfehler und damit
2
die niedrigen t-Werte, welche von einem relativ hohen R begleitet werden. Ein Blick auf
den Korrelationskoeffizienten zwischen Xl und ~, der bei 0,999995 liegt, erhrtet diesen
Verdacht. Die DurchfOhrung der beiden Hilfsregressionen von Xl auf ~ und von ~ auf Xl
bieten hier keinen besonderen Mehrwert, da wir deren identische BesUmmtheltsmae
24 Vgl. Kleinbaum et al. (1998).

517

4. Verletzungen der Annahmen des klassischen Regressionsmodells

schlielich nach (IV1: 23) auch als Quadrat des Korrelatlonskoetnzlenten zwischen X1 und
bestimmen knnen. Diese sind 0,99999, d.h. nahezu Eins. Die Variation von X1 wird
also zu fast 100 % durch die von ~ erklrt und umgekehrt; ein unverkennbares Zeichen
von Multikollinearitt. Ganz klar kommt dann natarlich auch unsere VIF-Daumenregel aufgrund von VIF@,)=VIFa\)=1/(1-0,99999)=100.000>10 zu dem Schluss, dass deutliche Mullikollinearitiit vorliegt.
~

Beispiel IV 4-13

Praktischer Multikollinearitimfall

Zur Untersuchung empirischer Modelle auf Multikollinearitt betrachten wir folgendes von
Asteriou und Hall (2007) geschtzte Modell zur Erklrung der Importe Grobritanniens:
In~ =D+,lnX,,+~ln~+E,

Y sind dabei die Importe, X1 ein BIP-Index und ~ der britische Konsumentenpreisindex.
Die Schtzung fUr den Zeitraum 1. Quartal 1990 bis 2. Quartal 1998 liefert das folgende
Ergebnis:

iilY; =0.6319 +19269InX"


t=

(0,1689)
11,41

+O,27431n~
(0,1374)
2,00

n =34 (30)
R2

0.9661

Eine neue Regression, die den Produzentenpreisindex als zustzliche Variable In


nimmt, ergibt Folgendes:
InY, - 0,2139 +1,9697InXtt +1,0255In>4t -o,7706ln><'1

t=

(0,1568)
12,56

(0.3234)
3,17

(0,3052)
-2,52

X:5

auf-

n - 34 (30)
R1 =0,9660

Es f!llt zunlchst auf, dass sich der geschltzte Koeffizient von In ~ stark ndert. Zudem
erkennen wir, dass alle Koeffizienten in der neuen Schtzung hoch signifikant sind, wobei
der Koeffizient von In X:5 jedoch ein vOllig unerwartetes Vorzeichen aufweist. Bei zunehmenden Preisen fOr Produzenten Im Inland sollten die Importe schlielich zu- und nicht
abnehmen. Anhand der folgenden EViews-Korrelationsmatrix (Variablen markieren ~
Open as Group ~ Vlew / Covarlance Analysis ~ Ordlnary Correlatlon) knnen wir
auerdem zeigen, dass der KorrelaUonsl<oefflzlent zwischen In X2: und In X:5 bei 0,9836
liegt. Generell liegen ziemlich hohe Korrelationen zwischen den Variablen vor.
InY
InX1
In'"
In",

Y
1.000000

0.980660
0.907449

0.686093

In X,

0.980660
1.000000
0.895348
0.889341

In'"
0.907449

In",

0.895348

0.688093
0.689341

1.000000
0.183517

0.983597
1.000000

Whrend diese Korrelationen auf Multikollinearitt hinweisen, liegen ihre klassischen


Symptome (niedrige t-Werte bei hohem R~ also nicht vor. Jemand der sich bei der Multikoliinearitatsanalyse also lediglich auf diese verlassen hltte, wOrde davon ausgehen, dass
keine Multikollinearitt vorliegt. Vielmehr sind es hier die hohen paarweisen Korrelationen
und das mit der Modelltheorie nicht im Einklang stehende Vorzeichen der neuen Preisvariablen, die verdlchtig sind.

Q.

5t8

IV Einfiihrung in die konometrie


Da Korrelationskoeffizienten nur paarweise Korrelation untersuchen, uns aber ein Modell
mit mehr als zwei erklrenden Variablen vorliegt, empfiehlt es sich mit den beschriebenen
Hilfsregressionen zu arbeiten:
Inx;; =1,0619 -HJ,5150In x", -HJ,2103InX"
(0,3587)
t=

iiiX;; = 0,460t
t=

1,44

(0,3476)

R' = 0,8040

0,61

-HJ, 12111n X" -HJ,8681In x",

n = 34 (31)

(0,0843)
1,44

R' = 0,9695

(0,0665)
13,06

In)(" =--{),5424 -HJ,0555InX"-HJ,9748InX,,


t=

n=34 (31)

(0,0917)
0,61

(0,0746)
13,06

n=34 (31)
R' = 0,9678

Auf den ersten Blick ist hier auffllig, dass bei der Regression von In X, auf In X, und In X,
die Koeffizienten nicht signifikant von Null verschieden sind (niedrige t-Werte). In der Hilfsregression fr In X, ist In Xa signifikant und in der fr In Xa ist es In x" wobei aber in beiden
Fllen In X, nicht signifikant ist. Dies wrde darauf hindeuten, dass ein Multikollinearittsproblem hier nur zwischen den Variablen In X, und In Xa besteht.
Betrachten wir nur die Bestimmtheitsmae der Hilfsregressionen, kmen wir zu dem allgemeinen Schluss, dass Multikollinearitt vorliegt. Die Variabilitt von In X, und In Xa wird
hochgradig durch die anderen Variablen erklrt. Bei In X, knnen wir dies nicht sagen, da
2
ein R von 0,8040 bei Zeitreihenregressionen nicht als sehr hoch betrachtet werden kann.
Ein konkretes Bild erhalten wir durch die Varianzschwellungsfaktoren VIF(~,) = 5,1020,
VIF(~2) = 32,7869 und VIF(~3) = 31,0559. Sie legen nahe, dass In X, und In Xa stark multikollinear sind.
Die Mehrheit der Daumenregeln weit also darauf hin, dass In X, und In Xa stark multikollinear sind, was auch zu erwarten war, da es sich bei beiden um Preisvariablen mit
gleicher Entwicklungstendenz handelt.

4.3_4

Vorgehensweise bei festgestellter Multikollinearitt

Im Folgenden beschreiben wir eine Auswahl alternativer Mglichkeiten, die unter

gewissen Umstnden geeignet sind, Multikollinearitt zu begegnen. Da einige Mglichkeiten aber nicht immer realisierbar sind und neue Probleme mit sich bringen
knnen, sind es in der Praxis hufig die Punkte 1 und 2, die bei der Problemlsung die grte Beachtung fmden.

1. Unttig bleiben
Haben wir ernste Multikollinearitt festgestellt, so ist es in vielen Fllen ratsam,
diese Diagnose einfach zu ignorieren, insbesondere daher, da die im Folgenden
noch beschriebenen Manahmen gewisse Risiken aufweisen. Darber hinaus

lassen sich generell zwei Grnde auffhren, die ein Unttigbleiben rechtfertigen:

Erstens reduziert Multikollinearitt in vielen Fllen die t-Werte nicht so stark, dass
die zugehrigen Parameter insignifikant werden, oder fhrt nicht ZU derart starken
Vernderungen der geschtzten Regressionskoeffizienten, dass diese vom erwarte-

4. Verletzungen der Annahmen des klassischen Regressionsmodells

519

ten Vorzeichen abweichen. Zweitens kann die Entfernung einer multikollinearen


Variablen zu Verzerrungen der OLS-5chtzer fhren, wenn die Variable aufgrund
der Modelltheorie wichtig fr das Modell ist. Eine derart bewusste Fehlspezifikation
(vernachlssigte Variable) wird von erfahrenen konometrikem gemieden. Selbst
bei niedrigen t-Werten belassen sie multikollineare Variablen im Modell.

2. Ausschluss redundanter variablen


Oftmals ist der Ausschluss einer multikollinearen Variablen eine gute Idee, vorausgesetzt es handelt sich bei dieser um eine sog. redundante Variable und nicht um
eine solche, die fr das Modell wichtig ist. Nehmen wir beispielsweise an, dass ein
unerfaluener konometriker zu viele Variablen in sein Modell aufgenommen hat,
da er eine Verzerrung durch vernachlssigte Variablen frchtet. Resultat einer solchen Vorgehensweise ist dann (neben einer drastischen Reduzierung der Freiheitsgrade) meistens, dass zwei oder mehr Variablen enthalten sind, die die selbe Gre
beschreiben und damit multikollinear sind. Es macht z.B. wenig Sinn in eine Nachfragefunktion als erklrende Variablen das verfgbare Einkommen und das BIP
aufzune1unen, da beide die Gre Einkommen messen. Da Einkommen fr eine
Nachfragefunktion eine wichtige erklrende Variable ist, knnen weder verfgbares
Einkommen noch BIP als irrelevant bezeichnet werden. Stattdessen knnen wir
von Redundanz sprechen, da nur eine Variable zur Messung des Einkommens bentigt wird. Eine dieser Variablen kann aus der Model1gleichung entfernt werden,
ohne eine Verzerrung durch eine vernachlssigte Variable zu verursachen.
Beispiel IV 4-14

MultikollinearitAt und Variablenausschluss I

Greifen wir auf unser hypothetisches Beispiel IV 4-12 zuruck. Unsere Schtzung, bei der
wir starke Multikoilinearltt festgestellt haben, lautete wie folgt:

Y; =35,8677 -6,3265Xu+1,1790XZI

n = 25 (22)

(33,7510)

R' - 0,7356

(8,4383)

t= -0,19

0,21

Betrachten wir nun zwei Modelle, in denen wir jeweils eine der multikollinearen Variablen
(unler Annahme ihrer Redundanz) aus der Modellgleichung ausschlieen:

Y; =36,7186
1-

+O,8320XII

n=25 (22)

(0,1041)

R' =0,7351

7,99

Y; = 36,6097 +O,20BOXZI
(0,0260)
1=

7,99

n=25(22)
R' - 0,7352

Wir erkennen deullich, dass in beiden Modellen die Mullikollinearill beseitigl wurde, da
die Standardfehler der OLS-Schtzer nun deullich geringer sind und damil auch hOhere 1Werte vorliegen.

IV EinfOhn.mg in die Okonomebie

520

In der Praxis stellt sich oft die Frage, welche redundante Variable aus der Gleichung ausgeschlossen werden soll. Im. Falle ernster Multikollinearitt macht es
meist keinen statistischen Unterschied welche der multlkollinearen Variablen aus-

geschlossen wird. Dies verdeutlichen die R~- und t-Werte im Beispiel IV 4-14. Sie

waren, egal welche der beiden Variablen ausgeschlossen wurde, nahezu identisch.
Dies ist auch nicht verwunderlich, da sich die heiden Variablen ~ und Je,. schlie-

Q.

lich nahezu identisch verhalten. In praktischen Anwendungen ist es aber nicht


immer egal, welche Variable ausgeschlossen wird.

Beispiel IV 4-15

Multikollinearitat und Variablenausschluss 11

SchAtzen wir das Importmodell aus dem Beispiel IV 4-13 ohne In Xi, so erhalten wir:
1nY; = 0,6857 +2,09381n x,t +o,1196In~t

1=

(0,1726)
12,13

(0,1361)
0,88

n = 34 (30)

R2 =0,9602

Wir stellen fesl. dass der gesch.tzte Koeffizient von In X:! nun positiv und uberhaupt nicht
mehr signifikant ist. Die vorher festgestellte Signifikanz von In ~ ist also auf die bestehende Multikollinearitt zwischen den beiden Preisvariablen zuruckzufUhren.
Die Schtzung des Modells ohne In ~ liefert hingegen:

iilY; =0,6319 +1,9269InX


t-

1I

(0,1689)
11,41

+O,2743lnXat

n=34 (30)

(0.1374)
2,00

R2 =0.9639

Die geschitzten Koeffizienten beider erklrender Variablen sind positiv, wobei der Koeffizient von In Xl hoch signifikant und der von In ~ -gerade noch" signifikant Ist. Wir wOrden
uns also hier (da wir nur eine Preisvariable bentigen) ffir den Ausschluss von In ~ entscheiden. Auch wenn die Korrelation zwischen In Xl und In ~ (0,8953) nun darauf hindeutet, dass noch eine gewisse Multikollinearitat vorliegt, wurden wir nun nicht mehr so weit
gehen, In Xl oder In ~ auszuschlieen, da es sich bei diesen Variablen um ffir die Gleichung bedeutende Variablen handelt. Ein Ausschluss wurde hier nur zur Verzerrung der
OLS-Schtzer fUhren.

3, ErhhUDtl .... Stkhprobenuml'llnp


Wie wir wissen, kann Multikollinearitt die Varianz der OLS-Schtzer erhhen. Dies
haben wir bereits fr das Regressionsmodell mit zwei erklrenden Variablen ber
(IV2: 26) durch einen c.p. hheren Korrelationskoeffizienten veranschaulicht:

Var(~,) =

ci'

L Xli'(1-112, )

Es wird nun schnell klar, dass durch einen hheren Sticbprobenumfang n die Varianz von ~1 abnimmt, da EX:1 im Nenner des obigen Tenns gerade n . V~) ist
und damit i.d.R. zunimmt. Das Multikollinearittsproblem stellt also vor allem ein
Datenproblem dar. Zustzliche Daten knnen das Problem lsen, insbesondere
dann, wenn diese die Multikollinearittseigenschaften nicht so stark aufweisen. In
der wirtschaftswissenschaftlichen Praxis ist jedoch eine Erhhung des Stichprobenumfangs nicht ohne weiteres mglich. Die Daten, mit denen Modelle geschtzt
werden, beziehen nmlich Ld.R. alle verfgbaren Infonnationen ein. Eine Erh-

4. Verletzungen der Annahmen des klassischen Regressionsmodells

521

hung des Stichprobenumfangs n ist daher entweder unmglich, da keine weiteren


Daten vorhanden sind, oder mit enonnen Kosten verbunden. In experimentellen
Situationen wre die Schaffung neuer Daten hingegen meist kein Problem.

4. Nutzung externer Informationen


Besitzen wir aus anderen Quellen (z.B. andere Srudien) Informationen darber,
dass zwischen Modellparametem eine bestimmte lineare Beziehung besteht, so
knnen wir diese fr unsere eigene Schtzung nutzen. Nehmen wir z.B. an, wir

wissen fr ein Modell


(IV4: 27a)
YI = /30 + /3'X lI + /3'X 2I + /3'X 3I + /3,X" + EI'
dass die Variable X, irrelevant ist und der Parameter von X, dem doppelten Wert
des Parameters von X, entspricht, also

/3, = 0
und
/3, = 2/3"
(IV4: 27b)
gilt. Setzen wir nun (IV4: 27b) in (Iv4: 27a) ein, so erhalten wir das neue Modell

Y; = /30 + /3'XlI + 0 . X2I + 2/3'X3I + /3,X" + EI


mit

(IV4: 28)

welches nur noch zwei zu schtzende Parameter enthlt. Folglich erhht sich die
Zahl der Freiheitsgrade und die Parameter knnen mit geringerer Varianz geschtzt
knnen wir dal}n ber (IVj: 27b) und ~eine Varianz nach
werden. Den Schtzer
den Rechenregeln fr Varianzen als Var(/3,) = Var(2/3,) = 4 Var(/3,) bestimmen.
Offensichtliches Problem dieser auch als restringierte OLS-Scbtzung.5 bezeichneten Methode ist, dass sie nur dann unverzerrt ist, wenn (IV4: 27b) korrekt ist. Bei
Abweichungen liefert das restringierte Modell verzerrte Schtzer. Die geringere
Schtzvarianz wrde also mit einem erhhten Verzerrungsrisiko erkauft. Um Anhaltspunkte ber das Ausma der mglichen Verzerrung zu erhalten, sollte man in
jedem Fall auf Basis des Modells OV4: 27a) einen F-Test mit OV4: 27b) als Nullh)1Jothese durchfhren.

S. Modelltransformation
In der Uterarur wird auch hufig die Transformation unter Multikollinearitt leidender Modelle vorgeschlagen. Eine solche Transformation ist aber mit Vorsicht zu betrachten, da sie die Verletzung anderer Annahmen des CLRM und andere Probleme
mit sich bringen kann. Wir wollen im Folgenden zwei der gngigsten Transformationen nher betrachten:

Die erste Mglichkeit der Transformation besteht darin, aus multikollinearen Variablen eine neue Variable zu bilden und diese an Stelle der multikollinearen Variab-

len ins Modell aufzunehmen. 26 Nehmen wir beispielsweise an, dass in einem Modell mit zwei erklrenden Variablen die Variablen X, und X, multikollinear sind, so

knnten sie durch eine neue Variable

x, = k,X, + k,X,

(IV4: 29a)

25 Eine ausfhrliche Darstellung der statistischen Eigenschaften der restringierten OLS-Schtzung findet sich z.B. in von Auer, 1. (2007), Kapitel 21.

26 Vgl. Studerunund (2007), KapitelS.

522

IV Einfiihrung in die konometrie

ersetzt werden, sodass sich das neue Modell


(N4: 29b)
Yi = 130 + 13,X, + Ei = 130 + /3, (k, X, + k,X,) + Ei
ergibt, wobei die Konstanten k, und k, angeben, mit welchem Gewicht die ursprnglichen Variablen in die neue eingehen. Nachteil einer solchen Methode ist
allerdings, dass beiden "Teilen" der neuen Variablen der gleiche Koeffizient zugeordnet ist. Wir mssen daher uerst vorsichtig sein, nicht Variablen mit unterschiedlichen erwarteten Koeffizienten (z.B. unterschiedliche Vorzeichen) oder deutlich unterschiedlichen Mittelwerten (z.B. unterschiedliche Grenordnungen) zu-

sammenzufassen, ohne diesen Unterschieden durch entsprechende Wahl der Werte


k1 und k2 Rechnung zu tragen. Auch ist eine solche Vorgehensweise nur zu whlen, wenn die neu entstehende Variable fr sich selbst sinnvoll ist.

Eine zweite Mglichkeit der Transformation besteht bei Zeitreihendaten in der sog.
Differenzenbildung. Um beispielsweise synchrone Entwicklungen von Variablen in
einem Modell
(N4: 30a)
Y, = 130 + /3, X" + 13,x" + E,
Zu bereinigen, kann von diesem das auch fr die Vorperiode geltende Modell
(N4: 30b)

YH = 130 + 13, X'H + 13'X'H + EH


subtrahiert werden, sodass wir zunchst

(N4: 30c)
Y, - YH = /3, (X" - X'H) + 13,(X" - X'H) + (E, - EH)
erhalten. Unter Verwendung einer alternativen Notation ergibt sich daraus ein in
periodenweisen Vernderungen formuliertes Modell
Il.Yt

I1Y, = 13,AX" + 13,AX" + AE,

mit

;;;;;;

Yt

~-1

AX", = X", - X",_, ,


&t = Et - Et _ t

(IV4: 31)

welches wir auch als erste Differenzen/orm des Ausgangsmodells bezeichnen.27


Unter ersten Differenzen verstehen wir hier also nichts anderes als die Differenz
zwischen einer Variable zum Zeitpunkt t und ihrem Wert der Vorperiode t - 1. 28
Die Niveaus der Variablen mgen zwar multikollinear sein, aber dies bedeutet
nicht, dass ihre Vernderungsbetrge im selben Ausma multikollinear sind. Der
Grad der Multikollinearitt ist im transformierten Modell des fteren geringer. Begrnden lsst sich dies dadurch, dass eine derartige Variablentransformation (anders als einfache lineare Transformationen) die Struktur der Daten verndert und
die ersten Differenzen der Variablen schwcher miteinander korreliert sind. Die
Varianz der Schtzer drfte damit abnehmen. Allerdings ist die Varianz der differenzierten Variablen hufig auch geringer, was fr sich genommen die Varianz der

Schtzer erhht. Multikollinearitt ist ein Phnomen, das grtenteils in Zeitreihen-

27 Wir erkennen, dass im Modell (IV4: 31) die Regressionskonstante verlorengegangen ist.
Bei der Schtzung des Modells wird daher wieder eine neue integriert, um die im Abschnitt N 4.2.1 beschriebenen Nachteile zu venneiden.
28 Die Fonnulierung eines Modells in ersten Differenzen korrunt nur bei Zeitreihendaten in

Frage. In Querschnittsdaten existiert nmlich keine natrliche Reihenfolge in den Beobachtungen, was keine eindeutige Differenzenbildung zulsst.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

523

datenmaterial auftritt. Hier ist die Wahrscheinlichkeit, dass die ersten Differenzen

einem Trend folgen und damit mit anderen Variablen in multikollinearer Beziehung
stehen, nmlich geringer als bei den Ursprungszeitreihen, aus denen sie bestimmt

werden. whrend nmlich z.B. das deutsche BIP von Jahr zu Jahr zunimmt, also
einen klaren Aufwrtstrend zeigt, fluktuieren die Vernderungen des BIP (bzw.
seine ersten Differenzen) stark.
Auch wenn erste Differenzen dazu beitragen knnen, die Folgen von Multikollinea-

ritt zu bekmpfen, fhren diese neben dem Verlust an Freiheitsgraden (Reduzierung der Zahl der fr die Schtzung zur Verfgung stehenden Beobachtungen um
Eins) auch Zu modelltheoretischen Komplikationen. So besteht z.B. ein Unterschied
darin den Kapitalstock einer Volkswirtschaft oder die Vernderung des Kapitalstocks zu modellieren. Durch erste Differenzen wrden wir hier nmlich Nettoinvestitionen abbilden. Ist dies aber nicht Ziel der empirischen Arbeit, so ist eine
derartige Multikollinearittsbekmpfung nicht zu empfehlen. Darber hinaus ergibt
sich ein schwerwiegendes Problem mit der neuen Strgre Ae,. Da Ae, - E, - E,.,
und Ae,., - E,., - E,., gilt, sind die beiden aufeinanderfolgenden Strgren Ae, und
Ae,., ber E,., korreliert und fhren damit zu einer Verletzung von Annahme 4 des
CLRM. Erneut erkaufen wir uns also einen scheinbaren Fortschritt durch neue Prob-

leme an anderer Stelle (vgl. Abschnitt IV 4.5.2).

524

IV Einfiihrung in die konometrie

4.4 Heteroskedastizitt
Annahme 3 des CLRM besagt, dass die Ausprgungen des Strtenns aus Verteilungen mit gleicher Varianz stammen sollen. Wir sprechen hier von Homoskedastizitt
und formulieren Var(Rj I Xi) = 0'2 fr i = 1,2, ... ,N, wobei ci eine Konstante ist. Ab-

bildung N 10 verdeutlichte diese Annahme.

In vielen praktischen Anwendungen ist die Annahme der Homoskedastizitt nun


jedoch unrealistisch. Hufig ist es nmlich so, dass sich die Verteilungen der Ei in
ihrer Varianz unterscheiden, d.h. die Varianzen VareE j I Xi) nicht konstant sind.
Wir sprechen dann von Heteroskedastizitt und formulieren Var(Ei I Xi) =
fr

er.

i = 1,2, ... ,N. Die Varianz der Verteilung eines Strterms hngt dann davon ab, welche Beobachtung von X wir betrachten. Abbildung IV 11 veranschaulichte dies.

Heteroskedastizitt tritt hufig in Querschnittsregressionen auf. Wir werden daher


im Folgenden mit dem Subskript i fr die jeweilige Beobachtung arbeiten. Dies be-

deutet jedoch nicht, dass Heteroskedastizitt in Zeitreihenregressionen unmglich


ist. Es hat sich nmlich herausgestellt, dass sie insbesondere auch bei Finanzmarkrstudien hufig vorkommt.

4.4.1

Formen und Ursachen von Heteroskedastlzltt

Um das Wesen von Heteroskedastizitt klarer zu machen, betrachten wir zunchst

das einfache Modell


~ =

o +1X

+Ei ,

dessen Grundgesamtheitsregressionsfunktion zusammen mit emlgen Stichprobenwerten im Falle von Homo- und Heteroskedastizitt in Abbildung N 22 dargestellt
ist. Es ist dabei zu beachten, dass es sich darin bei (1) und (2a) um mit den Abbildungen N 10 und IV 11 vergleichbare Darstellungen handelt. Die Abbildungen IV
10 und N 11 betrachten nur drei X-Werte (X" x" X,) und zeigen die Verteilung

(Grundgesamtheit) des dazugehrigen Strterms. In Abbildung N 22 hingegen ist


nur eine Stichprobe von X-Y-Kombinationen zu finden, sodass es fr x" X, und X,
nur einzelne Y-Werte gibt. Dies hat zur Folge, dass wir nicht die vollstndige Verteilung der Strterme abbilden, sondern nur einzelne Ausprgungen ablesen knnen. Wir haben diese zustzliche Darstellung bewusst gewhlt, da sich damit im
Falle eines einfachen lioearen Regressionsmodells Heteroskedastizitt grafisch aufdecken lsst.
Grafik (1) in Abbildung N 22 zeigt, dass die Abweichungen der Y von der Regressionsfunktion der Grundgesamtheit relativ gering ausfallen und mit zunehmendem
X weder zu- noch abnehmen. Die Streuung (Varianz) der Abweichungen (Strterme) kann also als konstant betrachet werden. Es liegt Homoskedastizitt vor.
Graftk (2a) hingegen zeigt, dass mit zunehmendem X auch die Abweichungen der
Y von der Regressionsfunktion zunehmen. Die Streuung des Strtenns steigt also

mit X, sodass wir fr jedes X, eine andere Streuung feststellen und daher von Heteroskedastizitt sprechen knnen. Grafik (2b) zeigt den umgekehrten Fall von (2a),
also Heteroskedastizitt mit fallender Varianz.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

525

(1) Homoskedastizitt

--- --- --'

---o ---

. _.. .
...
__ .... ------

---

oL--..,--r----r--~X

X,

(2a) Heteroskedastizitt

X,

X,

(2b) Heteroskedastizitt
mit fallender Varianz

mit steigender Varianz

-- --

--

-o

-----~-------------------

o
o

..........
oL--..,--r----r--~X

X,

----------- ---------

0 _ _0 _ . 0

.. .

.. ,.......

X,

X,

. .... --"" --

_-

oL--..,--r----r--~X

X,

X,

X,

Abbildung IV 22: Homo- vs. Heteroskedastizitt


Ein typisches Beispiel fr Heteroskedastizitt mit steigender Varianz kann anband
einer einfachen Konsumfunktion (Konsum in Abhngigkeit vom Einkommen) gegeben werden: Haushalte mit niedrigem Einkommen sind bei ihren Ausgabeentscheidungen in der Regel nicht sehr flexibel. Den Groteil ihres Einkommens werden sie fr Lebensmittel, Kleidung und Fortbewegung ausgeben. Bei geringem
Einkommen wird sich der Konsum der einzelnen Haushalte also kaum voneinander
unterscheiden (geringe Streuung). Wohlhabende Haushalte hingegen sind flexibler
und haben eine breitere Auswahl hinsichtlich ihrer Ausgaben. Einige konsumieren
mehr und andere sparen mehr. Der individuelle Konsum kann sich also bei reichen
Haushalten deutlich vom durchschnittlichen Konsum (gegeben durch die Regressionsfunktion der Grundgesamtheit) unterscheiden. Die Streuung bei hohen Einkommen wird also hher ausfallen als bei niedrigem.

Heteroskedastizitt mit jallenden Vartanzen knnen wir beispielsweise auf evolutionre Prozesse zurckfhren. So werden etwa im Zeitverlauf bessere Datenerfassungsmethoden entwickelt, die auftretende Messfehler verringern. Eine weitere Erklrung stellen Lernprozesse dar. Ist Y z.B. die Anzahl der Punkte in einem Test

IV Einfiihrung in die konometrie

526

und X die Anzahl der Versuche, mit denen ein Individuum den Test durchluft, so
nimmt die Variabilitt von Y mit zunehmendem X ab.
Heteroskedastizitt tritt hufig in Datenstzen auf, in denen ein deutlicher Unterschied zwischen den grten und kleinsten beobachteten Werlen der erklrten Variablen besteht. ]e grer dieser Unterschied ist, desto grer ist die Wahrscheinlichkeit, dass die Strtenne, die mit ihnen verbunden sind, heteroskedastisch sind.
Es ist zu erwarten, dass die Verteilung der Strtenne groer Beobachtungen hohe
und die kleiner Beobachtung kleine Varianzen aufweisen. Besonders in Querschnittsdaten erhalten wir oft eine derartige Diskrepanz zwischen den niedrigsten
und den hchsten Werten der erklrten Variablen. So dfte etwa in einer Studie zu
Konsumausgaben in Abhngigkeit vom Einkommen in deutschen Bundeslndern
die Differenz zwischen Bayern und dem Saarland recht gro sein. Zudem werden
wir annehmen knnen, dass die Ausgaben des Saarlandes absolut betrachtet nicht
so variabel sind wie die von Bayern, da z.B. eine 5 %ige Ausgabenerhhung in
einem groen Bundesland einen hheren Betrag bedeutet, als in einem kleinen.
Nicht nur in Querschnittsdaten mit einer groen Variation der erklrten Variable
kann Heteroskedastizitt auftreten. Sie ist auch in Zeitreihendaten mit hohen Vernderungsraten zu beobachten. Wrden wir beispielsweise den Absatz an DVDPlayern zwischen 1980 und 2009 modellieren, so wrden hchstwahrscheinlich heteroskedastische Strtenne vorliegen. Mit Beginn des gigantischen Wachstums der
Branche wird nmlich auch die Varianz des Strterms gestiegen sein. In Zeitreihen
mit geringen Vernderungsraten ist Heteroskedastizitt aber eher unwahrscheinlich.
Wie diese Beispiele zeigen, liegt Heteroskedastizitt meist in der Natur der Sache.
Die Grundgesamtheit verhlt sich also oft einfach heteroskedastisch. Die Suche
nach einer Spezifikation ohne Heteroskedastizitt erbrigt sich daher meist. Vielmehr sind in einem solchen Fall Schtzverfahren heranzuziehen, die der Heteroskedastizitt Rechnung tragen, oder Korrekturverfahren zu nutzen, die ihren

Konsequenzen entgegenwirken (vgl. Abschnitt IV 4.4.4).

Heteroskedastizitt kann ihre Ursache aber auch in Spezlkationsfeh1ern haben.


Eine falsche funktionale Fonn fhrt in den seltensten Fllen Zu Heteroskedastizitt.
Eine vernachlssigte Variable jedoch schon, da der Anteil des vernachlssigten Effekts auf Y, der nicht von einer der anderen erklrenden Variablen reprsentiert
wird, vom Strtenn absorbiert wird. Hat dieser Effekt eine heteroskedastische
Komponente, kann der Strtenn der fehlspezifIzierten Gleichung heteroskedastisch
sein, auch wenn es der Strtenn der korrekten Gleichung nicht ist.
Eine Unterscheidung dieser beiden Heteroskedastizittsursachen ist von groer Bedeutung. Einer durch Spezifikationsfehler verursachten Heteroskedastizitt gilt es
nmlich durch Beseitigung der FehlspezifIkation und nicht mit den Methoden unter
IV 4.4.4 zu begegnen. Diese sind nur fr den Fall vorgesehen, dass sich die Grundgesamtheit einfach heteroskedastisch verhlt.

4.4.2

Konsequenzen von Heteroskedastizitt

Ein heteroskedastischer Strtenn hat fr die Schtzung von Regtessionsmodellen im


Allgemeinen drei Folgen, die mit denen von Autokorrelation (vgl. Abschnitt IV
4.5.2) vergleichbar sind:

4. Verletzungen der Annahmen des klassischen Regressionsmodells

527

1. Keine Verzerrung der OIS-Schtzer


Im Falle von Heteroskedastizitt kommt es zu keiner Verzerrung Cund auch keiner

Inkonsistenz) der OLS-Schtzer. 29 Ein Blick auf den Erwartungswert des Schtzers
des Steigungskoeffizienten im einfachen Regressionsmodell, den wir in (IV2: 21) im
Fall detenninistischer X als

hergeleitet hatten, kann uns helfen, dies klar zu machen. Wir erkennen nmlich
deutlich, dass die Varianzen der Strtenne keine Bedeutung bei der Erbringung
dieses Beweises der Erwartungstreue haben. Auch bei Heteroskedastizitt bleiben
OLS-Schtzer also erwartungstreu.

2. OIS-Schtzer nicht lnger effizient


Im Falle von Heteroskedastizitt ist das Gau-Markov-Theorem nicht lnger gltig.

Die OLS-Schtzer weisen nicht lnger minimale Varianz auf Csind also nicht mehr
effizient), da es andere lineare unverzente Schtzer gibt, die eine kleinere Varianz

besitzen. Mit diesen Csog. WLS-Schtzer) werden wir uns unter IV 4.4.4.1 nher beschftigen. Die hhere Varianz der OLS-Schtzer erklrt sich dadurch, dass ein
heteroskedastischer Strtenn Fluktuationen von Y verursacht, die OLS den erklrenden Variablen zuordnet. Insgesamt bleiben die Schtzer dabei jedoch unverzerrt, da ber- und Unterschtzungen gleichwahrscheinlich sind und sich daher
gegenseitig ausgleichen.

3. Verzerrung der Schtzer der Standardfehler der OIS-Schtzer


Die Tatsache, dass Heteroskedastizitt die Schtzer der OLS-Standardfehler verzerrt,
knnen wir mit einer Herleitung der Varianz von , im einfachen Regressionsmodell veranschaulichen, auf die wir bisher verzichtet hatren. Wir gehen dazu zunchst von der allgemeinen Definition der Varianz von , aus, die aus der allgemeinen Definition der Varianz einer Zufallsvariablen hervorgeht:
varC,)=E[(,-EC,)),]
Da , ein erwartungstreuer Schtzer fr ~, ist, also EC,) =~, gilt, und auerdem
aus CIV2: 20)
mit

x.

k,=",',
~Xi

formuliert werden kann, erhalten wir aus dieser Definition

VarC,) = E [C, -

~,)' ] = E[(Ik,E,

)'J

= E[Ck,E,)' + 2k,k,E,E, + Ck,E,)' + ... + CknEn)'J.


29 Liegt die Ursache der HeteroskedastiZitt in z.B. einer vernachlssigten Variablen kann es
natrlich aufgrund der Fehlspezifikation zur Verzerrung kommen (vgl. z.B. IV 4.1.1). Die
Heteroskedastizitt selbst verursacht keine Verzerrung.

IV Einfiihrung in die konometrie

528

Durch die Annahme unkorrelierter Strterme


COV(E"E j)= E[(E, -E(E,))(Ej-E(Ej))]=E(E,Ej)=

fr

i"j

(IV4: 32a)

erhalten wir

Var(,) = E[(k,E,)'] + E[ (k,E,)'] + ... + E [(knEn ) ' ]


= k:E(E:) +k:E(E:) + ... + k!E(E!) = Lk:E(E:).
Resubstituieren wir ~ und bemerken, dass E(E:) nur ein alternativer Ausdruck fr
die Varianzen des stochastischen Strterms Var(E,) = er. ist, knnen wir allgemein
festhalten, dass
~X20'2

Var() =.t.,., , ,
I

(Lx:),

(IV4: 32b)

P,

die Gegilt. Im Falle von Heteroskedastizitt hat also die Varianz des Schtzers
stalt (IV4: 32b). Bei Annahme der Homoskedastizitt, also E(E:) = ci' , erhalten wir
unsere bisherige Formel
Var(,) =

ci'Lx'' " ,cr' ,.


(LX:), .t.,.,X,

(IV4: 33)

Diese stellt nur einen Sonderfall von (IV4: 32b) dar. Da OLS bei der Schtzung der
Varianz der Schtzer nun auf die unter der Homoskedastizittsannahme hergeleitete
Standardformel fr die Varianz der Schtzer (IV4: 33) und nicht auf (IV4: 32b) zurckgreift, fhrt ein Einsetzen von (i' in die Standardformel natrlich zu falschen
Schtzungen der Varianzen. OLS unterschtzt typischerweise in der Prsenz von
Heteroskedastizitt die Varianzen, da in der Praxis meist groe a~ bei groen ~

auftreten. Die Folge sind daher unterschtzte Standardfehler, die wiederum zu erhhten t-Werten fhren, was Testentscheidungen verfilscht. Wir lehnen Nullhypothesen zu oft ab, sodass der Fehler 1. Art (Ablehnung einer korrekten Nullhypothese) deutlich zunimmt. Selbst wenn wir die korrekte Formel (IV4: 32b) zur Schtzung der Standardfehler heranziehen wrden, hat dies keinen Effekt auf die Tatsache, dass Heteroskedastizitt die Ineffizienz der OLS-Schtzer mit sich bringt. Die
korrekten Varianzen wren nmlich grer als die der alternativen Schtzer unter
IV 4.4.4.1.

4.4.3

Aufdecken von Heteroskedastizitt

Es gibt generell zwei Mglichkeiten Heteroskedastizitt aufzudecken. Zum einen


knnen wir eine graBsche Darstellung der Residuen auf gewisse Heteroskedastizittsmuster untersuchen und zum anderen formale Tests zur Diagnose verwenden.
4A.3.1

Grafische Methode

Im Fall von nur einer erklrenden Variablen, haben wir bereits Im Zusammenhang
mit Abbildung IV 22 gesehen, dass wir aus einer einfachen Grafik Hinweise auf
Heteroskedastizitt erhalten knnen. Im multiplen Regressionsmodell knnten wir
fr die einzelnen x,. hnlich vorgehen. In der Praxis hat sich jedoch fr multiple

529

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Modelle die Methode eingebrgert, Informationen zu evenrueller Heteroskedastizitt


aus zweidimensionalen Grafiken zu filtern, in denen e' auf der Y-Achse und Y auf
der X-Achse abgetragen wird.30 Ziel ist es herauszufinden, ob es einen systematischen Zusammenhang zwischen Y, d.h. einer Linearkombination aller erklrenden Variablen, und den quadrierten Residuen gibt. Besonders fr groe Stichproben knnen wir die e~ nmlich als Proxies fr die Varianzen der Strlerme verwenden. 31 Insbesondere wenn wir mit dieser Methodik keinen systematischen
Zusammenhang aufdecken knnen, also e' unabhngig von Y auf einem bestimmten Niveau bleibt, empfiehlt es sich e' zustzlich gegenber den einzelnen erklrenden Variablen des Regressionsmodells abzutragen. Abbildung IV 23 zeigt exemplarische Resultate einer solchen Vorgehensweise. Hiermit sind wir in der Lage
aufzudecken, ob die Varianz des stochastischen Strtenms in irgendeiner funktionalen Beziehung zu einer der erklrenden Variablen steht. Fr ein einfaches Regressionsmodell ist dies zweckmig. Auch fr multiple Modelle knnen wir damit aufzeigen, ob eine Beziehung zwischen einzelnen erklrenden Variablen und der Strtenmvarianz besteht. Problem ist jedoch, dass ein solches Verfahren nicht aufzudecken venmag, dass die Strtenmvarianz ggf. in komplexeren funktionalen
Strukturen von nur einigen der erklrenden Variablen abhngt. Fr multiple Modelle ist dal1er ein Ausweichen auf fonmale Tests meist unvenmeidlich.

e'

e'

Ca)

Cb)

.. .

-_ .. .. -- .. -o

o
o

o
o
o
o

0
0
0

o
o

o
o

--- -"- .. ---

--------,;-

o
o

0
0

--- --- -"- .. .

Xk

Xk
e'
Cc)

..... :
--------..

--- - ............ ..
o

.......... ;

------ o
o

00

--

Abbildung IV 23: Grafische Aufdeckung von Heteroskedastizitt


30 Vgl. z.B. Gujarati (2003), Kapiteill.
31 Eine detaillierte Behandlung des Zusammenhangs zwischen er und Ei ist z.B. in Malinvaud
(1970) zu fmden.

IV EinfOhn.mg in die Okonomebie

530

Bit

Nehmen wir an, wir betrachten ein Modell mit nur einer erklrenden Variable.
Grafik (a) in Abbildung 23 lsst dann keinen systematischen Zusammenhang zwischen e~ und X. erkennen. Dies erlaubt die Aussage, dass wahrscheinlich keine
Heteroskedastizitt vorliegt. Die Grafiken (b) und Ce) geben jedoch deutliche Hinl
weise auf Heteroskedastizitt. (b) zeigt wie e proportional zu X. zuninunt. In Ce)
liegt ein quadratischer Zusammenhang zwischen e ' und X. vor, d.h. e' steigt proportional zu X~. Es besteht also eine klare Beziehung zwischen der betrachteten
erklrenden Variable und der Varianz der Strterme (bzw. hier den quadrierten Residuen als deren Vertreter). Sind wir in der Lage die funktionale Beziehung zwischen der Variable X. und der heteroskedastischen Varianz abzuleiten, so kann uns
dies helfen, unsere Daten so zu transformieren, dass die Strtermvarianz in einem.
Regressionsmodell mit den transformierten Daten homoskedastisch ist. Mit solchen
Transformationen werden wir uns unter IV 4.4.4.1 nher beschftigen.
Eigentumswohnungen

BeispielIV 4-16

Fur eine deutsche Stadt sollen die Preise von EigenbJmswohnungen in Tausend Euro Y
2
durch die Anzahl der Wohnrume X, und die Wohnflche in m ~ mittels

YI - Po + P,X'I + ~2Xai + EI
erkl4rt werden. EVlews liefert dafOr auf Basis von fiktivem Datenmaterial die folgende
Schatzung, die uns zun4chst zeigt, dass der Koeffizient von ~ auf einem Niveau von 1 %
hochgradig signifikant ist, whrend derjenige von X, nur auf einem hohen Niveau von 10%
als signifikant angesehen werden kOnnte. (Hinweis: Fr den Einsatz in der Lehre bieten wir
Im Onllne-SelVlce ein Excel-Tool mit dem sich fOr einfache Regressionsmodelle leicht
heteroskedastisches oder autokorreliertes Residuendatenmaterial generieren lsst.)
y

: 1 83

I I

X1

X2
R-squared
AdJusted R-squared
S.E. cf regression
Sum squared resld
Log likelihood
Durbin-Watson stat

14.73197
1.187676
0.673491
0.665328
54.90372
241153.5
-448.7074
1.958455

8.793076
1.675406
0.117840
10.07868
Mean dependent var
S.D.dependentvar
Akaike info criterion
Schwarz crlterlon
F-statistic
Prob(F-statistic}

0.0978
0.0000
290.1566
94.90566
10.88451
10.97194
82.50802
0.000000

Untersuchen wir nun grafisch, ob Heteroskedastizitt vorliegt, die unsere Standardfehler


und damit auch die t- und p-Werte verzerrt: Wir tragen dazu zunchst die geschtzten YWerte gegenOber den quadrierten Residuen ab. In EViews knnen wir dazu Ober den Button -Genr" durch Eingabe von e_2 - residl\.2 die Reihe der quadrierten Residuen erzeugen,
da EViews nach Schatzung eines Modells in der Variable "resid- automatisch die Residuen
ablegt. Die gefitteten Werte Y knnen wir damit aber den Befehl fiHed - Y- resid bestimmen. Mit den beiden neu erzeugten Reihen erhalten wir dann die auf der Folgeseite zu sehende Grafik. Anhand dieser wird schnell klar, dass wir es mit heteroskeclastischem
Datenmaterial zu tun haben, da die Streuung der quadrierten Residuen immer mahr zunimmt Je mehr wir uns In der Grafik von links nach rechts bewegen.

531

4. Verletzungen der Annahmen des klassischen Regressionsmodells

""m
""m
,.000

:l

10000

.'

'000

mo

ZXl

UD

!Dl

400

I!IXI

RnED

Untersuchen wir zustzlich, ob eine Abhngigkeit zwischen den einzelnen erklrenden


Variablen und den quadrierten Residuen bestehen knnte. Wir tragen dazu auf der xAchse die jeweiligen Variablenwerte und auf der y-Achse die quadrierten Residuen ab.
Wie wir erkennen knnen, zeigt sich sehr schn eine mit x" zunehmende Varianz der Residuen. Fr X, ergeben sich zwar bei 4, 5 und 6 Zimmern auch etwas hhere Varianzen,
doch ist die Heteroskedastizitiitsstruktur hier nicht so klar wie fr x". Es empfiehlt sich daher zum Treffen einer sichereren Aussage, diese grafische Analyse um formale statistische
Tests zu ergnzen, die wir in den beiden Folgeabschnitten IV 4.4.3.2 und IV 4.4.3.3 behandeln.
,",000

,",000

",000

",000

,.000

:l

~I
,"000

10000

'000

I i ,

'000
7

"

4.4.3.2

"000

100

,"
150

.
zn

,.

25)

300

3Ii)

-400

Breusch-Pagan LM-Test

Betrachten wir ein Modell


Y, = ~,

+ ~,XII + ~2X2I + ... + ~KXKl + E, ,

(IV4: 34a)

in dem
(IV4: 34b)

gilt, die Annahme der Homoskedastizitt also verletzt ist. Fr ein solebes Modell
sieht der Breusch-pagan LM-Test folgende Vorgehensweise zur Aufdeckung der
Heteroskedastizitt vor: 32

32 Diese Variante des ursprnglich von Breusch, T., Pagan, A. (1979) und Godfrey, L.G.
(1978) entwickelten Tests wurde von Koenker, R. (1981) vorgeschlagen.

IV Einfiihrung in die konometrie

532

Zunchst wird das Modell (IV4: 34a) geschtzt, um die Residuen e, zu erhalten.
Diese werden dann verwendet um die Hilfsregression
(IV4: 35)
zu schtzen, in der die Zpi Variaben sind, von denen angenommen wird, dass sie
die Varianz des Strtenns bestimmen. Wir erkennen daran, dass die e~ auch hier
als Proxies fr die unbekannten
dienen.

0;

Auf Basis der Hilfsregression (IV4: 35) wird schlielich das Hypothesenpaar

Ho : Cl! = Cl, = ... = a. =


(Homoskedastizitt)
HA : mindestens ein Clp ungleich Null (Heteroskedastizitt)

(IV4: 36)

untersucht. Dahinter steckt die einfache Idee, dass wenn u 1 = u 2 = ... = u p = 0 gilt,
die Varianz der Strterme einer Konstanten Cl, entspricht. Es gilt nmlich dann
e: = U o + u i und die e: sind ja, wie bereits gesagt, die Proxies der
Fr die Testentscheidung wird dann die LM-Statistik

a: .

LM=nR'

(Iv4: 37)
bestimmt, wobei n der Stichprobenumfang bei der Berechnung der Hilfsregression
und R' das Bestimmtheitsma der Hilfsregression (IV4: 35) ist. LM folgt bei korrekter Nullhypothese asymptotisch einer Chi-Quadrat-Verteilung mit P Freiheitsgraden.
Zu einer Ablehnung von H, und damit der Folgerung von Heteroskedastizitt
kommt es, wenn die LM-Statistik grer als der kritische Wert X;-a.p bzw. der pWert geringer als das gewhlte Signiftkanzniveau ist.
(IV4: 35) lsst vermuten, dass wir mit dem Breusch-Pagan LM-Test nur lineare Formen von Heteroskedastizitt bercksichtigen knnen. Breusch und Pagan haben
jedoch gezeigt, dass der Test allgemein Heteroskedastizitt in Bezug auf jede kontinuierliche Funktion h(Clo + ClIZ" + a,Z,; + ... + ClpZp;) entdeckt. Fr die Durchfhrung des Tests ist es daher nicht notwendig die exakte Form der Heteroskedastizitt zu formulieren. Wir erkennen auch, dass der Breusch-Pagan LM-Test die
Variablen Zp nicht genauer spezifiziert. In empirischen Anwendungen werden die
Zp daher meist durch alle oder eine Teilmenge der Regressoren ersetzt.
Von besonderer Bedeutung bei diesem Test ist, dass in der Literatur zwei verschiedene Varianten zu finden sind. Die von uns vorgestellte LM-Variante ist wie jeder
Lagrange-Multiplier-Test (LM-Test) nur fr groe Stichproben geeignet, d.h. wir
erhalten die genannte Verteilung der Teststatistik nur asymptotisch. Eine Normalverteilungsannahme fr die Strterme des zu testenden Regressionsmodells ist hier
nicht eiforderlich. In seiner Urform wurden zur Testdurchfhrung in (IV4: 35) an
Stelle der e~ die Variablen p; = e~ / a' mit 6' = r.e~ / n verwendet. Die Teststatistik wurde als 0,5 . ESS bestimmt, wobei ESS die erklrte Quadratesumme der Testregression war. Wichtige Annahme bei dieser Variante des Tests ist die der Nor-

malverteilung der Strterme E,. Nur bei Homoskedastizitt und Normalverteilung


der E, folgt die Teststatistik 0,5 . ESS asymptotisch einer Chi-Quadrat-Verteilung mit
P Freiheitsgraden. Es ist daher besonders im Zusanunenhang mit dieser ursprnglichen Testvariante empfehlenswert die Annahme der Normalverteilung der E, auf
ihre Gltigkeit zu testen. In der Praxis wird dies aber meist vernachlssigt, da hufig Testverfahren verwendet werden, die die Annahme der Normalverteilung nicht

533

4. Verletzungen der Annahmen des klassischen Regressionsmodells

erfordern. Zu diesen zhlt die vorgestellte 1M-Variante des Breusch-Pagan-Tests


oder der White-Test (vgl. Abschnitt N 4.4.3.3).

BeleplellV 4-17

Breusch-Pagan LM-Test Q .

Im Beispiel IV 4-16 haben wir durch eine erste grafische Analyse bereits grobe Hinweise
auf vorliegende HeteroskedastizitAt in unserem Eigentumswohnungsmodell bekommen.
Versuchen wir nun diese Indizien minels eines Breusch-Pagan LM-Tests statistisch zu untermauem. In EViews knnen wir diesen Test im Fenster der geschtzten Gleichung unter
View I Residual Tests I Heteroskedasticily Tests I Breusch-Pagan-Godfrey durchfUhren.
Standardmig wAhlt der Test die erklrenden Variablen des Modells als ErklrungsgrOBen far die Varianz des StOrierms. Benutzerclefinierl knnen jedoch auch andere Variablen
angegeben werden. Mit den Slandardeinstellungen erhalten wir folgendes Testergebnis:
Heteroskedasticily Test: Breu.ch-Pagan-Godfrey
F-statistic
Obs*R-squared
Scaled explainecl SS

36.90217

38.82828
49.27408

Test Equatlon:
Dependent Variable: RESID"'2
Method: Least Squares
Coefficienl
Variable
-10395.99
C

Xl
X2

R-squared
Adlusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-WBtson slst

996.1071
47.11066

OA78858
0.466855
3483.268
9.71 E+OB
-793.1694
1.946427

Prob. F(2,BO)
Prob. Chi-Square(2)
Prob. Chi-Square(2)

0.0000

0.0000
0.0000

Sampie: 183
Included observations: 83
Std. Error
t-Statistic
Prob.
-5.600993
0.0000
1856.098

1.785583

0.0780

7.476174
6.301439
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.0000

557.8609

2905.464
4770.504
19.18480

19.27223
36.90217

0.000000

Wir knnen hieraus unseren LM-Wert 39,8283 ablesen. Er ist grOer als der kritische Wert
5,99, den wir bei einem Signifikanzniveau von 5 % aus einer Chi-Quadrat-Verteilung mit
zwei Freiheitsgraden (entspricht Anzahl der erklrenden Variablen In der HIlfsregression)
ablesen knnen. Wir knnen die Nullhypothese der Homoskedastizitt ablehnen. Alternativ
zeigt uns dies auch der deutlich unter 0,05 liegende p-Wert zur LM-Statistik von 0,0000.
Wichtig ist auerdem, dass wir anhand der Testgleichung sehen, dass nur der geschlitzte
Parameter der Variable ~ signifikant von Null verschieden ist. Dies deutet darauf hin, dass
die Varianz des stochastischen Strterrns nur von der Variable ~ abhngen knnte. Dies
ist eine hilfreiche Infonnation fUr die Bekmpfung der Heteroskedastizitl.

4A.3.3

Wbite-Test

Als Alternative zum Breusch-Pagan 1M-Test bietet sich der White-Test an.33 Er ist
ein fr groe Stichproben zu verwendender Lagrange-Multiplier-Test, der im Vergleich zum Breusch-Pagan 1M-Test fr die ~ eine konkrete Belegung vorsieht.
33 Vgl. White (1980).

IV Einfiihrung in die konometrie

534

Betrachen wir ein multiples Regressionsmodell der Form


Yj = o + ,Xll + 2 X 2i + Ei'

(IV4: 38)

so sieht der White-Test zunchst die Schtzung dieses Modells zur Erlangung der e,
vor. Diese werden zur Schtzung der Hilfsregression
aV4: 39)
herangezogen. Nach Formulierung des Hypothesenpaars
Ho : 1X, = IX, ... = IXs = 0

(Homoskedastizitt)

HA : mindestens ein IXp ungleich Null

(Heteroskedastizitt)

av4: 40)

wird die LM-Statistik


LM=nR'

aV4: 41)

berechnet, die bei korrekter Nullhypothese asymptotiscb einer Chi-QuadratVerteilung mit Freiheitsgraden in Hhe der Anzahl der erklrenden Variablen P in
der Hilfsregression (hier 5) folgt. n ist hierbei der Stichprobenumfang in der Hilfsregression und R' ihr Bestimmtheitsma. Ist LM grer als der kritische Wert aus
der Chi-Quadrat-Verteilung oder der p-Wert kleiner als das gewhlte Signifikanzniveau, so kann Ho abgelehnt werden.
Die Anwendung des White-Tests ist trotz seiner Vorteile mit Vorsicht zu genieen.
Weist ein Regressionsmodell nmlich viele erklrende Variablen auf, so knnen
ihre Kreuzprodukte, die in der Hilfsregression av4: 39) entstehen, sehr schnell zu
einer Aufzehrung von Freiheitsgraden fhren. Im Fall von 3 erklrenden Variablen
wrden sich in der Hilfsregression schon 9 Terme ergeben. In einem solchen Fall
empfiehlt sich folgender Ausweg: 34
An Stelle einer Hilfsregression des Typs (IV4: 39) schtzen wir
(IV4: 42)

y;2

wobei Y; wie gewohnt eine lineare Funktion aller x,. ist und
als eine Funktion
aller Quadrate und Kreuzprodukte der erklrenden Variablen interpretiert wird.
Unabhngig von der Anzahl der erklrenden Variablen in der ursprnglichen Gleichung knnen wir die Nullhypothese der Homoskedastizitt bzw. Ho: IX, - IX, - 0
dann ebenfalls unter Nutzung von (IV4: 41) prfen, wobei hier dann natrlich das
R' der Schtzung von aV4: 42) zu verwenden ist und eine Chi-Quadrat-Verteilung
mit zwei Freiheitsgraden zugrunde liegt.
Nun noch eine wichtige Amnerkung zu Spezifikationsfehlern: Ist das Ergebnis eines
White-Tests die Ablehnung von Ho, so muss dies nicht zwangslufig ein Beweis fr
vorliegende Heteroskedastizitt sein. Es wird nmlich hufig argumentiert, dass der
White-Test sowohl als Test auf Heteroskedastizitt als auch als Test auf Spezifikationsfehler (oder beides) betrachtet werden kann. Es knnte also genau so gut sein,
dass ein Spezifikationsfehler fr ein derartiges Testergebnis verantwortlich ist. 35

34 Vgl. Wooldridge (2006), Kapitel 8.


35 Thursby (1982) und Harris (1995) betrachten dieses Problem hn Detail.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

535

BoloplollV4-18

While-TestQ.

FOhren wir unsere PrOfung auf HeteroskedastizitAt zu unserem Eigentumswohnungsmodell, nun mit dem White-Test durch. Wir knnen diesen in EViews analog zum BreuschPagan LM-Test finden und erhalten folgendes Ergebnis:
Heleroskedasticily Test: White
F-slalislic
22.75451
48.48838
Obs*R-squared
Scaled explalned SS
61.23883

Prob. F(5,77)
Prob. Chi-Square(5)
Prob. Chl-Square(5)

Test Equatlon:
Dependent Variable: RESID"2
Method: Least Squares
Variable

Xl
X1"2
XlX2
X2

Adjusted R-squared
S.E. of regression
Sum squared resid
log likelihood
Durbin-WBtson slst

0.0000

0.0000
0.0000

Sampie: 183
Included observations: 83

Coefficient
4677.442
4802.538
-785.0540

Std. Error

t-Statistic

Prob.

6658.538
2883.701
407.3703

0.702473
1.665408
-1.927126

0.4845
0.0999
0.0577

11.49817

7.522548

1.528494

0.1305

-153.6837

43.17567

-3.559497

0.0006

0.570169

4770.504

3127.615

19.00347
19.17833

7.53E+08
-782.6441

22.75451

1.909937

0.000000

Der p-Wert unserer LM-Statisik liegt bei 0,0000, was bei einem Signifikanzniveau von 5 %
wieder deullich zu einer Ablehnung der Nullhypothese der Homoskedastizitiit fuhrt.
Unsere alternative Testmglichkeit bzw. die Hilfsregression (IV4: 42) ist im Folgenden ge2
schtzt. Wir knnen aus den Ergebnissen LM '" n . R '" 83 . 0,530 '" 43,99 berechnen. Bei
einem Signifikanzniveau von 5 % knnen wir dieser Statistik den kritischen Wert 5,99 aus
der Chi-Cluadrat-Verteilung mit 2 Freiheitsgraden gegenOberstelien. Da der LM-Wert grer ist als der kritische Wert, lehnen wir auch hier die Hypothese Homoskedastizitit ab.
Dependent Variable: E_2
Method: Least Squares
Variable

FITIED
FITTEO"2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
log likelihood
Durbin-Watson slat

Coefficient
12623.82
-96.87370

0.204841
0.530828
0.518894

3465.855
9.61E+08

-792.7534
1.861117

Sampie: 183
Included observations: 83
t-Statistic
Std. Error
Prob.
6136.174
2.057279
0.0429
37.54212
-2.580400
0.0117

0.053987

3.794288

Mean dependent var


S.O. dependent var
Akaike info criterion
Schwarz criterion
F-stalistic
Prob{F-Slatistic)

0.0003
2911.618
4996.776

19.17478
19.26221

45.22026
0.000000

536

IV Einfiihrung in die konometrie

4.4.4

Vorgehensweise bei festgestellter Heteroskedastizitt

Geben unsere Prfverfahren Hinweise auf Heteroskedastizitt, besteht der nchste


Schritt darin, das vorliegende Modell noch einmal grndlich zu betrachten. Es ist
sicherzustellen, dass keine klaren SpeZifikationsfehler (v.a. vernachlssigte Variablen) vorliegen, die die festgestellte Heteroskedastizitt verursacht haben knnten.
Knnen derartige Spezifikatlonsjehler ausgeschlossen werden und liegen groe
Stichproben vor, so knnen die ersten beiden der folgenden Verfahren zur Bekmpfung der nachteiligen Effekte von Heteroskedastizitt angewendet werden. Im
Falle von durch Spezifikationsfehler verursachter Heteroskedastizitt gilt es diesen
Spezifikationsfehlern zu begegnen.

4AA.l

Gewichtetes Prinzip der kleinsten Quadrate (WLS)

Die Anwendung des gewichteten Prinzips der kleinsten Quadrate (WLS, eng!.
weighted least squares) fhrt im Vergleich zur originren Schtzung ZU neuen, effizient geschtzten Regressionsparametern, korrekten Standardfehlern und damit
auch richtigen t-Werten. WLS sorgt nmlich durch seine Methodik dafr, dass die
aLS-Schtzer wieder BLUE sind. Zum besseren Verstndnis betrachten wir dafr
das multiple Modell
(IV4: 43a)
in dem
Var(E) =

0:

(IV4: 43b)

gilt, sonst jedoch alle weiteren Annahmen des CLRM erfllt sind. Dividieren wir
nun beide Gleichungsseiten von (IV4: 43a) durch die Standardabweichungen der
stochastischen Strterme G, bzw. gewichten jeden Term mit 1/G, so erhalten wir
Y,
0'1

_R

-Po

~
0'1

+P1

X"
O'j

+P2

X"
0'1

+"'+PK

X",
0'1

+ Ii
0'1

(Iv4: 44)

(IV4: 45)
Fr dieses modifizierte Modell gilt nun
Var(E')
= var(IiJ = Var(E)
= 1
,
2 '
0'1

0'1

(IV4: 46)

Die Varlanzen der stochastischen Strterme des Modells (IV4: 45) sind also konstant (gleich Eins), d.h. homoskedastisch. Wir knnen daher mit aLS schtzen,
wenn wir einfach die transfonnierten Variablen verwenden. Die im Zuge der Schtzung von (IV4: 45) verwendeten aLS-Schtzer werden auch als WLS-Schtzer bezeichnet. Sie sind aufgrund von (IV4: 46) wieder BLUE.
Das Prinzip von WLS ist auf Anhieb einleuchtend, doch hat es ein bedeutendes
praktisches Problem. Die Werte G~ und damit auch die 1/G, sind nmlich unbekannt, sodass eine Schtzung von (IV4: 45) nicht ohne explizite Annahmen zur
Struktur der G~ durchgefhrt werden kann. Nehmen wir beispielsweise an, dass
sich die Struktur der 0: wie folgt darstellt:

537

4. Verletzungen der Annahmen des klassischen Regressionsmodells

VarCe, ) = 0; = a'z,
Z ist dabei eine Variable, von der wir glauben, dass sie als einzige a~ beeinflusst
und deren Werte fr alle i bekannt sind. Wre Z eine der erklrenden Variablen ~,
so wrden wir durch (N4: (7) eine struktur wie in Abbildung rv 23 (b) unterstellen.56 Dividieren wir nun jeden Term in (N4: 43a) durch
so erhalten wir

.JZ: '

~=~o b-+~, ~+~, ~+ ... +Il.

"ZI

"ZI

"ZI

"ZI

X#+

"ZI

"ZI

<XV4,48)

bzw. wieder in anderer Symbolik eine Form (N4: (5). Wir knnen dann in diesem
Fall fr die Varianzen der e~ Folgendes feststellen:

VarC~)

= Var

( P.)
-~-

Fr

VarCp.)
= --'::~~~

z,

Dies zeigt, dass das Problem der Heteroskedastizitt im modifizierten (gewichteten)


Modell nicht mehr auftritt. Wir knnen also (N4: (8) mit OLS schtzen und unsere
Schtzer sind wieder effIzient, vorausgesetzt unsere Strukturannahme (N4: (7) ist
korrekt. Auch unsere t-Werte sind dann wieder verwendbar. Das Jt aus der Regression Crv4: (8) kann jedoch nicht mehr als Bestimmtbeitsmafr Y interpretiert werden. Es gibt nun den Anteil der Variation von Y l../z an, der durch die X~ erklrt
wird. Es handelt sich dabei aber um nur schwer interpretierbare Variablen.
Bei der Betrachtung von (IV4: (8) fllt auf, dass die Modellgleichung keinen konstanten Term mehr aufweist, da Po zum KoeffIzienten von 11.JZ: wird. An der Interpretation der Koeffizienten im Vergleich Zum Ursprungsmodell ndert sich jedoch nichts. Nerunen wir z.B. Var(E) - ~ = a2~ also ZI = X21 an. Wir erhalten
dann aus (N4: (8)

~=~" ,b-+~. ~+~, ~+ ... +~< ~+ ~.

"Xli

"Xli

"X2i

"~i

"Xli" X 2i

<XV4,50)

In (N4: 5~) geb~ die ~ (k - 1,2, ... ,10 weiterhin d~n"partiellen Einfluss von ~ ~uf

l' ...,

Y an. Schtzen W1I" das neue Modell, so erhalten W1I" Po und


x:. IntereSSleren wir uns also fr den heteroskedastizittsfrei geschtzten Parameter von ~, so
erhalten wir diesen als Schtzung des Koeffizienten von X2i 1.,Jx;: in (N4: 50).
Bentigen wir die Schtzung des konstanten Terms Po> so finden wir diese als
Schtzung des Koefflzienten von 11.,Jx;: in (N4: 50).

BeispielIV 4-19

WLSQ.

Nehmen wir in unserem EigentumS'NOhnungsmodell aus Beispiel IV 4-16 an, dass es sich
bei dem dortigen Modell um ein korrekt spezilizienes handelt. (Das geschtzte Modell besteht auch den Ramsey RESET.) Zustzlich unterstellen wir, dass es allein die erklrende
Variable X:z (Wohnllche) ist, an die die Varianz des StOrterms gebunden ist. Unsere grafi-

56 SeIbstverstndlich sind auch andere Strukturannahmen bzw. funktionale Beziehungen zwischen der Varianz von t; und Z denkbar. Abbildung IV 24 (e) wrden wir etwa
ber Var(Et) = = cfZ: modellieren und im Folgenden mit 1/~ transformieren.

0:

538

IV Einfiihrung in die konometrie


sche Analyse im Beispiel IV 4-16 und der Breusch-Pagan LM-Test im Beispiel IV 4-17 gaalso eine
ben Hinweise darauf. Konkret gehen wir davon aus, dass Var(E;} = ~ =
Struktur wie in Abbildung IV 23 (b) voliegt. Die WLS-Schtzung erfolgt daher mit den Gewichten 1/,JX;, . In EViews knnen wir eine WLS-Schtzung durchfiihren, indem wir bei
der Gleichungsformulierung unter Quick / Estimate Equation / Options die Option 'Weighted LS/TSLS" aktivieren und das Gewicht als )(2'(-.5) eingeben. Die WLS-Schtzung liefert dann folgendes Ergebnis:

a'x,,!,

Sampie: 183
Included observations: 83

Dependent Variable: Y
Method: Least Squares
Welghllng series: )(2'(-.5)
Variable

Coefficient

Std. Error

t-Statistic

Prob.

2.887369

XI
)(2

13.90682
1.152783

28.15137
8.058923
0.117573

0.102566
1.725642
9.804803

0.9186
0.0883
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Weighted
0.638570
0.629534
49.07408
192661.2
-439.3906
1.931483

Statistics
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

281.1948
58.02652
10.66001
10.74744
70.67155
0.000000

Unweighted Statistics
R-squared
Adjusted R-squared
S.E. of regression
Durbin-Watson stat

0.672799
0.664619
54.96184
1.950225

Mean dependent var


S.D. dependent var
Sum squared resid

290.1566
94.90566
241664.3

Vorteil des Regressionsoutputs in EViews ist es, dass in diesem die transformierten Variablen X; nicht auftauchen. EViews ordnet die neuen geschtzten Koeffizienten direkt den
originren Variablen zu. Im Vergleich zu den Regressionsergebnissen des originren Modells ohne Bercksichtigung der Heteroskedastizitt (vgl. Beispiel IV 4-16) fllt auf, dass
die geschtzten Koeffizienten der Variablen X, und X. gesunken sind. Auch die Standardfehler und damit die t-Statistiken und poWerte haben sich gendert. Der Parameter von X.
ist nach wie vor hoch signifikant, derjenige von X, wurde mit einem poWert von nun 0,0883
(vorher 0,0978) etwas signifikanter.

Kritisch ist im Zusammenhang mit WLS anzumerken, dass zum einen die Identifikation des Einflussfaktors Z ziemlich schwierig ist. Zum anderen stellt auch die funktionale Fonn, die den Einfluss von Z auf die Varianz der stochastischen Strterme

beschreibt, ein Problem dar. Ohne ihre Kennmis oder zumindest plausible Annahme kann WLS nicht angewendet werden.
Darber hinaus ist zu bedenken, dass die Varianz von

EI

durchaus auch von mehr-

eren Variablen Z bzw. vor allem in multiplen Regressionsmodellen von allen oder
Teihnengen der erklrenden Variablen in verschiedenen funktionalen Fonmen abhngen kann. In einem Modell
1'; = ~o + ~,X1i + ~2X21 + EI

4. Verletzungen der Annahmen des klassischen Regressionsmodells

539

wre es z.B. denkbar, dass


Var(E,) = cif = ci' . exp(a,Zu + a,Z2i)
gilt, die Varianz also in einer exponentiellen Fonm von zwei Einflussgren abhngt, die auch die erklrenden Variablen des Modells sein knnen. Wir nutzen
hier ausnabmsweise exp(. .. ) zur Darstellung der Exponentialfunktion, um Verwechslungen mit den Residuen e, zu venmeiden. Wanum gerade eine Exponentialfunktion bei der ModelIierung der Varianz des Strtenms eingesetzt wird, lsst sich
wie folgt erklren: Beim Testen auf Heteroskedastizitt haben wir in Abschnitt IV
4.4.3.2 eine lineare Funktion angenommen. Lineare Funktionen sind beim Testen
auf Heteroskedastizitt eine gute Alternative, aber sie knnen bei einer WLS-

Schtzung zu Problemen fhren. Lineare Funktionen garantieren nmlich nicht,


dass die prognostizierten Werte positiv sind. Die Exponentialfunktion garantiert dagegen positive geschtzte Varianzen.
Bei der Durchfhrung der WLS-Schtzung stehen wir vor dem Problem, dass wir
zunchst die unbekannten Parameter IX, und IX, schtzen mssen. Konsistente
Schtzer dafr knnen wir aus den aLS-Residuen e, des Ursprungsmodells durch
Schtzung von
Ine~ = (10 + (11ZU + (l2Z2i + u i
gewinnen}7 Von dieser Schtzung bentigen wir die ro ostizierten Werte (engl.
fitted values). Damit berechnen wir hi = exp(fitted value i) und verwenden diese Gren zur Transfonmation
y

X"

X,.

E.

h,

h,

~= Po ..-----+t-'l---,,---!-+P'2~++

h,

h,

h,

Der Strtenm dieses Modells erfllt schlielich asymptotisch die Annahmen des
CLRM. Bei einem solchen Verfahren, das zunchst Schtzungen fr die Struktur der
Heteroskedastizit (im Beispiel lXo , IX, und IX,) erfordert, sprechen wir auch von
FWLS (eng!. feasible weighted least squares). Ein solches liefert jedoch nur fr
groe Stichproben und bei korrekter Strukturannahme effiziente Schtzungen der
Modellparameter des Ursprungsmodells, da wir die Parameter IX, und IX, nur konsistent schtzen knnen. In kleinen Stichproben sind die Abweichungen von IX, und
IX, von iliren wahren Werten noch ZU gro. FWLS ist daher in kleinen Stichproben
nicht unbedingt effizienter als aLS.
FWLS-Schtzungen erfordern die korrekte Erfassung der Heteroskedastizittsstruktur der Grundgesamtheit. Die von uns vorgestellten Testverfahren auf Heteroskedastizit sind zu allgemein. Sie testen nicht auf spezielle Strukturen, was aber gerade fr die FWLS-Prozedur von enonmer Bedeutung ist. Es sind daher hier speziellere Testverfahren erforderlich, mit denen auf konkrete funktionale Fonmen getestet
werden kann.38
4.4.4.2

White Standardfehler

Da im Falle von Heteroskedastizitt die aLS-Schtzer der Regressionsparameter erwartungstreu bleiben, jedoch die Schtzer fr ihre Varianzen bzw. Standardfehler
37 Fr eine detaillierte Beschreibung dieses Verfahrens vgl. Verbeek (2008), Kapitel 4.
38 Vgl. dazu Verbeek (20OS), Kapitel 4.

IV EinfOhn.mg in die Okonomebie

540

verzerrt und inkonsistent sind, schlug White eine Methode vor, mit der sich konsistente Schtzer der Standardfehler gewinnen lassen.39 Fr groe Stichproben und
bei Heteroskedastizitt liefern die White-Schtzer genauere Schtzungen der Standardfehler als die OLS-Methode sie ergibt.

OLS schtzt den Standardfeh1er des Steigungsparameters aufgrund der Homoskedastizittsannahme im einfachen Regressionsmodell, wie wir unter IV 2.3.1 aufgefhrt und unter IV 4.4.2 hergeleitet haben, nach

Var<,l =

a'

LX:

mit

a' = Le~

n-2

In der Prsenz von Heteroskedastizitt wre aber ein Schtzer notwendig, der sich
des Zusammenhangs (IV4, 32bl, also

""

Var(,l = L..'G'~,

(Lx~)'

bedient. Genau hier setzt White an und schlgt vor, in dieser Formel die ~ durch
die quadrierten Residuen e~ zu ersetzen. Wrr erhalten damit einen konsistenten
Schtzer der Varianz von ~. Die Wurzel davon wird als Whlte oder heteroskedastiekoll5Jstenter Stand.ardfehler bezeiclmet. In Hypothesentests empfiehlt es
sich bei Heterosked.astizitt in groen Stichproben auf diese und nicht auf die von

Q.

OLS gelieferten Standardfehler zurckzugreifen. Die Ausgabe von White Standardardfehlem ist mittlerweile in jedem konometrlesoftwarepaket mglich. Wie wir
im folgenden Beispiel sehen werden, verndert die Verwendung von White Standardfehlem natrlich weder das RZ einer geschtzten Gleichung noch die geschtzten Koeffizienten. EViews berechntet lediglich andere Standardfehler, t- und pWerte. Im Vergleich zu WLS werden also nicht die effizientesten Schtzungen der
Koeffizienten geliefert. In der Praxis werden aber dennoch komgierte Standardfebler bevorzugt, da sich damit das Fehlerpotenzial durch ggf. fehlerhafte Heteroskedastizittsstrukturannahmen bei WLS bzw. FWLS vermeiden lsst.

Beispiel IV 4-20

White Standardfehler

In Beispiel IV 4-19 begegneten wir der vorlIegenen HeteroskedasUzttat durch WLS. Wir
haben dabei festgestellt, dass sich durch WLS sowohl die gesch.tzten Regressionskoeffizienten als auch die Standardfehler der geschtzten Koeffizienten (und daraus resultierende Gren) verAndem. Betrachten wir nun das SchAlzergebnis unter Verwendung von
White Standardfehlem. In EViews ist die Berechnung der White Standardfehler eine Option
bei der Eingabe der Regressionsgleichung (Quick I Estimate Equalion I Options - Heleroskedasticily consistent coefficient covariance - White). Im Vergleich zum originiiren Regressionsoutput des untersuchten Modells im Beispiel IV 4-16 haben sich anders als bei
WLS die geschAtzten Koeffizienten nicht verlndert. Lediglich die Standardfehler wurden
korrigiert, was fUr die Teslentscheidung verlsslichere t- und poWerte liefert.
Wie wir bei einem Vergleich mit den Ergebnissen in Beispiel IV 4-16 erkennen, hat die HeteroskeciastizitAt zu einer UnterschAtzung der Standardfehler geffihrl. Mit White Standardfehlern bleibt der Parameter von ~ hochgradig signifikant, der Parameter von X1 kann nun

39 Vgl. White (1980).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

541

jedoch nicht einmal mehr bei einem Niveau von 10 % als signifikant betrachtet werden.
Durch die WLS-Prozedur in Beispiel IV 4-19 hatten wir ein solches Resultat nicht erhalten.
Die Ursache fOr die unterschiedlichen Ergebnisse knnte darin begrOndet liegen, dass die
WLS-Schtzung effizienter ist (und damit kleinere Slandardfehler ausweist), oder darin,
dass die im Rahmen der WLS-Schtzung getroffene Strukturannahme fr die Varianz des
stochastischen Strterms evtl. unzureichend ist. Mglicherweise hngt die Varianz doch
von mehr als einer Variablen ab und ggf. auch von solchen, die nicht im Modell enthalten
sind. Aufgrund dieses "Modellrisikos" sind die Ergebnisse auf Basis korrigierter Standardfehler als robuster zu betrachten, auch wenn der hier vorliegende Stichprobenumfang nicht
sonderlich gro ist, d.h. die White Standardfehler noch nicht ihre optimalen Werte annehmen.
Dependent Variable: Y
Sampie: 183
Method: Least Squares
Included observations: 83
White Heteroskedasticity-Consistent Standard Errors & Covariance
Variable
C

XI
X2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic}

4.4.4.3

Coellicient
7.283603
14.73197
1.187676
0.673491
0.665328
54.90372
241153.5
-448.7074
82.50802
0.000000

Std. Error
t-Statistic
43.51222
-0.167392
10.68026
1.379364
0.186955
6.352756
Mean dependent var
S.D.dependentvar
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson slat

Prob.
0.8675
0.1716
0.0000
290.1566
94.90566
10.88451
10.97194
10.91964
1.956455

Variablenredefinition

Neben den formalen Verfahren der beiden vorangegangenen Abschnitte besteht


auch die Mglichkeit die Variablen eines Regressionsmodells so umzudefinieren,
dass damit Heteroskedastizitt vermieden wird. Dabei ist jedoch Vorsicht geboten,
da damit die Modellspeziftkation verndert wird, wodurch sich die Bedeutung der
Regressionsgleichung ndern kann.
In vielen Fllen ist es zur Beseitigung von Heteroskedastizitt ausreichend von

einer Itnearen funktionalen Form auf eine Doppel-Log-Form zu wechseln. Diese unterliegt nmlich aufgrund ihres Wesens geringerer Variation als die lineare Fonn,

sodass die Wahrscheinlichkeit auftretender Heteroskedastizitt geringer ist. Zustzlich ist die Verwendung einer Doppel-Log-Form in vielen Studien ebenso gerechtfertigt, wie die der linearen Fonn. Dies gilt insbesondere, wenn die lineare Fonn
nur aufgrund der Tatsache gewhlt wurde, dass sie eine Standardform darstellt.
Manchmal hilft es auch, die Variablen nicht absolut, sondern in Pro-Kopf zu definieren. Analysieren wir beispielsweise die Ausgaben verschiedener Gemeinden in

Abhngigkeit vom jeweiligen Gesamteinkommen der Bevlkerung, so verwenden


wir besser Pro-Kopf-Ausgaben und Pro-Kopf-Einkommen.

IV Einfiihrung in die konometrie

542

4.5 Autokorrelation
Thema dieses Abschnitts ist die Korrelation des stochastischen Strtenns bzw. die
Verletzung von Annahme 4 des CLRM. Sie tritt hufig in Zeitreihendaten auf, sodass
wir uns in den Fonneln dieses Abschnitts fr die Verwendung des Variablensubskripts t entschieden haben. Nehmen wir z.B. an, eine Regressionsfunktion erklre die Geldnachfrage durch verschiedene Variablen. In einem solchen Fall kann
eine unerwartete nderung der Geldpolitik der Zenttalbanken einen Schock auslsen, der sich im Strtenn niederschlgt und gewhnlich mehrere Perioden Auswirkungen auf die Geldnachfrage hat. Dies bedeutet, dass der Strtenn in jeder
Periode nicht nur Schocks aus dieser Periode, sondern auch Nachwirkungen von
frheren Schocks beinhaltet. Dies fhrt dazu, dass die Strtenne der verschiedenen
Perioden miteinander korreliert sind. Wir sprechen dann von Autokorrelation (eng!.
serial correlation) des Strtenns.

4.5.1

Formen und Ursachen von Autokorrelation

Wir sprechen allgemein von Autokorrelation, wenn Annahme 4 des CLRM, also die
der Unkorreliertheit des stochastischen Strtenns, verletzt wird. Sie liegt also vor,
wenn Folgendes gilt:

(IV4: 51)
Der einfachste Prozess, der zu Autokorrelation fhrt, ist ein autoregresstver Prozess
erster Ordnung oder kurz AR(l)-Prozess. Hier hngt der Wert des Strtenns in der
Periode t vom Strtenn der Vorperiode t - 1 ab, d.h. es gilt
E,

q,

=cpEH +u,

mit

1q,1 <1.

(IV4: 52)

ist dabei ein Parameter und u ein klassischer (nicht autokorrelierter) Strtenn,
j

d.h. es liegt u, - NID(O,<r.) vor (NID, eng!. nonnally and independently distributed).40 Wie zu erkennen ist, wird der Strtenn E, in zwei Komponenten zerlegt. Die
erste Komponente besteht in der Strung, die in der Periode t-l bereits wirksam
war und nun in abgeschwchter Fonn I q, I < 1 auch in Periode t wirksam wird. Die
zweite Komponente ist die neue Strung u" die erst in Periode t aufgetreten ist. Wir
beschrnken die mglichen Werte von q, bewusst auf ein Intervall zwischen -1 und
1, da fr Werte auerhalb davon schwerwiegende Folgen auftreten wrden. Nehmen wir beispielsweise an, dass E,_, - 0 und u, 0 gilt. Selbst wenn in den Folgeperioden keine weiteren Strungen auftreten (u~, - u., - ... - 0), nhern sich die

Strgren

EI+l1 Et+2

usw. nicht mehr dem Wert Null an, sondern verharren auf

U tt

falls q, - 1. Fr I q, I > 1 wrden die Strgren in diesem Fall sogar ber die Zeit
ins Unendliche wachsen. Ist bei einem AR(1)-Prozess I q, I < 1 und sind damit diese
Eigenschaften ausgeschlossen, wird er auch als stationr bezeichnet. Bei einem
stationren Prozess sind U.a. sein Envartungswert und seine Varianz konstant. Mit
weiteren Eigenschaften stationrer Prozesse werden wir uns im Abschnitt N 4.7.2.1

noch nher beschftigen.


40 AR-Prozesse knnen nicht nur autokorrelierte Strterme beschreiben. Unter N 4.7.1.2
werden wir sehen, dass man sie auch direkt fr die Modellierung von Y verwenden kann.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

543

Analysieren wir nun den Strtenn der Fonn (IV4: 52) etwas nher. Wir knnen zunchst festhalten, dass fr den Erwartungswert von e, trotz AR(1)-Prozess weiterhin
E(e) = 0 gilt. Es gilt nmlich zunchst

+ E(u,).
Unterstellen wir Stationaritt und damit I cp I < 1 fr den AR(1)-Prozess, so folgt darE(e,) = cpE(eH

aus E(e,) = E(eH

(konstanter Erwartungswert) und wir knnen


E(e,) = cpE(e,) + E(u,)

schreiben. Da I cp I < 1 gilt, folgt daraus


E(e,) = E(u,) .
l-cp
Da E(u) = 0 ist, folgt unmittelbar E(e)
(IV4: 53) nicht definiert.

(Iv4: 53)

O. Wre cp = 1, so wre die rechte Seite von

Die Varianz von E, erhalten wir mit (IV4: 52) als


Var(e,) = cp'Var(eH ) + a~,
woraus sich unter Annahme der Stationaritt und damit Var(e,) = Var(eH
stante Varianz)

(kon-

Var(e,) = cp'Var(e,) + ~
bzw.
Var(e)
,

=~=a'
l-cp'

(IV4: 54)

ergibt. ci' symbolisiert hierbei die unbedingte Varianz von e,. Neben dem Erwartungswert ist also auch die Varianz fr alle e, identisch. Sie ist konstant und damit
ist e, homoskedastisch. Bisher sind also trotz AR(1)-Strtenn weder Annahme 2a, 2b
oder 3 verletzt.
Bevor wir mit unseren Betrachtungen fortfahren, mssen wir an dieser Stelle die
Begriffe Autokovarianz und Autokorre1ationskoefzient nher erlutern. Es
handelt sich dabei um Mae, die uns den linearen Zusammenhang aktueller und
vergangener Variablenwerte aufzeigen. Stellen wir den Realisationen einer Variab-

len X in Periode t jeweils die Realisation der Vorperiode t-l gegenber und berechnen mit diesen Wertepaaren die Kovarianz bzw. den Korrelationskoeffizienten,
so sprechen wir von einer Autokovarianz bzw. einem AutokorrelationskoefflZienten
erster Ordnung. Wir schreiben
(Iv4: 55)
und
Corr(X v
" "H

) = Cov(X" XH

a(X,) . a(X H

)
) ,

(Iv4: 56)

wobei ae. .. ) die Standardabweichung der jeweiligen Gre darstellt. Stellen wir jeweils die Realisation vor s Perioden gegenber, sprechen wir von .-ter Ordnung.
Da sich in der Praxis hufig allein auf die Autokorrelation konzentriert wird, verwendet man fr sie in der Regel ein eigenes Symbol und schreibt P. = COrr(X" x,).

544

IV Einfiihrung in die konometrie

Es gilt -1 ,,; P. ,,; 1. Setzt man die Autokorrelationswerte P. fr alle s = 1, 2, ... aneinander, so spricht man bei der resultierenden Reihe auch von der Autokorrelationsfunktion der Variable X. Die zugehrige grafische Darstellung mit s auf der
x-Achse und P. auf der y-Achse heit Korrelogramm.
Nun zurck zu unserem AR(1)-Strtenn: Die Kovarianz zweier aufeinanderfolgender Strgren bzw. die Autokovarianz erster Ordnung des Strterms berechnen
wir im Falle eines AR(1)-Prozesses wie folgt:41
COV(E"EH ) = E[(E, - E(E,)(EH - E(EH )]
=E(E,E,_,}=E(cpeH +U,)EH )
= .pE(E:_,) + E(U,EH

Setzen wir hier E(E:_,) = Var(E,) = a' ein und bercksichtigen E(u,EH ) = 0, da die
Strgre u, annahmegem nicht mit frheren Strungen korreliert ist, ergibt sich
COV(E"EH) =.pa' ,. 0,
was klar Annahme 4 verletzt und uns zum Autokorrelationskoeffizienten
_ COV(E"EH )
COlT( Et,Et _ 1 ) a(E,) . a(EH )

.pa' _ '"
- 't'
aa

(Iv4: 57)

fhrt. Der Parameter .p in (N4: 52) gibt also direkt den Wert des Autokorrelattonskoeffizienten erster Ordnung von E, bzw. die Korrelation zwischen E, und E~, an.42
Es gilt also P = .p. Ist .p gleich Null, liegt keine Autokorrelation vor. Es wrde nmlich dann in (N4: 52) der Zusammengang E, = u, gelten. Nhert sich .p dem Wert 1
oder -1 an, wird die Ausprgung des Strterms der Vorperiode fr die Bestimmung
des Strtenns der aktuellen Periode immer wichtiger und es existiert sehr hohe
Autokorrelation.

Es lsst sich fr den AR(1)-Prozess weiterhin zeigen, dass COV(E" EH) = .p'a' ,.
und Corr(E"EH) =.p' gilt. 43 Ein AR(1)-Prozess induziert also auch von Null verschiedene Autokorrelattonskoeffizienten hherer Ordnung. Aufgrund -1 < .p < 1
sinken jedoch Autokovarianz und -korrelation mit der zeitlichen Distanz s der Strgren. Die Autokorrelationsfunktion ist damit fallend. Man beachte, dass in der
Literatur bei Vorliegen eines AR(1)-Prozesses hufig nur vom Vorliegen von Autokorrelation erster Ordnung gesprochen wird, auch wenn damit die Autokorrelationskoeffizienten hherer Ordnung von Null verschieden sind. Auch wir wollen
zur begrifflichen Vereinfachung dieser Vorgehensweise folgen.

Zur nheren Veranschaulichung der Gestalt und des verhaltens der Autokorrelationsfunktion von AR(1)-Prozessen betrachten wir in Abbildung N 24 die Korrelogramme fr vier verschiedene AR(1)-Prozesse mit den Parameterwerten cp = 0,1,
cp = 0,5, .p = 0,7 und cp = 0,9. Wie zu erkennen ist, sind fr sehr hohe Werte von cp
die Strtennbeobachtungen in t noch relativ hoch mit sehr weit zurck liegenden
41 Die zweite Zeile ergibt sich hierbei, da E(e) = E(eH ) = O.
42 Wie wir diesen Autokorrelationskoeffizienten schtzen knnen, werden wir im Abschnitt
N 4.5.3.1 im Detail behandeln.
43 Vgl. Pindyck und Rubinfeld (1998), Kapitel 17.2.

545

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Beobachtungen aus t-s korreliert. Schocks aus vergangenen Perioden wirken damit
noch deutlich in allen zuknftigen Perioden nach, wobei ihr Einfluss mit zunehmendem s schwcher wird. Fr kleine Werte von'" fllt die Autokorrelationsfunktion verhltnismig schnell auf nahe Null ab. Sie erreicht jedoch nur exakt den
Wert Null fr s -+ 00. Fr kleine'" wird sich zwar an weit ZWiick liegende vergangenen Schocks lerinnertl , doch fallen diese kaum noch ins Gewicht.

10

Q.

- 0,5

- 0,1

15

II

10

15

- 0,9

- 0,7

10

15

Abbildung IV 24: Autokorrelationsfunktionen von AR(1)-Prozessen


Das Vorzeichen von cl> gibt die Art der Autokorrelation an. Ist '" positiv, bedeutet
dies, dass der StrteIm dazu tendiert von einer Periode auf die andere das gleiche
Vorzeichen zu haben. Auf einen positiven Strterm folgt also wieder ein positiver
und auf einen negativen ein negativer. Wir sprechen in einem solchen Fall von
Posittver Autolwrrelation. Abbildung IV 25 zeigt zwei Beispiele positiver Autokortelation. Die Ausprgungen der Strterme sind hier in chronologischer Reihenfolge
angeordnet. Selbstverstndlich wre auch eine Darstellung mglich, wie wir sie in
Abbildung IV 12 gewhlt haben. Negative Autokorrelation liegt vor, wenn cl> negativ
ist. Der Strterm hat hier die Tendenz in aufeinanderfo1genden Beobachtungen
sein Vorzeichen zu wechseln. Auf positive Strterme folgen also negative, auf
negative positive. Beispiele dafr sind ebenfalls in Abbildung IV 25 zu finden. Dort
ist auerdem ein typischer Fall fehlender Autokorrelation (d.h. 1\1 - 0) enthalten.
Positive Autokorrelation ist in Zeitreiherunodellen hufig auf externe Schocks zurckzufhren, die Auswirkungen auf mehrere Folgeperioden haben. Der Strterm
wird je nach Art des Schocks von mehreren Perioden positiver oder negativer Werte gekennzeichnet sein. Wir begegnen positiver Autokorrelation in der Regel hufiger als negativer. Negative Autokorrelation tritt oft bei Strtermen von Gleichungen
auf, die in ersten Differenzen formuliert sind (vgl. Abschnitt IV 4.3.4), da die Regressionsbeziehung fr die Beobachtungen in t die Gre AE. - e.. - 1:..-, und in t - 1
die Gre .AE.-, - E..-, - ~ als Strterm enthlt.

IV Einfiihrung in die konometrie

546

positiv

E,

E,

positiv

negativ

negativ

E,

E,

E,

fehlend

Abbildung IV 25: Positive, negative und fehlende Autokorrelation


Abgesehen von einem AR(1)-Prozess kann Autokorrelation des Strtenns auch aus
anderen funktionalen Fonnen hervorgehen. So knnte Z.B. in einem Quartalsmodell der im aktuellen Quartal beobachtete Strtenn von dem des Vorjahresquartals abhngen, d.h. eine Fonn E, = cpeH + U, mit I I> I< 1 besitzen. Es besteht ebenfalls die Mglichkeit, dass die aktuelle Strtennbeobachtung von mehr als einer
vergangenen Strtermbeobachtung abhngt:
(IV4: 58)

4. Verletzungen der Annahmen des klassischen Regressionsmodells

547

Wir sprechen in einem solchen Fall davon, dass der Strterm einem autoregressiven
Prozess s-ter Ordnung, kurz AR(s)-Prozess, folgt.44 Autoregressive Prozesse hherer
Ordnung sind jedoch in den meisten praktischen Anwendungen nicht so wahrscheinlich wie solche erster oder zweiter Ordnung. Es empfiehlt sich daher abschlieend noch ein kurzer Blick auf die Eigenschaften eines AR(2)-Prozesses
(IV4: 59a)

Wie sich zeigen lsst,45 gilt hier fr den Erwartungswert und die Varianz von E,
E(E,)

E(u,)
1-cp, -cp,

Var(E ) (1- cp,)a!


, - (1 +cp,)[(1- cp,)' - cp;l'

(IV4: 59b)
(IV4: 59c)

wobei E(E,) - 0, da E(u,) - O. Notwendige Bedingung fr Stationaritt ist hier, dass


cjI, + cjI, < 1. Fr die Autokorrelationskoeffizienten erster und zweiter Ordnung gilt
cp
Corr(E" EH) = - - '- = p,
(IV4: 59d)
1-cp,
Corr(E" EH) -- cp, + -cp;- - p,
1- cp,

(IV4: 5ge)

und fr Ordnungen s > 2


(IV4: 591)

Hieran lsst sich erkennen, dass die Koeffizienten cp, und cp, nicht den AutokorrelationskoefflZienten erster und zweiter Ordnung entsprechen. (Dies gilt auch fr ARProzesse hherer Ordnung.) Nur im AR(1)-Prozess entspricht der Steigungsparameter direkt dem Autokorrelationskoeffizienten erster Ordnung.
Zudem sehen wir, dass auch ein AR(2)-Prozess von Null verschiedene Autokorrelationskoejftzienten erster und hherer Ordnung induziert. Wieder wollen wir hier
der Uteratur folgen und bei Vorliegen eines AR(2)-Prozesses allgemein von Autokorrelation zweiter Ordnung sprechen. Analoges gelte fr den AR(s)-Prozess.
Wieder besitzt die Autokorrelationsfunktion fallenden Charakter. Der Unterschied
Zum AR(1)-Prozess liegt jedoch darin, dass der AR(2)-Prozess eine flexiblere Autokorrelationsstruktur erlaubt. Whrend vom AR(l)-Prozess nur eine gleichmg abnehmende Autokorrelationsfunktion abgebildet wird, erlaubt ein AR(2)-Prozess z.B.
trotz fallender Gesamttendenz auch zwischenzeitliche Anstiege. Abbildung IV 26
veranschaulicht dies durch die Gegenberstellung der Autokorrelationsfunktionen
eines AR(l)-Prozesses mit cp - --{),8 und eines AR(2)-Prozesses mit cp, - 0,9 und cp, --{),8. Wir erkennen zum einen, dass ein negatives Vorzeichen von cp im AR(l)Prozess ein oszillierendes Verhalten der Autokorrelationsfunktion bewirkt, d.h. dass
sich negative und positive Autokorrelationskoeffizienten abwechseln. Fr den
AR(2)-Prozess erkennen wir Phasen positiver und negativer Autokorrelationskoeffi44 Vgl. Enders (2004), Kapitel 2, Zu den Eigenschaften von AR(s)-Prozessen.
45 Vgl. Pindyck und Rubinfeld (1998), Kapitel 17.2.

IV EinfOhn.mg in die Okonomebie

548

zienten, wobei in jeder Phase ein (absolut betrachtetes) Ansteigen und anschlieendes Absteigen der Autokorrelation zu beobachten ist.
AR(l) mit <I>

-0,8

10

M(2) mit

15

+1 - 0,9. '2 - -0,8

10

'5

Abbildung N 26: Autokorrelationsfunktion AR(1) versus AR(2)

Autokorrelation des Strtenns bzw. die Existenz eines autoregressiven Prozesses im


Strtenn kann vie1faltige Ursachen haben. Wie bereits bei Heteroskedastizitt (vgl.
Absclutitt N 4.4.1) ist die Art der Ursache entscheidend fr die zu ergreifende
Gegerunanahme. So kann Autokorrelation z.B. in Modellen entstehen, in denen
Variablen verwendet werden, die durch gleitende Durchschnitte mit berlappenden
Intervallen konstruiert sind. Das heit, die Datcnkonstruktlonsmethode kann
Autokorrelatlon induzieren. Auerdem kann ein theoretisches Modell aus inhaltlichen 'Obcrlqungc:n heraus konkret einen AR-Strtenn vorsehen. In solchen Fllen sind die in Abschnitt N 4.5.4 beschriebenen Manahmen ZU ergreifen.
Autokorrelation kann auch aus einer Fehlspez:lkation resultieren. In diesem Fall
ist ihr durch Beseitigung des Spezifikationsfehlers zu begegnen. Typischerweise
fhrt die Vemacbltlssigung einer fr das Modell bedeutsamen Variable, die mit den
verbleibenden Variablen korreliert ist, neben einer Verletzung von Annahme 2b
und damit einer Verzerrung der OlS-Schtzer Ld.R. auch zur Autokorrelation des
Strtenns. Betrachten wir Z.B. das korrekte Modell
(IV4,60.)
YI =o +1 X 1t +2 X 21 +~,
in dem wir eine Variable vernachlssigen und damit ein Modell
(IV4,60b)
YI = ~ + P;XIt + e; mit
= EI + 2~1

e:

erhalten. Wtrd eine Variable vernachlssigt, muss der Anteil dieses vernachlssigten
Effekts auf die erklrte Variable, der nicht durch die einbezogenen Variablen reprsentiert werden kann, vom stochastischen Strtenn absorbiert werden (vgl. Abschnitt N 4.1.1). Dies ist in (N4: 60b) geschehen. Anders als in (N4: 60a) ist der
Strtenn nun also auch eine Funktion der vernachl.ssigten Variablen. Resultat ist,
dass der neue Strtenn E' auch dann autokorreliert sein kann, wenn dies fr den
wahren Strtenn e nicht gUt. Der neue Strtenn wird insbesondere dann autokorreliert sein, wenn die vernacbl4ssigte Variable selbst auroJrorreliert ist (bei Zeitreihen
sehr wahrscheinlich). Betrachten wir dies mit Hilfe folgender Gleichungen nher:

e; = et + 2X2t

e:-t = e

t _1

+ 2X2t_1

Wie wir sehen, ist e; abhngig von der Ausprgung der Variable X:z in t. Dies gilt
analog auch in Periode t-1. Nehmen wir nun an, die Variable ~ ist positiv autokorreliert. Einem groen Wert von ~ in t-1 folgt also tendenziell ein groer Wert von
~ in 1. berwiegt nun im Durchschnitt dieser Einfluss auf E' den Einfluss von E,
wird E' grtenteils von ~ bestimmt und ist damit ebenfalls positivautokorreliert.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

549

Auch eine falsche funktionale Form kann Auslser fr Autokorrelation sein. Nehmen wir beispielsweise an, das korrekte Modell hat die polynomiale Form

Y, = ~o + ~,X, + ~,X: + e"

(IV4: 61a)

wohingegen aber stattdessen ein lineares Modell

Y, =~; + ~;X, + e;

mit

e; =e, + ~,X;

(IV4: 61b)

zur Schtzung verwendet wurde. Der neue Strterm e' ist nun eine Funktion des
wahren Strterrns und X'. Auch hier liegt genau genommen lediglich ein Fall einer
vernachlssigten Variablen vor. Wie Abbildung IV 27 skizzert, ergibt sich dadurch
eine typische positive Autokorrelation des neuen StI1enns.
Y

. .
..
..
..
------' . ... ...

e; r--..--------~----~~ t

"

..
....

. ..

., . .

Abbildung IV 27: Autokorrelation des Strterrns und funktionale Form

4.5.2

Konsequenzen von Autokorrelation

Wir wir bereits unter IV 4.4.2 erwhnt haben, sind die Folgen von Autokorrelation
mit denen von Heteroskedastizitt vergleichbar. Wir wollen im Folgenden die drei
wichtigsten nher betrachten:

1. Keine verzerrung der OLS-Schtzer


Ist der stochastische Strterm autokorreliert, so ist Annahme 4 des CLRM verletzt,
doch fhrt dies zu keiner Verzerrung (und auch keiner Inkonsistenz) der OLSSchtzer.46 Dies gilt unabhngig davon, ob die Autokorrelation positiv, negativ, erster oder hherer Ordnung ist. Ein Blick auf den Erwartungswert des Schtzers
im einfachen Regressionsmodell, den wir in (IV2: 21) im Fall deterministischer X als

0.
~:XI E(e,)
(a ) = "'1
+ LX~

E 1-'1

hergeleitet hatten, kann uns hier wieder helfen, dies klar zu machen. Wir sehen
deutlich, dass diese Beziehung bzw. die Erwartungstreue auch im Fall von Auto46 Im Falle von Autokorrelation, die durch eine Fehlspeziftkation verursacht wird, kann jedoch eine Verzerrung auftreten. Die Autokorrelation selbst bewirkt in statischen Modellen
keine Verzerrung. Eine Verzerrung durch Autokorrelation entsteht in dynamischen Model-

len, in denen die verzgerte endogene Variable als erklrende Variable im. Modell auftaucht (vgl. Abschnitt N 4.7.1.3).

IV Einfiihrung in die konometrie

550

korrelation erhalten bleibt, da keinerlei Kovarianzen der stochastischen Strterme


bei der Bestirrunung des Erwartungswertes eine Rolle spielen.47
2. OIS-Schtzer nicht lnger effizient
Wird Annahme 4 des CLRM verletzt, so hat die Verteilung der OLS-Schtzer (unter
allen linearen unverzerrten Schtzern) nicht mehr die minimale Varianz. OLSSchtzer sind also im Fall von Autokorrelation nicht mehr BLUE, da es andere
Schtzer (vgl. GLS-Schtzer unter IV 4.5.4.1) gibt, die eine geringere Varianz aufweisen. Die hhere Varianz der OLS-Schtzer lsst sich damit begrnden, dass der
autokorrelierte Strterm Fluktuationen von Y verursacht, die von OLS den erklrenden Variablen zugeordnet werden. Es ist also in der Prsenz von Autokorrelation wahrscheinlicher, dass die OLS-Schtzungen vom wahren Koeffizienten abweichen. Die Varianz der OLS-Schtzer steigt also. Die Schtzer bleiben aber unverzerrt, da ber- und Unterschtzungen sich die Waage halten.
3. Verzerrung der Schtzer der Standardfehler der OIS-Schtzer

Wie bei der durch Heteroskedastizitt verursachten Verzerrung der geschtzten


Standardfehler, knnen wir diese auch bei Autokorrelation anhand der bereits unter IV 4.4.2 gezeigten Herleitung veranschaulichen. Damit die OLS-Standardfehler
korrekt sind, ist nmlich nicht nur die Annahme der Homoskedastizitt, sondern
auch das Fehlen von Autokorrelation (COV(Ej,E1) - 0) erforderlich (vgl. (IV4: 32a)).
Nehmen wir nun an, dass Annahme 3 gltig, jedoch Annahme 4 des CLRM nicht
erfllt ist. Wir sind dann lediglich in der Lage

[
2 +2k,k E,E +(k E ) 2 + ... +(knE )2]
VarC!I,)-E
(k,E,)
2 2
2 2
n

zu
ioloi

-a'Lk:+a'LLkjk;p'

mit

s-li-jl

"I

zu vereinfachen.48 Resubstitution von k und weitere Umformungen liefern


(IV4: 62)
Sind die Strterme nicht autokorreliert (p - 0), so erhalten wir aus (IV4: 62) unsere
Je hher p jedoch ist, desto strker weicht
klassische Formel fr die Varianz von
(IV4: 62) davon ab. Positive Autokorrelation fhrt c.p. zu einer hheren Varianz der
OLS-Schtzer. Negative Autokorrelation kann die Varianz c.p. sogar verringern.

, .

Da OLS bei Schtzung des Standardfehlers des Steigungskoeffizientenschtzers (im


einfachen Regressionsmodell) auf die falsche Formel (IV4: 33) zurckgreift, liefert
47 Ist der Regressor stochastisch, so kann gezeigt werden, dass OLS erwartungstreu ist, falls X
strikt exogen ist. Vgl. dazu z.B. Wooldridge (2006), Kapitel 11. Fr strikte Exogenitt ist
notwendig, dass die X aus allen Perioden <A,~, ... ,X) unkorreliert mit E sind.
48 Es gilt E(e.e,l - Cov(e"e,l "".", - ,,'0'.
t

4. Verletzungen der Annahmen des klassischen Regressionsmodells

551

aLS falsche Schtzungen der Standardfehler. Auch der Schtzer von 0', also konkret (IV2: 25), ist verzerrt, da dieser unter den Annahmen 2, 3 und 4 hergeleitet
wird und eine davon natrlich bei Autokorrelation verletzt ist.49 Im Falle positiver
Autokorrelation wird aLS die Standardfehler der aLS-Schtzer unter- im Falle negativer Autokorrelation berschtzen, falls X selbst positivautokorreliert ist. Gewhnlich weisen aber wirtschaftswissenschaftliche Zeitreihen positive Autokorrelation
auf. Uegt also der wahrscheinlichere Fall positiver Autokorrelation der Strterme
vor, so fhrt dies auch zur berhhung der t-Statistik, was wiederum die Wahrscheinlichkeit der Ablehnung einer korrekten Nullhypothese (Fehler 1. Art) erhht.

4.5.3

Aufdecken von Autokorrelation

4.5.3.1

Grafische Methode

Ein einfacher Weg, Anhaltspunkte fr Autokorrelation zu gewinnen, ist die Untersuchung des Graphen der Residuen auf Muster wie in Abbildung IV 25 bzw. IV 12.
Um die Aussagekraft dieser grafischen Methode zu verstrken, werden in der Praxis
hufig zustzlich Schtzungen der Autokorrelationskoeffizienten erster und hherer
(s-ter) Ordnung als Beurteilungshilfe herangezogen. Konsistente Schtzungen dafr
knnen wir z.B. ber
n

L(e, -e,)(eH -e,)

Pt = """" "-cc------

:tee, - e,)'

(IV4: 63a)

Le~

t=1

L (e, - e,)(e

t=1

e,)

,\ = '",". ,,'+",-------

:tee, - e,)'

(IV4: 63b)

gewinnen. 50 Diese Formeln sind in den Berechnungsroutinen von EViews und vieler anderer Statistlkprogramme verankert und entsprechen im Prinzip einer Berechnung des Bravais-Pearson-Korrelationskoeffizienten fr die Variable e, und die verzgerte Variable el-1 bzw. eH' mit dem Unterschied, dass man von gleichen arithme-

tischen Mitteln und gleichen Standardabweichungen beider Variablen ausgeht. Dies


erklrt z.B., warum im Zhler von (IV4: 63a) der Ausdruck (eH - e,) und nicht
(eH - eH) enthalten ist. Zudem fhrt es dazu, dass an Stelle der beiden Standard-

abweichungen von e t und el-1 nur die Varianz von e t im Nenner auftaucht. Die Vereinfachung auf die zweite Darstellungsform in (IV4: 63a) ergibt sich, da e, = O.

Weichen p, bzw. p, deudich von Null ab, so ist dies ein Indiz fr Autokorrelation
erster bzw. hherer Ordnung. Da dies jedoch keine Signifikanzaussagen erlaubt,
sollten wir unsere Entscheidung anhand der in den Folgeabschnitten behandelten
Hypothesentestverfahren treffen. Eine grafische Analyse und ein Blick auf die Auto49 Vgl. Goldfeld und Quandt (1972).
50 Da fr t "" 1 kein Residuum e'-l vorliegt, erfolgt die Berechnung des Zhlers in (IV4: 63a)
nur mit Datenmaterial von t "" 2 bis t "" n. Analoges gilt fr den Zhler von (IV4: 63b).

IV EinfOhn.mg in die Okonomebie

552

Bit

korrelationskoeffIzienten sollten nur als erste Anhaltspunkte und nicht als alleinige
Entscheidungsgrundlage dienen.
Naive Geldnachfragefunktion

BeloplellV 4-21

Greene (2008) schatzt zur Verdeutlichung von Autokorrelalion, die durch Fehlspezifikalion
verursacht wird, eine Geldnachfragefunktion fUr die USA in der Form
In~ =po+~ln~t+~2In~+t;.

Dabei ist Y die nominale Geldmenge M1, X, das reale Bruttoinlandsprodukt und

X:z der

Konsumentenpreisindex. Die Nachfrage nach Geld bzw. die Geldmenge M1 ist schlielich
umso grer, je grer das reale BIP und das Preisniveau sind. Aulokorrelation wird hier

durch vernachlssigte Variablen verursacht. Die moderne Geldnachfragetheorie kommt


nlmllch nicht ohne eine Variable aus, die die Opponunilltskosten der Geldhaltung beschreibt. Diese OpportunHitskoslen werden meist durch eine Zinsvariable implementiert,
was hier nicht getan wurde. Zudem zeigen Studien, dass die Geldnachfrage dynamischer
Natur ist, d.h. auch verzOgerte Werte als erklrende Variablen erforder1ich sind.
Eine Schtzung des Modells mit Datenmaterial vom 1. Quartal 1950 bis 4. Quartal 2000
ergibt die folgenden Ergebnisse und grafischen Darstellungen der Residuen. Bei Betrachtung der Schtzergebnisse zeigen sich hochgradig signifikante Einflusse der Erklrenden
Variablen. Wie hufig in empirischen Studien zur Geldnachfrage zu beobachten ist, liegt
der Koeffizient von ~ nahe bei 1. Dies bedeutet, dass wir die Var1able In(~) auch auf die
linke Gleichungsseite bringen knnten, was dazu fUhrt, dass die reale Geldmenge In(Y) In0C2) durch das reale BIP erkllrt werden und sich dabei eine Ahnliche SchAtzung von ~1
ergeben wrde.

Coefficient

Sampie: 1950Q1 2000Q4


Included observations: 204
Std. Error
t-Statistic
Prob.

-1.633057

0.228568

-7.144727

0.0000

0.287051

0.047384

6.057957

0.0000

Dependent Variable: LOG(y)


Method: Least Squares
Variable

Adjusted R-squared
S.E. of regression
Sum squared resld
Log likelihood
Durbin-Watson stat

..
.'.,

,------------,

0.805567

-2.128286

-2.079491
9488.775

0.000000

.
~

..;'.'..

,
~
f .,
~

,/.

....

.f .

.-:

~
~

.,

_. ..
~

.,

4. Verletzungen der Annahmen des klassischen Regressionsmodells

553

Die Darstellung der Residuen im Zeitverlauf (links) lsst erkennen, dass insbesondere
nach 1975 auf negative (positive) Residuen in der Regel wieder negative (positive) folgen.
Auch im Streuungsdiagramm (rechts), in dem die kontemporre Residuen auf der X-Achse
und die um eine Periode verzgerten Residuen auf der V-Achse abgetragen sind, lsst
deutlich positive Korrelation erkennen. Wir knnen also vermuten, dass der stochastische
Strterm positivautokorreliert ist. Dies wird auch durch den Autokorrelationskoeffizenten
erster Ordnung untermauert. In EViews erhalten wir diesen, indem wir nach Anwahl der
Residuenzeitraihe das Menu View I Correlogram ansteuern und hier einen Lag von 1 angeben. Er nimmt im vorliegenden Beispiel einen Wert von 0,983 an.
4.5.3.2

Durbin-Watson d-Test

Der Durbin-Watson d-Test ist eines der bekanntesten Verfahren zum Test auf
Autokorrelation. 51 Er bedient sich der Residuen eines geschtzten Modells, um festzustellen, ob Autokorrelation erster Ordnung vorliegt. Autokorrelation hherer Ordnung vermag er nicht aufzudecken. Voraussetzungen fr seine Anwendung sind,
dass das Regressionsmodell eine Konstante ~, beinhaltet, der stochastische Strterm
normalverteilt ist und in der Modellgleichung keine verzgerte erklrte Variable als
erklrende Variable auftaucht. 52
Gehen wir von einem Modell
Y, = ~o + ~,x" + ~2X" + ... + I\X", + E"

(N4: 64a)

mit
E,

=.pe,., + u,

mit

lop I < 1

(N4: 64b)

aus, wobei u, ein nicht autokorrelierter Strterm ist. Um die Hypothese H,,: op - 0
(keine Autokorrelation erster Ordnung) zu testen, ist zunchst aV4: 64a) zu schtzen, um die Residuen

ZU

erhalten. Damit berechnen wir die Teststatistik


n

L(et -et_1Y

d = ~,.~2-n:---

(N4: 65a)

Le~

,.,

Wir beachten dabei, dass der Zhler eine Beobachtung weniger aufweist als der
Nenner, da wie bei (N4: 63a) eine Beobachtung dazu benutzt werden muss, um
e,_, zu bestimmen. Durch einfache Umformung von av4: 65a) erhalten wir

bzw.
d=2(1-p) .

(N4: 65c)

51 Vgl. Durbin und Walson (1951).


52 Konkret drfen nur deterministische oder strikt exogene Variablen als Regressoren vorkommen. Zum Begriff der strikten Exogenitt vgl. Funote 47 dieses Abschnitts.

IV Einfiihrung in die konometrie

554

Wir knnen also eine Verbindung zwischen der Teststatisik d und der Schtzung p
fr den Autokorrelationskoeffizienten erster Ordnung aufzeigen. Ihre Beziehung ist
jedoch nur nherungsweise gltig. Aufgrund der unterschiedlichen Summationsgrenzen im Nenner und Zhler von aV4: 65b) entstehen nmlich nicht exakt die
beiden Einsen. Dennoch knnen wir in aV4: 65c) erkennen, dass die DurbinWatson d-Statistik folgendes Verhalten zeigt: Geht p gegen 1 (extreme positive
Autokorrelation), so tendiert d zu O. Geht p gegen -1 (extreme negative Autokorrelation), tendiert d zu 4. Fr p gegen 0 (fehlende Autokorrelation) nhert sich
d dem Wert 2. In der Praxis ist meistens positive Autokorrelation ein Problem.
Deswegen werden uns meist sehr kleine Werte der d-Statisik begegnen. Als Daumenregel knnen wir uns merken, dass wir beim Auftreten eines d nahe 2 davon
ausgehen knnen, dass weder positive noch negative Autokorrelation erster Ordnung gegeben ist.
Zur exakten Testdurchfhrung sind unter Bercksichtigung des Stichprobenumfangs n und der Anzahl K der erklrenden Variablen der untere und obere kritische
Wert d. und d. aus den Tabellen der d-Statistik abzulesen. Diese werden dazu verwendet, um die in Abbildung IV 28 dargestellte Schematik aufzustellen.
H,:

p ~ 0 (keine pos. Autokorrelation) H;: p ~ 0 (keine neg. Autokorrelation)


H~ : P < 0

HA: P > 0
keine

Ablehnung
Ho

Ablehnung
H, bzw. H;

keine
Entscheidung

d.

keine
Entscheidung

4-d.

Ablehnung

4-d.

H'o

Abbildung IV 28: Durbin-Watson d-Test


Mit diesem Schema knnen wir einen Autokorrelationstest durchfhren. Wollen wir

beispielsweise positive Autokorrelation nachweisen, also


Ho : P ~ 0

HA : P > 0

(keine positive Autokorrelation)


(positive Autokorrelation)

(IV4: 66a)

testen, bedienen wir uns der Entscheidungsregel


Ablehnung Ho, wenn
Nicht-Ablehnung Ho, wenn d > d.
keine Entscheidung, wenn

d.

(IV4: 66b)
~

d.

Die Entscheidungsregel fr einen Test auf negative Autokorrelation kann analog


aus Abbildung IV 28 abgelesen werden. Wie wir schnell erkennen, gibt es beim
Durbin-Watson d-Test, anders als Z.B. beim t- oder F-Test nicht nur einen Annahme- und einen Ablehnungsbereich, sondern auch einen Bereich, in dem der Test

kein Ergebnis liefern kann. Gerade aus diesem Grund und den eingangs geschilderten Einschrnkungen des Tests, weichen wir in der Praxis hufig auf den
Breusch-Godfrey LM-Test (vgl. Abschnitt IV 4.5.3.3) aus.

555

4. Verletzungen der Annahmen des klassischen Regressionsmodells

BoloplollV 4-22

DUrbin-Watson-Test Q .

Versuchen wir unsere Geldnachfragefunktion aus Beispiel IV 4-21 auf Autokorrelation zu


testen. Vorteil der Arbeit mit EViews ist hierbei, dass der Wert der Durbin-Watson dStatistik automatisch berechnet wird und als Teil des Standard-Regressionsoulputs ausgegeben wird. Wir kOnnen also in diesem Fall direkt den Wert 0,0247 ablesen. Bei einem
so niedrigen d-Wert erObrigt sich eigentlich die Aufstellung der Entscheidungsregel. Wir
knnen sofort feststellen, dass ein Autokorrelationsproblem vorliegt. Wir wollen den Test
aber trotzdem durchfUhren: Wir vermuten positive Autokorrelation und verwenden daher
das Hypothesenpaar (IV4: 66a) und die Entscheidungsregel (IV4: 66b). Bel einem Sdchprobenumfang von n '" 204, einer Anzahl von erklrenden Variablen K '" 2 und dem von
uns gewhltem Signifikanzniveau von 5 % erhalten wir durch Nachschlagen im Tabellenwerk du - 1,75 und du - 1,79. Da wir nur rur n - 200 Tabellenwerte finden, haben wir als
Approximation fOr n '" 204 die Werte rur n '" 200 verwendet. Dies IOhrt schlielich zu folgender konkreter Entscheidungsregel:
Ablehnung

Ho, wenn

0<d<1,75

Nicht-Ablehnung Ho, wenn

d>1,79

keine Entscheidung, wenn

1,75SdS1,79

Mit einem d-Wert von 0,0247 kOnnen wir Ho hier deutlich ablehnen, sodass dieses Testergebnis auf vorliegende positive Autokorrelation der Strterme schlieen lsst.

4.5.3.3

Breuoch-Godfrey LM-Test

Wie wir bereits angesprochen haben, weist der Durbin-Watson d-Test eine Reihe
gewichtiger Nachteile auf. So fhrt er nicht immer zu einer Testentscheidung und
kann nicht verwendet werden, wenn eine verzgerte erklrte Variable im Modell
enthalten ist. Auerdem ist er nicht in der Lage auf Autokorrelation hherer Ordnung zu testen. Der Breusch-Godfrey LM-Test weist keines dieser Probleme
auf. 53 Zur Veranschaulichung seiner Vorgehensweise betrachten wir das Modell
Y1 = 130 + I Xll + ~Xll + ... + ~XKt + ~,

OV4: 67a)

indem

(IV4,67b)
gilt, d.h. ein AR(s)-Prosess beim stochastischen Strterm vorliegt. Wir testen hier,
ob Autokorrelation vorliegt, ber das Hypothesenpaar
(keine Autokorrelation)
HA : mindestens ein ist ungleich Null

(Autokorrelation)

(IV4,68)

Um l\. zu testen, wird zunchst Gleichung OV4: 67a) mit aLS geschtzt. Die sich
ergebenden e, werden dann dazu verwendet, um eine Hilfsregression

(IV4,69)
Z

zu schtzen. v, ist hier ein klassischer Strterm. Das R der Schtzung von CIV4: 69)
wird dazu verwendet, die IM-Statistik
53 Vgl. Breusch (1978) und Godfrey (1978).

IV EinfOhn.mg in die Okonomebie

556

(IV4,70)

zu berechnen. Sie ist bei korrekter Nullhypothese asymptoUscb mit s Freiheitsgraden Chi-Quadrat-verteilt. Ist der Wert der LM-Statistik. grer als der kritische Wert
bei gewhltem Signifikanzniveau, kann Ho abgelehnt werden.
Welche Anzahl s von verzgerten Residuen wir bei der empirischen Anwendung
des Tests in (N4: 69) verwendet wird, richtet sich nach dem Grad des vennuteten
AR-Prozesses. Meistens wird sich aber an der Periodizitt (Monate, Quartale, Jahre
etc.) des vorliegenden Daterunaterials orientiert. Bei Jahresdaten whlen wir hufIg

Bit

1 oder 2, bei Quartalsdaten 4 oder 5.

Breusch-Godfrey LM-Test

BeloplellV 4-23

In unserem Geldnachfragebeispiel IV 4-21 wollen wir beim Test auf Aulokorrelation der

Residuen nun auch das potenzielle Vorhandensein von Autokorrelation hOherer Ordnung

berOcksichtigen. Wir verwenden dazu den Breusch-Godfrey LM-Test. Da uns Quartalsdaten vorliegen, verwenden wir s '" 4. Der Test kann in EViews im Schtzfenster aber View
I Residual Tests I Serial Correlation LM Test unter Angabe von s durchgefUhrt werden. Wir
erhalten damit die folgenden Ergebnisse:

Breusch-Goctrrey Serlal Correlatlon LM Test:


F-stalistic
Obs*R-squal'9d

2144.444

Prob. F(4.197)

199.4201

Prob. Chi-Square(4)

0.0000
0.0000

Test Equation:
Dependent Variable: RESID
Sampie: 195001 200004
Method: Least Squares
Included observations: 204
Presample mlsslng value lagged residuaIs set to zero.
Variable
Coefficient
Std. Error
Prob.
t-Statistic
C
0.050043
0.034683
0.1506
1.442868

LOG(X1)
LOG(X2)
RESID(-l)

M10333
0.006864
1.293984

0.007191
0.005118
0.069492

-1.436988

0.1523

1.341281

0.1814

18.62048

-0.211535
0.055858

0.114698
0.114684

-1.844279
0.487055

0.0000
0.0666
0.6268

~~

Wir erkennen, dass der Wert der LM-Statistik bei 199,42 liegt. Bei einem Signifikanzniveau
von 5 % erhalten wir aus der Tabelle der Chi-Quadrat-Verteilung mit 4 Freiheitsgraden den
kritischen Wert 9,49. Dieser ist deutlich kleiner als der Werl der LM-Stalistik. so dass die
Nullhypothese (keine Autokorrelation) abgelehnt werden kann. Dies besttigt auch der
sehr niedrige p-Wert des LM-Tests (0,0000). Es liegt also definitiv Autokorrelation vor.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

557

Ein Blick auf die poWerte der verzgerten Residuen zeigt, dass der erste und der vierte
geschtzte Koeffizient bei einem Niveau von 5 % signifikant von Null verschieden sind. Der
zweite geschtzte Koeffizient knnte auf einem Niveau von 10 % als noch (schwach) signifikant angesehen werden. Dies deutet darauf hin, dass nicht nur Autokorrelation erster
Ordnung vorliegt. Dies ist bei Quartalsdaten nicht unblich. Hier zeigen sich oft Korrelationen mit dem Vorquartal und dem Vo~ahresquartal.
Im Zusammenhang mit diesem Beispiel stellt sich der Leser sicher die Frage, warum der
Durbin-Watson d-Test Oberhaupt bentigt wird, wenn der Breusch-Godfrey LM-Test doch
auch auf Autokorrelation erster Ordnung testen kann. Die Antwort darauf ist recht einfach.
Der Durbin-Watson d-Test war der erste formale Test auf Autokorrelation. Breusch und
Godfrey bauten auf den Arbeiten von Durbin und Watson auf. Zudem ist der d-Test Bestandteil eines jeden Regressionsoutputs und damit ein erster wichtiger Indikator.

4.5.4

Vorgehensweise bei festgestellter Autokorrelation

Nach Diagnose von Autokorrelation ist der wichtigste Schritt zunchst, die Modellspezifikation noch einmal ZU berdenken. Es ist sicherzustellen, dass alle relevanten Variablen im Modell enthalten sind und die funktionale Form als korrekt be!lachtet werden kann. Ist dies nmlich nicht der Fall, kann die vorliegende Autokorrelation durch Korrektur der Speziftkationsfehler beseitigt werden. Weist ein
Modell danach immer noch autokorrelierte Strterme auf, so hat der konometriker einen Teil des systematischen Verhaltens nicht in Form erklrender Variablen
modelliert, sondern dem Strterm zugeschlagen. Ersttebenswert ist es aber, ein
mglichst umfassendes Modell aller systematischen Effekte zu erhalten und dabei
den Strterm auf "White-Noise"-Eigenschaften (Erwartungswert Null und konstante
Varianz) zu reduzieren. Wie wir unter IV 4.5.4.3 sehen werden, ist dies theoretisch
mglich. Praktisch stehen wir jedoch hufig vor dem Problem, dass wir die Dyoamik des Strterrns nicht vollstndig kennen. Wir sind daher teilweise auch gezwungen zur Beseitigung der Autokorrelation der Strterme bzw. ihrer nachteiligen Effekte die Verfahren der Abschnitte IV 4.5.4.1 und IV 4.5.4.2 heranzuziehen. Sie sind
jedoch nur zulssig, wenn folgende Voraussetzungen erfllt sind:
1. Das Modell weist keine Mngel wie vernachlssigte Variablen oder falsche

funktionale Form auf.


2. Der Stichprobenumfang ist sehr gro.

3. Es darf keine verzgerte erklrte Variable als erklrende Variable im Modell

enthalten sein,54 da sonst durch die folgenden Verfahren sogar inkonsistente


Schtzer resultieren wrden.

4.5.4.1

Verallgemeinertes Prinzip der kleinsten Quadrate (GLS)

Das verallgemeinerte Prinzip der kleinsten Quadrate (GLS, engl. generalised least
squares) verfolgt das Ziel, eine Modellgleichung von Autokorrelation ZU befreien.
GLS !lansformiert dazu die Gleichung, die aufgrund von Autokorrelation die Annahme 4 des CLRM verletzt, in eine Gleichung, die diese Verletzung nicht hervorruft. Zur Veranschaulichung dieser Transformation und der Schtzung der !lans54 Genauer mssten wir sagen, dass im Modell nur strikt exogene Regressoren enthalten sein
drfen. Vgl. dazu funote 47 dieses Abschnitts.

IV Einfiihrung in die konometrie

558

fonnierten Gleichung (sog. GLS-Gleichung) beschrnken wir uns im Folgenden auf


Autokorrelation erster Ordnung. Betrachten wir dazu das Modell
(IV4: 71a)
1', =~o +~,X" +~,X" + ... +~X., +E"
in dem beim Strtenn ein AR(1)-Prozess
E, = PE,-, + u, mit I cp I < 1
(IV4: 71b)
vorliegt, wobei u, wieder ein klassischer (nicht autokorrelierter) Strtenn ist. Ist nun
das Modell (IV4: 71a) in Periode t gltig, so besitzt es diese Gltigkeit auch in t-l,
sodass wir alternativ auch
1',-, = ~o + P,X'1-1 + ~,X'1-1 + ... + PK X,,_, + E1-1
aV4: 72)
schreiben knnen. Die Multiplikation beider Seiten von (IV4: 72) mit cp liefert

cpY1-1 = CPPo + cpP,X'1-1 + Cp~,X'1-1 + ... + CP~KXK1-1 + PE,_,.


Subtrahieren wir nun (IV4: 73) von (IV4: 71a), so erhalten wir
1', - cpY1-1 = ~o(l- cp) +~, (X" - cpX,,_,) + ~,(X21 - cpX'1-1) + ...

OV4: 73)

av4: 74)

oder
Y; = Y, - cpY1-1
X~ = X", - cpX",_,
~; = oCl- cp)
u t = Et

(IV4: 75)

-cfte.t-l

Wir sprechen bei 1',' und X~ auch von quasi differenzierten Daten. Wre cjl - I,
wrden wir differenzierte Daten erhalten. Wir nehmen aber I cp I < 1 an. Gleichung
(IV4: 75) ist nur fr die Perioden t - 2, 3, ... , T definiert, da im Rahmen der Transformation eine Beobachtung verloren geht. Besonders bei hohem Stichprobenumfang wird in der Praxis ein derartiger Infonnationsverlust meist toleriert. In kleinen
Stichproben sollte eine Bercksichtigung von t - 1 ber die spezielle Transformation Y; - ~1- ,'Y, bzw. X~, - ~1- ,'X., erfolgen. 55
Der Strtenn U, der quasi differenzierten Gleichung (Iv4: 75) entstammt aus
(IV4: 71b), ist daher nicht autokorreliert und erfllt alle Gauss-Markov-Annahmen.
Die GLS-Gleichung aV4: 75) kann daber mit OLS geschtzt werden, wobei wir die
Schtzer dann als GLS-Scbtzer bezeichnen. Sie weisen im Vergleich zu den Schtzern des Ursprungsmodells eine geringere Varianz auf, sind also BLUE, sofern auch
die Beobachtung in t - 1 entsprechend bercksichtigt wird und cjl bekannt ist.
Die KoeffIZienten P. der GLS-Gleichung unterscheiden sich in ihrer Interpretation
nicht von denen der originren (autokorrelierten) Gleichung. Da es durch die GLS-

Transfonnation zu einer Vernderung der erklrten Variable kommt, ist jedoch ein

GLS-R' nicht als Bestimmtheitsma von Y interpretierbar.


Mit der Schtzung von GLS-Gleichungen ist nun das Problem verbunden, dass wir
dazu nicht direkt OLS verwenden knnen, da cp unbekannt ist. Neben den blichen
RegressionskoeffIZienten ist also zudem cp zu schtzen. Die wohl bekannteste Me-

55 Zur Rechtfertigung dieser Vorgehensweise vgL z.B. Hili et al. (2001), Kapitel 12.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

559

thode zur Schtzung von GLS-Gleichungen ist die mehrstufige Cochrane-Orcutt

Methode. 56 In einem ersten Schritt wird dabei das autokorrelierte Modell

(IV4: 71a) mit aLS geschtzt und die Residuen e, berechnet. Im zweiten Schritt
werden diese zur Schtzung des unbekannten p herangezogen. Dies kann z.B.
durch aLS-Schtzung des Modells
(IV4: 76)

erfolgen. Im dritten Schritt wird die Schtzung ~ dann zur Durchfhrung der GLSTransformation in Gleichung (IV4: 74) verwendet und die so erhaltene neue Gleiund die
In
chung mit aLS geschtzt. Als Ergebnis erhalten wir Werte fr
der Praxis wir dann hufig ein iteratives Verfahren angewendet. Die Parameterschtzungen werden dabei in die originre Gleichung (IV4: 71a) eingesetzt und die

Po

Pk'

I1neuenll Residuen

e~~ = Y, -

Po + p,X" + P'X

21

+ ... + PKX",

(Iv4: 77)

berechnet. Verwenden wir diese neuen Residuen erneut in (IV4: 76), so erhalten
wir eine neue Schtzung von p. Diese Prozedur knnen wir beliebig oft wiederholen. Standard ist es aber, dass der iterationsprozess gestoppt wird, wenn sich die
neue Schtzung von p um weniger als 0,01 oder 0,005 von der vorhergehenden unterscheidet. Die letzte Schtzung von p und die daraus resultierenden Ergebnisse
der GLS-Schtzung knnen dann als finale Ergebnisse betrachtet werden. Es kann
aber theoretisch nicht gesagt werden, dass diese iterationsvorgehensweise zu effizienteren Schtzungen fhrt als nur ein Durchlauf des Verfahrens.
Wir sprechen bei derartigen iterationsverfahren, in denen nicht p sondern ~ zur
Datentransformation verwendet wird, auch von FGLS (eng!. feasible generalized
least squares). Wir knnen bei Verwendung von FGLS insbesondere in kleinen
Stichproben nicht generell sagen, dass wir die Modellparameter effizient schtzen,
da dies nur bei bekanntem p der Fall ist oder wenn die Schtzung ~ sehr nahe
beim wahren p liegt. Wir knnen aber sagen, dass wir konsistent schtzen, da wir
uns mit zunehmendem Stichprobenumfang dem wahren Wert P immer mehr annhern. Auch unsere Testverfahren besitzen im FGLS-Kontext streng genommen
nur asymptotisch Gltigkeit. Wir sollten daher FGLS nur bei groen Stichproben
einsetzen. In groen Stichproben fhrt FGLS dann nmlich zu effizienteren Schtzern als aLS, falls die Modellannahmen erfllt sind. 57
Die Cochrane-Orcutt Methode ist in EViews nicht direkt implementiert. Stattdessen
erfolgt die GLS-Schtzung durch das Hinzufgen eines AR(1)-Terms in die Schtzgleichung, welcher darauf hinweist, dass von Autokorrelation erster Ordnung im
Strterm ausgegangen wird 58 EViews schtzt die Parameter /3" /3" .... , /3. und P

dann simultan ber gewisse iterative nichtlineare Regressionstechniken, auf die wir

56 Vgl. Cocruane und Orcutt (1949).


57 Man beachte auerdem: (1) Bei nicht strikt exogenen Regressaren ist OLS konsistent, solange Cov(e,,JQ = 0 gilt. FGLS ist in einem solchen Fall jedoch inkonsistent. (2) Ist X nicht
stationr, so ist die OLS-Schtzung problematisch (vgl. Abschnitt IV 4.7.2.4). GLS ist jedoch
als Quasi-Differenzierung etwas besser, da durch Differenzieren einer Nicht-Stationaritt
begegnet werden kann.
58 Vgl. z.B. Astetiou und Hall (2007), Kapitel 8.

IV EinfOhn.mg in die Okonomebie

560

Q.

hier nicht nher eingehen wollen. Damit werden dieselben Schtzungen der Koeffizienten wie bei der Cochrane-Orcutt Methode erzielt. Wrr wollen die Einfachheit
der Anwendung dieser Methodik im nachfolgenden Beispiel veranschaulichen.
Beispiel IV 4-24

GLS-Schtzung in EViews

Wir haben bereits festgestellt, dass Im Geldnachfragebeispiel IV 4-21 Autokorrelallon vorliegt. GLS kommt hier aber nicht als Gegenmanahme in Frage, da die Autokorrelation
durch eine otfensichUiche Fehlspezifikation verursacht wird. Stattdessen muss sie durch
Korrektur des Modells, d.h. Hinzuffigen vernachlssigter Variablen, beseitigt werden. Si
In unserem Anwendungsbeispiel IV 3-1 zum Geftugelkonsum in den USA lsst sich zeigen,
dass auch hier Aulokorrelation vorliegt. Die entsprechenden Tests mge der Leser selbst

nachvollziehen. Da wir hier davon ausgehen wollen, dass keine Variablen vernachlssigt

wurden und auch die funktionale Form des Modells korrekt gewlhlt wurde, ist eine GLSSchatzung gerechtfertigt Um in EViews die Resultate einer FGLS-SchAtzung zu erzielen,
mussen wir bei der Modellformulierung unter Quick I Estimate Equation I Equation Specificatlon lediglich den Ausdruck AR(1) an die Modellgleichung anhAngen. Im Falle von AutokolT8lation s-ter Ordnung mussten zu deren KolT8ktur einfach die Ausdnlcke AR(1), AR{2},
... , AR{s) in die zu schtzende Gleichung aufgenommen werden. In diesem Anwendungsbeispiel erhalten wir durch Eingabe der konkreten Gleichung Y C X1 X2 X3 AR(1) das folgende Schtzergebnis.
Sampie (adjusted): 19611999
Included observations: 3i after adjustments
Convergence achieved after 12 IteraUons

Oependent Variable: Y
Method: Least Squares

Coefficient

Std. Error

t-Statistic

Prob.

9.488133
-0.8113842

23.51656

-G.0II2II25

2.478523

Xl
X2
X3

0_08H72

0_1038B5
0_045g13

0.243144

0.015859

15.33207

0.0000
0.3778
0.0583
0.0000

0_801227

0.093037

8.611962

0.0000

AR(1)
R-squared
Adjusted R-squared
S.E. 01 regression
Sum squared resid
Log likelihood
Ourbin-Watson stat
Inverted AR Rools

0.995894

0.995411
1.306643
58.04875
-63.09417
2.056647

1_HHOB

Mean dependent var


S.O. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

51.26077

19.28900
3.482009
3.705286
2061.780
0.000000

.80

Wir erkennen, dass 12 Iterationslufe notwendig sind, bis der letzte geschtzte Wert von .,
gefunden wird. Im Regressionsoutput taucht diese SchAtzung als Koeffizient der GrOe
AR(1) auf. Sie nimmt also hier den Wert 0,8012 an. Wir sehen auerdem, dass eine Beobachtung aufgrund der GLS-Transformation verloren geht, da im Vergleich zu den urspnlnglichen 40 nur noch 39 Beobachtungen in die Schitzung eingehen.

59 Wie sich mit dem Zahlenmaterial im Online-Service zeigen lsst, reicht das Hinzufgen
einer Zinsvariable zur Autokorrelatio1lBbeseitigung nicht aUB. Es fehlen also noch weitere
Variablen (z.B. verzgerte Werte) im Modell.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

561

Wichtiger ist nun aber ein Vergleich der neuen geschtzten Koeffizienten mit denen der ursprOnglichen OLS-SchAtzung ohne BerOcksichtigung der Autokorrelation. Letztere finden
wir in Beispiel IV 3-1. Es fallt auf, dass trotz der Tatsache, dass Autokorrelation keine Verzerrung der OlS-Schtzer verursacht, die mit OLS geschtzten Koemzienten nicht mit denen der GLS-Schtzung identisch sind. Bei X, fOhrt die Beseitigung der Autokorrelation zu
einer deudlchen nderung des geschAtzten Koeffizienten. Auerdem Ist er nun nicht mehr
signifikant. Auch der geschtzte KoeHizient von XI! ist nur noch schwach signifikant. Die
bestehende Autokorrelation hat also dazu gefOhrt, dass die t-Werte bisher berschtzt
wurden und unsere bisherigen Testentscheidungen falsch gewesen sein kOnnten. Dies
verdeutlicht die besondere Wichtigkeit der OberprOfung der ErfOllung aller Annahmen des
ClRM (und ggf. Korrekturmanahmen) bevor ein geschitztes Modell rur ROckschlOsse auf
die Grundgesamtheit verwendet wird. Kritisch ist dabei jedoch, dass der hier vorliegende
Stichprobenumfang von 40 Beobachtungen relativ gering Ist, die GLS-Prozedur aber nur
fOr groe Stichprobenumfnge angewendet warden sollte. Die neuen Parameterschtzungen und Schtzungen der Standardfehler sind daher auch mit Vorsicht zu genieen.

4.5.4.2

Newey-West Standardfehler

Ncwcy-Wcst standard.fchlcr sind hnlich, wie die unter N 4.4.4.2 behandelten


White Standardfehler, auch konsistente Scht'Jtzer jar die Standard/eh/er der DLSScblltzer. 6fJ Da OLS zur Schtzung der Standardfehler des Steigungskoeffizienten im
einfachen Regressionsmodell auf die Varianz (IV2: 23) zugreift, ist es offensichtlich,
dass OIS verzerrte Schtzungen der Standardfehler liefert, falls Autokorrelation
oder Heteroskedastizitt vorliegt. Im Falle positiver Autokorrelation sind die OL5Schtzer hufig nach unten, im Falle negativer nach oben verzerrt. Newey-West
Standardfehler tragen nun dem Fakt der Autokorre/aNon beliebiger Ordnung Rechnung. Sie sind bei groen Stichproben und vorliegender Autokorrelation genauer
als die OLS-Standardfehler, sind gewhnlich grer (bei positiver Autokorrelation)
als diese und fhren damit zu niedrigeren t-Werten. Im Vergleich zu GLS hat eine
Verwendung von Newey-West Standardfehlem keine Vernderung der geschtzten
Koeffizienten des betrachteten Modells zur Folge, da die Regressionsparameter weiterhin mit OIS und lediglich die Standardfehler anders geschtzt werden.
Mit der genauen Berechnung der Newey-West Standardfehler wollen wir uns an
dieser Stelle nicht beschftigen. Es sei aber noch erwhnt, dass diese nicht nur der
Autokorrelation sondern auch der Heteroskedastizitt Rechnung tragen. Sie stellen
damit eine Alternative ZU den behandelten White Standardfehlern dar.

BoloplollV 4-25

Newey-West Standardfehler Q .

In Beispiel IV 4-24 sind wir der Autokorrelation in unserem GeflOgelkonsummodell aus Beispiel IV 3-1 mittels GLS begegnet. Betrachten wir nun die Ergebnisse, die wir mit
Newey-West Standardfehlern erzielen knnen. In EViews ist die Berechnung der NeweyWest Standardfehler wie auch die der White Standardfehler eine Option bei der Eingabe
der Regressionsgleichung. Eine Autokorrelalionskorrektur mittels dieses Verfahrens ist daher relativ einfach. Wir erhalten folgendes Resultat:

6fJ Vgl. Newey und West (1987).

IV Einfiihrung in die konometrie

562

Dependent Variable: Y
Sampie: t 960 1999
Method: Least Squares
Included observations: 40
Newey-West HAC Standard Errors & Covariance (lag truncation=3)

C
XI
X2
X3

Coefficient

Std. Error

27.59394
-0.607160
0.092188
0.244860

1.896189

14.55231

0.0000

0.166734
0.041867
0.009930

-3.641477
2.201917
24.65786

0.0008
0.0342
0.0000

0.990391
0.989590
1.993549
143.0726
-82.24700
0.897776

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

t-Statistic

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.

50.56725
19.53879
4.312350
4.481238
1236.776
0.000000

Wir sehen, dass wir keine Beobachtung unserer Stichprobe verlieren und sich im Vergleich
zum Ursprungsmodell die geschtzten Koeffizienten nicht verndert haben. Lediglich ihre
Standardfehler und damit ihre t- und poWerte sind anders. Die Standardfehler der Schtzer
, und
sind hher. Bei
ist dies aber nicht der Fall. Hier ist sogar ein niedrigerer
Standardfehler zu beobachten. Im Vergleich zur GLS-Schtzung fllt auf, dass nun wieder
alle Koeffizienten signifikant sind. Auch hier ist jedoch kritisch anzumerken, dass fiir die
Newey-West Standardfehler der Stichprobenumfang sehr gro sein sollte. Auch die Resultate dieses Verfahrens sind daher in unserem Beispiel mit Vorsicht zu betrachten.

4.5.4.3

Dynamische ModeUformulierung

Nehmen wir an, theoretische berlegungen veranlassen uns dazu, das folgende
einfache Modell
(rv4: 78a)
Y, =o +,X, +E,
mit

(rv4: 78b)

in dem E, autokorteliert und U, wieder ein klassischer nicht autokortelierter Strterm


ist, als korrektes Modell fr die Grundgesamtheit zu betrachten. Uns ist also die
Dynamik des Strterms bekannt, sodass wir das Modell mit GLS schtzen knnten.
Alternativ besteht bei bekannter Strtermdynamik die Mglichkeit, das Modell so
umzuformulieren, dass seine Dynamik durch die erklrenden Variablen ausgedrckt wird und einen nicht autokortelierten Strterm enthlt. Lsen wir (rv4: 78a)
und das um eine Periode verzgerte aV4: 78a) nach dem Strterm auf, so erhalten
wir zunchst folgende Ausdrcke:

=o +~,X, +E,
Y,_, = ~o + ,X,_, + E,_,
Y,

E, = Y, - o - ,X,
Et _ 1

;;;;;;

Yt- 1

o - I X t_l

Setzen wir dies in (rv4: 78b) ein, so erhalten wir

Y, - o - ,X, = cp(Y,_, - o - ,X,_,) + u,

4. Verletzungen der Annahmen des klassischen Regressionsmodells

563

und nach einigen Umfonnungen


Y, = ~o(1- ep) + ~,X, - ep~,XH + epYH + u,.

(IV4: 78c)
61
Wir erhalten damit ein wirklich korrekt spezifiziertes dynamisches Modell mit unkorreliertem Strterm u,62 Schreiben wir (IV4: 78c) in der Fonn
Y, = o + ,X" + ,X'H + 1'YH + u"

(IV4: 78d)
so ergibt sich ein Modell mit den gleichen Variablen wie in (IV4: 78c), jedoch anderen Koeffizienten. Diese stehen zueinander in den Beziehungen , = ~,(1 - ep),
, = ~" , = -1l~, und 1, = ejI. (IV4: 78c) ist eine restriktivere Fonn des mit OLS
schtzbaren Modells (IV4: 78d). Gilt fr das Modell (IV4: 78d) die testbare Restriktion , = -C,1, nicht, so wre das Modell aus (IV4: 78a) und (IV4: 78b) sogar fehlspezifiziert. Daher empfiehlt es sich, nach Mglichkeit inuner die Dynamik im Modell und nicht im Strtenn abzubilden.
An diesem theoretischen Beispiel erkennen wir, dass durch das Hinzufgen von
verzgerten X und Y Autokorrelation eliminiert werden kann.63 Es ist daher in der
Praxis nicht unblich, im Autokorrelationsfall Modelle um derartige Verzgerungen
zu erweitern (soweit dies theoretisch gerechtfertigt werden kann), bis Autokorrelaitonstests keine Autokorrelation mehr aufzeigen.

61 Den Themenkomplex dynamischer Modelle werden wir unter IV 4.7.1 noch vertiefen.
62 Das entstehende Modell (IV4: 78c) ist nicht mehr parameterlinear, cl.h. nicht mehr mit OLS

schtzbar. Eine Schtzung der Modellparameter kann nur mit iterativen Verfahren erfolgen.
63 Fr eine praktische Anwendung vgl. Abschnitt IV 6.2.3.

564

IV Einfiihrung in die konometrie

4.6 Korrelation zwischen erklrenden Variablen und


stochastischem Strterm
In diesem Abschnitt wollen wir uns nher mit der Annahme 2b des CLRM befassen.
Sie wird verletzt, wenn eine Korrelation zwischen erklrenden Variablen und dem
stochastischen Strterrn vorliegt. Dies hat, wie wir unter IV 4.6.1 sehen werden, bei
stochastischem X die Verzerrung und Inkonsistenz der aLS-Schtzer zur Folge. Wie
wir bereits unter IV 4.1.1 gesehen haben, kann eine Ursache fr die Verletzung von
Annahme 2b in vernachlssigten Variablen liegen. Als weitere mgliche Ursachen
sind Messfehler bei der Erfassung von Variablen, die Verwendung verzgerter erklrter Variahlen als erklrende Variablen und Simultanitt zu betrachten. Wir
wollen diese Ursachen im weiteren Verlauf dieses Abschnitts noch nher beleuchten. Besonderes Augenmerk legen wir auch auf die sog. Instrumentenvariablenschtzung, die einer Verletzung der Annahme 2b begegnen kann.

4.6.1

Konsequenzen

Zur Veranschaulichung der Probleme durch eine Verletzung von Annahme 2b des
CLRM, betrachten wir ein einfaches Regressionsmodell, in dem nach (IV2: 20)
...

LXiEi

~,=~,+~
~Xi

gilt. Der Schtzer


ist unverzerrt, wenn E(,) = , gilt, also der Erwattungswert
des Bruchterrns auf der rechten Seite von (IV2: 20) gleich Null ist. Wie wir unter IV
2.3.1 gesehen haben, ist dies bei deterministischem X und E(e) - 0 der Fall. Bei deterministischem X haben wir bei unseren Ausfhrungen zu Annahme 2b unter IV
2.2.2 auerdem festgestellt, dass Annahme 2b automatisch erfllt ist. Nun wollen
wir aber von dem realistischeren Fall ausgehen, dass X selbst stochastisch ist:
Bei genauer Betrachtung obiger Gleichung fllt auf, dass der Bruchterrn auf der
rechten Seite nichts anderes als der Quotient aus Stichprobenkovarianz zwischen X
und e und Stichprobenvarianz von X ist. Wir knnen also alternativ auch
(Iv4: 79)
schreiben. Mit zunehmendem Stichprobenurnfang konvergieren diese Schtzer gegen ihre wahren Grundgesamtheitswerte. Ist Annahme 2b erfllt, konvergiert der
Schtzer der Kovarianz also gegen Null, sodass auch der Schtzer , gegen seinen
wahren Wert , konvergiert. Die Schtzung liegt also immer nher am wahren Wert
der Grundgesamtheit.
Besteht nun aber eine Korrelation zwischen erklrender Variable und stochastischem Strterrn, so ist aufgrund von (IV2: 16) auch Annahme 2a verletzt. Der OLSSchtzer ist dann verzerrt, da bei Erwartungswertbildung von (IV4: 79) der Erwartungswert des Bruchterrns nicht Null wird. Auch eine Konsistenz des aLS-Schtzers
ist nicht gegeben, da die Stichprobenkovarianz zwischen X und e nicht gegen Null
strebt.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

4.6.2

565

Ursachen

4.6.2.1

Vernachlssigte Variablen

Im Abschnitt IV 4.1.1 haben wir gesehen, dass die Vernachlssigung relevanter Variablen im Fall deterministischer X zu einer Verzerrung der OLS-Schtzer fhrt, falls
die vernachlssigten Variablen mit den im Modell enthaltenen erklrenden Variablen korreliert sind. Die Verletzung von Annahme 2b fhrt deshalb auch im Falle
stochastischer X zur Verzerrung. Selbst die Konsistenz ist nicht mehr gegeben, d.h.
auch bei noch so groen Stichproben kommt es zur Verzerrung. Warum eine vernachlssigte Variable eine Verletzung von Annahme 2b zur Folge hat, wollen wir
im Folgenden noch eirnnal kurz begrnden: Vernachlssigen wir in einem korrekt
spezifizierten Modell

die Variable

x"

Y, = 130 + 13, Xli + f3'X 2I + E,


so fhrt dies zu

Y, = 13; + I3;X lI + E;
mit
E; = E, + f3'X 2I ,
da der stochastische Strterm die Effekte jeglicher vernachlssigter Variablen auf Y
beinhaltet. Da nun in nahezu jedem Regressionsmodell eine Korrelation (wenn
auch nur eine geringe) zwischen den erklrenden Variablen besteht, kommt es im
neuen Modell bei Vernderung von X, sowohl ZU einer Vernderung von X, als
auch von E. Wir knnen also sagen, dass X, und E korreliert sind und Annahme
2b verletzt wird. Bestnde keine Korrelation zwischen X, und X" kme es natrlich
auch zu keiner Annahmenverletzung und keiner Verzerrung.
4.6.2.2

Messfehler

Im Folgenden wollen wir die Folgen von Messfehlern bei der erklrten und bei den

erklrenden Variablen aufzeigen. Wir bedienen uns dabei zur Veranschaulichung


jeweils des einfachen Regressionsmodells.

1. Messfehler bei der erklrten Variablen


Betrachten wir die Regressionsfunktion einer Grundgesamtheit der Gestalt
Yi = 130 + 13, Xi + Ei .
(IV4: 80a)
Bei der Messung der Variablen Y entstehen nun Messfehler, sodass an Stelle der
wahren Werte Y, die Werte
(IV4: 80b)
erfasst werden. u, stellt dabei den auftretenden Messfehler dar. Setzt man (IV4: 80b)
in (IV4: 80a) ein und nimmt noch eine kleine Umformung vor, so erhlt man
Y; = Po + f3,x, + E;

mit

E; = E, + u, .

(IV4: 81)

Wir erkennen deutlich, dass solange X, und u, nicht korreliert sind, also formal
Cov(u"X,) - 0 vorliegt, die Gleichung ohne Probleme mit OLS geschtzt werden
kann. Die Gltigkeit von Cov(u"X,) - 0 ist unmittelbar einleuchtend. Warum sollte
auch der Messfehler bei Y mit der Variable X korreliert sein? Die OLS-Schtzer bleiben unverzerrt und konsistent. Messfehler bei der erklrten Variablen erhhen jedoch die Varianz der Strterme. Dem wird allerdings bei der Schtzung des Standardfehlers der Regression Rechnung getragen, indem die Standardabweichung der

IV Einfiihrung in die konometrie

566

E; und nicht der Ei geschtzt wird. Damit kommt es zu keiner Beeintrchtigung


der t-Werte und Hypothesentests. Kommt es zu systematisch positiven oder negativen Messfehlern, so gilt E(E) o. Wie wir aber unter N 4.2.1 gesehen haben,
wird ein solcher von Null verschiedener Erwartungswert von der Modellkonstante
absorbiert und verursacht somit kaum Probleme. Einzig und allein der "fit" (R')
wird aufgrund der hheren Varianz des Strterms schlechter.

2. Messfehler bei den erklrenden Variablen


Whrend Messfehler bei der erklrten Variablen weniger problematisch sind, sind
sie bei erklrenden Variablen kritisch. Nehmen wir an, fr das wabre Modell
Y, = Po + P,X, + E,
knnen aufgrund von Messfehlern nur die Werte

(N4: 82a)

(N4: 82b)

erfasst werden. Das Modell lautet nach Einsetzen von (N4: 82b) in (N4: 82a)

y; = Po + p,X; + E;

mit

(N4: 83)

Selbst wenn wir nun annehmen, dass der Messfehler bezglich der Variable X
einen Erwartungswert von Null aufweist, nicht autokorreliert und vom Strterm der
korrekten Gleichung unabhngig ist, entstehen Probleme bei der Anwendung von
aLS als Schtzmethode. Am einfachsten erkennen wir dies daran, dass der Strterm
E und die Variable x in (N4: 82b) korreliert sind, denn Ei - p,vi und Xi + Vi
sind korreliert, da Vi sowohl in e: als auch in X enthalten ist. Sie sind hier negativ
korreliert (unterschiedliche Vorzeichen von v). Daher kommt es bei Messfehlern im
Allgemeinen dazu, dass der Parameter l nach unten verzent geschtzt wird.
Insgesamt knnen wir also sagen, dass Messfehler bei den erklrenden Variablen
zu verzerrten und Inkonsistenten aLS-Schtzern fhren. Der Grad der Verzerrung
und Inkonsistenz hngt dabei von der Varianz des Messfehlers ab.
4.6.2.3

Verzgerte endogene Variable

Verzgerte endogene Variablen als erklrende Variablen sind zwar erst Thema des
Abschnitts N 4.7.1.1, doch aufgrund der Tatsache, dass sie eine Verletzung der Annahme 2b verursachen knnen, wollen wir bereits hier kurz auf sie eingehen. Betrachten wir dazu ein einfaches Modell mit autokorreliertem Strterm

y; = Po + p,X, +P'YH +E, mit E, =q,eH +u,.


Dieses Modell hat auch in Periode t-l Gltigkeit, sodass wir auch
YH = Po + p,X,_, + p'Y<-2 +EH
schreiben knnen. Untersuchen wir nun, was passiert, wenn sich Et_ 1 bei positiver
Autokorrelation erhht. Dies fhrt zunchst zu einem steigenden Wert Y~, und aufgrund der Autokorrelation auch zu einem hheren E,. In unserem originren Modell
sind also Y~, und E, korreliert, da sich beide in Reaktion auf E~, verndern. Dies
stellt eine klare Verletzung von Annahme 2b dar.64
64 Anders ausgedrckt, knnten wir E"'1 auch als vernachlssigte Variable betrachten, die mit
Yl-l korreliert ist. Wie wir wissen, hat auch eine solche Vernachlssigung eine Verzerrung
zur Folge, da auch sie zur Verletzung von Annahme 2b fhrt.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

567

Whrend also Autokorrelation in "normalen" Modellen zu keiner Verzerrung der


OLS-Schtzer fhrt, bewirkt Autokorrelation in Modellen mit verzgerten endogenen Variablen als erklrenden Variablen eine Verzerrung. Deswegen fhren auch
die verschiedenen FGLS-Verfahren (engl. feasible generalized least squares, vgl.
Abschnitt 4.5.4.1) in diesem Fall zu inkonsistenten Schtzungen.

4.6.2A

Simultanitt

Bisher sind wir davon ausgegangen, dass in unseren Modellen die erklrte Variable
keinen Einfluss auf die erklrenden Variablen besitzt. Wir waren daher in der Lage
unsere Modelle mit nur einer Gleichung abzubilden. Hat nun aber die erklrte
Variable einen eindeutigen Effekt auf zumindest eine erklrende Variable, so reicht
eine Gleichung nicht lnger zur Modellbildung aus. Wir stellen daher sog. sImultane Systeme~5 auf, in denen wir hufig nicht lnger zwischen erklrter und erklrenden Variablen, sondern zwischen Variablen unterscheiden, die simultan bestimmt werden (Y, Imdogene Varlabllm), und denen, fr die dies nicht gilt
exoglme Variablen). (IV4: 84) zeigt ein typisches Beispiel eines solchen Systems.

ex,

Menge

(1)

Yu = ~o + p, Y2I + P,X u + ~,X2I + Eu

Preis

(2)

Y21 = CXo + (Xl Yu + (l2XU

+ (l3X31 + E2i

(Iv4: 84)

Nehmen wir an, die beiden Gleichungen in (IV4: 84) beschreiben den Markt fr
Schweinefleisch in Deutschland. Y, und Y, beschreiben die Menge und den Preis
von Schweinefleisch, X, den Preis von Rindfleisch (Substitutionsgut), X, das durchschnittliche deutsche Haushaltseinkommen und X, den Preis von Futtermittel fr
Schweine. Gleichung 1 modelliert damit die Nachfrage-, Gleichung 2 die Angebotsseite. Kommt es nun in einem solchen System zu einer Vernderung der von den
Konsumenten nachgefragten Menge Y" so fhrt dies in Gleichung 2 zu einer Erhhung des Preises Y" was wiederum Y, beeinflusst. Ein solches Verhalten (sog.
Feedback) kennzeichnet endogene Variablen. Eine exogene Variable wie z.B. X,
kann zwar die Vernderung einer endogenen Variablen hervorrufen, die Vernderung der endogenen Variablen fhrt aber dann zu keiner Rckkopplung auf X,.

Wie kann nun aber ein simultanes System zu einer Verletzung von Annahme 2b
des CLRM und damit zur Verzerrung (und Inkonsistenz) der OLS-Schtzer fhren?
Betrachten wir dazu (IV4: 84). Nimmt E, zu, so fhrt dies zu einer Erhhung von Y,
in Gleichung 1, was wiederum zu einer Erhhung von Y, ber Gleichung 2 fhrt,
da Yl hier eine erklrende Variable ist. Diese Erhhung von Y2 geht dann wieder in
Gleichung 1 ein, da Y, hier eine erklrende Variable ist. Eine Erhhung des Strterms E, fhrt also in Gleichung 1 auch zu einer Erhhung der erklrenden Variable
Y,. E, und Y, sind also korreliert und verletzen Annahme 2b und damit auch 2a.
Damit ist der Schtzer fr p, verzerrt. Auch die Schtzer der Koeffizienten der exogenen Variablen werden verzerrt. Nehmen wir p, im obigen Modell als Beispiel. p,
soll den Effekt der Vernderung von X, auf Y, bei Konstantbaltung aller anderen
erklrendIm Varlabllm beschreiben. Eine Vernderung von X, fhrt nun aber ber
die Vernderung von Y, in Gleichung 2 zu einer Vernderung von Y,. Es ist also
nicht mglich die anderen Variablen konstant zu halten. Der Schtzer fr p, wird
verzerrt.

65 Fr eine ausfhrlichere Behandlung dieses Themas vgl. z.B. Studenmund (2007).

IV Einfiihrung in die konometrie

568

4.6.3

Instrumentenvariablenschtzung

Nachdem wir uns mit den Ursachen der Verletzung von Annahme 2b befasst
haben, wollen wir nun mgliche Korrekturmanahmen betrachten. Die Instrumentenvariablenschtzung gehrt zu den am hufigsten vorgeschlagenen Verfahren.
Sie kann bei Messfehlern, verzgerten endogenden Variablen und Simultanitt eingesetzt werden. Im Falle vernachlssigter Variablen empfiehlt sich hingegen die
Korrektur des SpeZifikationsfehlers durch Einbeziehen der vernachlssigten Variablen. Ist dies nicht mglich, da z.B. fr die Variablen keine Daten verfgbar sind,
wird mit sog. Proxy- Variablen gearbeitet, die mglichst hoch mit den vernachlssigten Variablen korreliert sind und an ihrer Stelle in ein Modell aufgenommen
werden 66
4.6.3.1

InstruDIentenvariabIen

Nehmen wir an, im einfachen linearen Regressionsmodell

Y, =o +,X, +E,
ist die Annahme 2b des CLRM verletzt. Die Variable X, die wir dann als endogen
bezeichnen, ist mit dem Strterm korreliert, was dazu fhrt, dass OLS verzerrt und
inkonsistent ist. Wichtigster Schritt bei der Insttumentenvariablenschtzung ist nun
die Suche nach einer neuen Variable Z, die hochgradig mit der Variable X korreliert und gleichzeitig nicht mit dem stochastischen Strterm des Modells korreliert
ist. Eine Zufallsvariable Z, wird daher dann als Instrument bezeichnet, wenn67

die Korrelation zwischen Z und E, bei Null liegt (Instrument-Exogenitt)


(Iv4: 85)

und sich die Korrelation zwischen Z und X mit zunehmendem Stichprobenumfang deutlich von Null unterscheidet (Instrument-Relevanz)
(IV4: 86)

Haben wir eine solche Variable Z gefunden, so knnen wir die Schtzer so modifizieren, dass wir zwar nicht erwartungstreue jedoch konsistente Schtzer erhalten:
Ist X die mit dem Strterm korrelierte Variable und Z das fr sie gefundene Insttument, so hat der InstrumentenvarIablenschtzer (IV-Schtzer) die GestaifiB

lV- LY,z,

,- LX,Zj

Co;(Y,Z)
Co;(X,Z)

(Iv4: 87)

Das stellt nichts anderes als die Stichprobenkovarianz zwischen Y und Z dividiert
durch die Stichprobenkovarianz zwischen X und Z dar. Dies verdeutlicht, dass der
IV-Schtzer nur dann Ergebnisse liefern kann, wenn Z und X korreliert sind. An-

66 Die notwendigen Bedingungen, damit diese Vorgehensweise zu konsistenten Schtzern


fhrt, erlutert z.B. Wooldridge, ].M. (2006), Kapitel 9.
67 Es reicht aus, wenn diese Bedingungen mit zunehmendem Stichprobenumfang erfllt sind.
Zur Vereinfachung verzichten wir aber im Folgenden auf eine Limes-Schreibweise.
68 Eine Herleitung findet sich z.B. in Hili, R.C., Griffiths, W.E., ]udge, G.G. (200n, Kapitel 13.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

569

dernfalls ist er nicht definiert. Es ist kein Zufall, dass wir aus (N4: 87) fr den Fall
Z = X den OLS-Schtzer erhalten. Ist X nmlich exogen, so kann X sich selbst instrumentieren, sodass der IV- dem GLS-Schtzer entspricht.
10 hnlicher Weise, in der wir auch (N2: 20) hergeleitet haben, knnen wir nun
auch die Beziehung zwischen dem Instrumentenvariablenschtzer und dem wahren
Regressionsparameter der Grundgesamtheit p, aufstellen. Es gilt
8IV= R

fJ,

,.,

LZ,E,

+ ""

~XiZi

(Iv4: 88)

Analog zu unseren Ausfhrungen unter N 4.6.1 zeigt diese Darstellung, dass sich
bei Gltigkeit von (N4: 85)
ntit zunehmendem Stichprobenumfang n dem
wahren Wert p, annhert (Stichprobenkovarianz zwischen Z und E geht ge&,en
Null).
ist daher ein konsistenter Schtzer fr p,. In groen Stichproben ist
approximativ normalverteilt mit

:"

:"

Jj:"

(Iv4: 89)
(Iv4: 90)
wobei ci' die Varianz des Strterms ist und r;' fr den quadrierten Korrelationskoeffizienten zwischen X und Z in der Stichprobe steht. Da 'E x~ nichts anderes als
n . Var(X) ist, nimmt die Varianz des Instrumentenvariablenschtzers Ld.R. ntit zunehmendem Stichprobenumfang ab. Je hher die Korrelation zwischen X und
seinem Instrument Z ist, desto geringer ist die Varianz und desto effizienter ist der
IV-Schtzer. Gerade deswegen ist eine mglichst hohe Korrelation zwischen X und
Z so wichtig. Geht diese gegen Null, strebt die Varianz des Schtzers gegen unendlich. Hieran erkennen wir auch die Kosten des IV-Schtzers, die wir in Kauf nehmen mssen, wenn wir vennuten, dass eine erklrende Variable endogen ist. Sind
X und E nmlich doch unkorreliert, dann hat der N-Schtzer eine hhere Varianz
als der OLS-Schtzer, solange r;' < 1.
Den Schtzwert fr

0'

erhalten wir hnlich wie fr OLS als

"'"
IV 2
& _ ""'
(e,)

IV -

n-2

"'"
... IV
""'
(Y, - Po
-

n-2

p,... IV X,)2

(IV4: 91)

Es werden also in (N2: 25) lediglich die OLS-Schtzer durch die N-Schtzer ersetzt.
Nutzen wir die Residuen der Instrumentenvariablenschtzung e:" zur Berechnung
des Bestimmtheitsmaes nach der klassischen Formel R' = 1 - RSS/TSS, so ergeben
sich diverse Probleme. So kann R' dann auch negative Werte annehmen, besitzt
keine natrliche Interpretation und kann nicht im Rahmen eines F-Tests zur Berechnung der F-Statistik herangezogen werden. R' ist nun aber im Rahmen unserer
Analyse nicht die entscheidende Gre. Was nutzt uns nmlich z.B. ein hohes
2
OLS_R , wenn wir l nicht konsistent schtzen knnen. Unser Ziel bei der IVSchtzung ist anders als bei OLS keine R1-Maximierung, sondern bessere Schtzungen des partiellen Effekts von X auf Y, wenn X mit E korreliert ist.
In der Literatur wird Zum Teil recht ungenau formuliert, dass die Variable X im
Zuge der Instrumentenvariablenschtzung durch Z ersetzt werden soll. Wrden wir
dieser Anleitung strikt Folge leisten, so erhielten wir nicht (N4: 87) sondern

IV Einfiihrung in die konometrie

570

Ii' =

",

LY,z,

"'"
L...JZi

dessen Umfonnung

liefert. Mit zunehmendem Stichprobenumfang nhert sich auch hier der zweite
Tenn Null an. Der erste wird jedoch nur , erreichen, wenn der dahinterstehende
Bruch 1 erreicht. Das wre aber nur der Fall, wenn X = Z gilt. Da dann wieder der
letzte Tenn nicht gegen Null konvergiert, ist ein solcher Schtzer nicht konsistent.
Zusammenfassend liegt uns mit der Instrumentenvariablenschtzung eine Technik
vor, die bei Vorhandensein eines geeigneten Instruments konsistente Schtzer liefert. Gerade die Tatsache, dass es nicht leicht ist, geeignete Instrumente zu finden,
erschwert aber die praktische Umsetzung. Besonders schwierig wird es bei multiplen Regressionen, bei der mehrere Variablen mit dem Strtenn korreliert sind. Fr
jede endogene Variable ist dann nmlich mindestens ein eigenes Instrument ntig.
4.6.3.2

Zweistufige Methode der kleinsten Quadrate (TSLS)

Bei der praktischen Umsetzung der Instrumentenvariablenschtzung wird auf die


zwelstujlge Metbode der kleinsten Quadrate (TSLS, engl. !wo stage least squares)
zurckgegriffen. Sie ist vor allem dann relevant, wenn es mehr potenzielle Instrumente als endogene Regressoren gibt. Wir verwenden in einem solchen Fall nmlich
nicht das Z mit der hchsten Korrelation mit X, sondern bercksichtigen alle Z in
geeigneter Weise.
Betrachten wir ein einfaches Regressionsmodell

Y, = o + ,X, + E,

(IV4: 92)

mit einer endogenen erklrenden Variablen X und zwei fr sie in Frage kommenden Instrumenten Z, und Z" fr die COV(E" Z,) = 0 und COV(E" Z,) = 0 sowie
COV(X" Z,) ># 0 und COV(X" Z.) ># 0 gilt. Wir interessieren uns nun fr die Instru-

mentenvariablenschtzung der Parameter


TSLS dem folgenden 2-Stufen-Schema:
Stufe 1:

Po

und

,.

In einem solchen Fall folgt

Es wird die Variable, die die Verletzung von Annahme 2b hervorruft (hier
also X), auf die exogenen Instrumentenvariablen regressiert:
(Iv4: 93)

Mit dem Ergebnis der Schtzung dieses Modells werden dann die gefitteten Werte X, = a, + a,Z" + a,Z" berechnet. Da diese von den Instrumentenvariablen abhngen bzw. LInearkombinationen der Instrumente
sind, sind sie asymptotisch nicht mit dem Strtenn

dells korreliert 69

des Ursprungsmo-

69 Warnung: Das HinZufgen einer relativ groen Anzahl von zulssigen Instrumenten kann
im Fall endlicher Stichproben in Stufe 2 zur Inkonsistenz der Schtzer fhren. Mit diesem
Problem befassen sich Bound, J., Jaeger, D.A., Baker, R.M. (995) nher.

4. Verletzungen der Annahmen des klassischen Regressionsmodells


Stufe 2:

Die gefitteten Werte

Xi

571

des 1. Schritts werden dann zur Schtzung von


(IV4: 94)

verwendet. Die OLS-Schtzung dieser Gleichung liefert die gesuchten Instrumentenvariablenschtzungen als 10 fr p, und 1, fr p,.

1, aus der Schtzung von (IV4: 94) genau


dem Schtzwert, den wir auch ber (IV4: 87) erhalten htten. Der Standardfehler
aus (IV4: 94) stimmt jedoch nicht mit dem des IV-Schtzers berein, was jedoch bei
der TSLS-Prozedur in allen gngigen Softwarepaketen (so auch in EViews) korrigiert wird.7 Generell greifen wir daher in der Praxis auch bei Modellen mit nur
einer Instrumentenvariahlen auf TSLS zurck.
Im Falle nur eines Instruments entspricht

Die TSLS-Methode ist einfach auf die multiple Regression bertragbar. Es ist aber
zu beachten, dass dann mindestens so viele Instrumente zur Verfgung stehen
mssen, wie endogene erklrende Variablen vorhanden sind und diese Instrumente Variablen sein mssen, die nicht bereits im Modell enthalten sind. Liegen

genau so viele Instrumente wie endogene erklrende Variablen vor, so sprechen

wir von exakter Identifikation, bei zu vielen Instrumenten von Oberidentifikation


und bei zu wenigen von Unter/dentifikation. Im Falle von Unteridentifikation ist
eine Schtzung unmglich.
Nehmen wir beispielsweise an, wir verfgen in einem Modell der Form
(IV4: 95)
in dem eine erklrende Variable (konkret X,) endogen ist, ber zwei exogene
Instrumente Z, und Z, mit COV(E" Zu) - 0 und COV(E" Z,) - 0 sowie Cov(X", Zu) "* 0
und Cov(X", Z;) "* O. Wir sagen hier auch, dass eine beridentifikation vom Grad 1
vorliegt, da wir ein Instrument mehr zur Verfgung haben, als wir bentigen. Wir
knnen nun mit TSLS in den folgenden 2 Stufen schtzen:
Stufe 1:

Wir regressieren die endogene erklrende Variable auf die exogenen


Modellvariablen und die verfgbaren Instrumente, also
(Iv4: 96)
wobei der Strterm v den Erwartungswert E(v,) - 0 besitzt und nicht mit
den erklrenden Variablen korreliert ist, d.h. Cov(v"X,) - Cov(v"Z,) Cov(v"Z;) - O. Die Schtzergebnisse nutzen wir zur Bestimmung der
Xli ; ; ; 0 + 1XZl + 2Z11 + 3ZZi ' die als Linearkombinationen exogener
Variablen sicher nicht mit dem Strterm E des Ursprungsmodells korreliert sind.

Stufe 2:

Wir nutzen die

XH

aus Stufe 1 fr die OLS-Schtzung von


(IV4: 97)

und erhalten daraus unsere Instrumentenvariablenschtzungen.


70 Generell kann jedoch TSLS genau wie OLS unter HeteroskedastiZitt und Autokorrelation

leiden, sodass dennoch falsche Standardfehler ausgewiesen werden. Wooldridge, ].M.


(2006) gibt daher in Kapitel 15 einen berblick ber mgliche Gegenmanahmen. Bewhrt hat sich U.a. die Verwendung von Newey-West Standardfehlem.

IV EinfOhn.mg in die Okonomebie

572

Bit

Wren in Stufe 1 ~ - 0 und a., - 0, so sind die beiden Instrumente nicht relevant
und es liegt Unteridentiflkation vor. Als Folge wre Xl linear abhngig von Xz,
weshalb die Schtzung der Stufe 2 perfekt multlkollinear und damit unmglich
wre. Es muss daher in Stufe 1 ~ '#. 0 oder a., '#. 0 gelten, damit wir schtzen knneo. Die Signifikanz der Instrumente in Stufe 1 kann als Indikator fr ihre Relevanz
betrachtet werden. Ein hoher Wert der F-Statistik fr gemeinsame Signiflkanz aller
Instrumentenvariablen (Z, und Z., also ohne XJ in Stufe 1 ist notwendig. Ein kleiner Wert der F-Statistik ist ein Indiz fr schwache (wenig Erklrung der Vernderung von X) Instrumente.

BeloplellV 4-26

Frauenlohnmodell und TSLS

Wooldridge (2006) schtzt mit einem Datensatz von 428 Beobachtungen ein typisches

Modell zur Erklrung der Lhne von Brbeitstiiligen Frauen


In(V;) = o +11,X,1 +2~1 +~~ +e.,

in dem Y den Stundenlohn (in US-Dollar), Xl die Schulbildung (in Jahren) und ~ die Berufserfahrung (in Jahren) darstellen, mit Hilfe der Instrumente Schulbildung der Mutter Zl
und Schulbildung des Vaters Zi, da er eine Endogenitt der Variable Xl vermutet.
Wie wir in Beispiel IV 3-9 gesehen haben, erhlt man bei OLS-Schtzung ohne BerOcksichtigung einer evtl. Endogenitt, also Schtzung von (IV4: 95), folgendes Ergebnis:
Dependent Variable: LOG(Y)
Method: Least Squares

C
X1

X2
X2'2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Sampie: 1 428
Included observations: 428

Coefficient
-0.522041

Std. Error

0_107480
0.041567
0.000811

0_014148
0.013175
0.000393

0.156820
0.150854
0.666420
188.3051

-431.5990
1.960988

0.198632

t-Statistic
-2.628179
7.598332

3.154906
-2.062834

Mean dependent var


S.O. dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0089

0_0000
0.0017
0.0397
1.190173
0.723198
2.035509
2.073445

26.28615
0.000000

Zur TSLS-Schatzung in EViews (Quick I Estimate Equation - Method: TSLS) sind lediglich
die originre Modellgleichung und eine Usts der Instruments anzugeben. Dabei ist jedoch
zu beachten, dass in die Liste nicht nur die -externen- Instrumente aufgenommen werden.
Es mOssen auch die exogenen Variablen des Modells vorkommen, da diese als Instrumente fr sich selbst dienen. Die zwei TSLS-Schritte laufen dann automatisch ab. Auf der Folgeselte sind die IV-Schtzungen der zweiten Stufe von TSLS, d.h. Ergebnisse der Regression analog zu (IV4: 97), wiedergegeben. Ebenfalls sind die Ergebnisse der ersten Stufe
aufgefiihrt, die von EViews nicht ausgewiesen werden. Dazu wird eine Regression von X,
auf )(,;,
~ und Z! durchgefOhrt.
Die von EViews im Rahmen der TSLS-prozeclur berechneten Statistiken, wie z.B. das ~
von 0,1357, beziehen sich auf die Residuen, die aus dem ursprunglichen Modell unter
Verwendung der InstrumentenvariablenschAtzungen des letzten TSLS-Schritts entstehen.
Dazu werden ins Analogon zu Gleichung (IV4: 95) an Stelle der p.. die geschtzten ")Ic: aus
dem Analogon zu (IV4: 97) eingesetzt. Sie dOrfen nicht mit den Residuen des zweiten
TSLS-Schritts, d.h. von Gleichung (IV4: 97), verwechselt werden.

X:'

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Stufe 1

Dependenl Variable: XI
Melhod: Least Squares
Coefficienl
9.102640
0.045225
-0.001009
0.157597
0.189548

C
X2
X2"2
ZI
Z2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
log likelihood
Durbin-Walson sial

0.211471
0.204014
2.038967
1758.575
-909.7168
1.939888

R-squared
Adjusted R-squared
S.E. of regression
F-slalistic
Prob(F-slalislic}

Sampie: 1 428
Included observations: 428
I-Slalislic
Prob.
21.33958
0.0000
1.123593
0.2618
-0.838572
0.4022
4.390609
0.0000
5.615173
0.0000

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz crilerion
F-statistic
Prob(F-slalistic}

Stufe 2

Dependenl Variable: lOG(Y}


Method: Two-Stage least Squares
Inslrumenllisl: ZI Z2 X2 X2 A 2
C
XI
X2
X2"2

Sid. Error
0.426561
0.040251
0.001203
0.035894
0.033756

573

12.65888
2.285376
4.274378
4.321797
28.36041
0.000000

Sampie: 1 428
Included observalions: 428

Coefficient

Std. Error

t-Statistic

Prob.

0.048100
0.061397
0.044170
-0.000899

0.400328
0.031437
0.013432
0.000402

0.120152
1.953024
3.288329
-2.237993

0.9044
0.0515
0.0011
0.0257

0.135708
0.129593
0.674712
8.140709
0.000028

Mean dependent var


S.D.dependentvar
Sum squared resid
Durbin-Watson stat
Second-Stage SSR

1.190173
0.723198
193.0200
1.945659
212.2096

Beim Vergleich der beiden Regressionsergebnisse (OlS-Schtzung des Ursprungsmodells und zweile Stufe von TSlS) fllt sofort die deullich vernderte Schtzung des Regressionskoeffizienten der Variable X, (aus dem Analogon zu (IV4: 97}) im Vergleich zu X,
(aus dem Analogon zu (IV4: 95}) bei nun hherem Standardfehler und niedrigerem t-Wert
auf. Endogenitl scheinl hier also einen Einfluss auf die Schlzergebnisse zu haben.
Bisher hatten wir lediglich eine Vermutung, dass X, Annahme 2b verletzt. Vor Durchfhrung der Instrumentenvariablenschtzung ist es aber empfehlenswert durch ein geeignetes
Testverfahren (vgl. Abschnitt 4.6.3.3) zu prfen, ob dies auch wirklich der Fall ist. Fhren
wir die Instrumentenvariablenschtzung nmlich durch, wenn keine Verletzung vorliegt,
fiihrt dies zwar zu keinem verzerrten Schtzer, jedoch zu einem Schtzer mit hOherer
Varianz (im Vergleich zu OlS).

Wir knnen TSLS auch in Modellen mit mehreren endogenen erklrenden


Variablen einsetzen. 71 Betrachten wir beispielsweise das Modell

Yi = o + ,X + ,X + ,X" + ,X" + ,X" + Ei'


1i

2i

in dem X, und X, endogen und X" X, sowie X, exogen sind. Um dieses Modell mit
TSLS zu schtzen, bentigen wir mindestens zwei exogene Variablen, die nicht im
71 Fr eine detaillierte Beschreibung vgl. Wooldridge (2006), Kapitel 15.

IV Einfiihrung in die konometrie

574

Modell enthalten und hochgradig mit X, und X, korreliert sind. Haben wir mindestens zwei Instrumente gefunden, knnen wir in der ersten Stufe von TSLS dann jeweils X, und X, auf alle Instrumente und exogenen erklrenden Variablen des Ursprungsmodells regressieren und die damit bestimmbaren Xli und X" in der zweiten TSLS-Stufe als Variablen verwenden.
Da die Suche geeigneter Instrumentenvariablen oft schwer fllt, geben wir dem Leser abschlieend folgende Tipps zur praktischen Instrumentensuche an die
Hand:

1. Manchmal ist COv(E" JQ 0, aber COV(E" X,-,) - 0. Zudem sind X, und x,., meist
korreliert. Wir knnen dann x,., als Instrument fr X, verwenden. Typischerweise ist dies der Fall, wenn bei X Messfehler entstehen und wir annehmen,
dass der Messfehler nicht autokorreliert ist.

2.

In einem simultanen System Y" = o + , Y" + ,X, + E, (zweite Gleichung unbekannt, Y, aber sicher endogen) eignen sich z.B. x,., oder X,.., als Instrumente
fr Y" falls eine hohe Korrelation besteht. Problematisch ist dabei jedoch, dass
X,-, oder x,.., in einem dynamischen Modell (vgl. Abschnitt IV 4.7.1) bereits enthalten sein knnen. Wir haben dann derartige Instrumente nicht zur Verfgung.

3. Vor allem bei Messfehlern knnen sich die Rangziffern der Variablen als

In-

strumente eignen. Wichtig ist dabei jedoch, dass das Ranking nicht durch die
Messfehler beeinflusst werden darf.

4.6.3.3

Hausman-Test und Verletzung von Annahme 2b

Sind die erklrenden Variablen exogen, so ist der GLS-Schtzer effizienter als der
N-Schtzer. Es ist daher sinnvoll zu prfen, ob eine erklrende Variable, von der

wir vennuten, dass sie endogen ist, dies auch tatschlich ist. Andernfalls ist eine
Anwendung von TSLS nmlich gar nicht erforderlich und wir verwenden den effizienteren OLS-Schtzer. Dafr bietet sich der sog. Hausman-Test an. 72 Da die Residuen e, nicht zum Test einer Korrelation zwischen einer erklrenden Variablen und
dem Strterrn verwendet werden knnen,73 schlgt Hausman ein anderes Testverfahren vor. Die Grundidee des Tests besteht im direkten Vergleich von OLS- und
IV-Schtzer. Unter der Nullhypothese der Exogenitt ist der OLS-Schtzer konsistent
(und fr groe Stichproben) effizient, wohingegen er inkonsistent ist, wenn die
Alternativhypothese Endogenitt gilt. Der IV-Schtzer hingegen ist konsistent, egal
ob die Nullhypothese korrekt ist oder nicht, jedoch ineffizient, wenn sie gilt.
Ein groer Unterschied zwischen OLS- und IV-Schtzung wird von Hausman als
Evidenz zugunsten der Alternativhypothese gedeutet. Unter Gltigkeit der Nullhypothese ist im einfachen Regressionsmodell die Statistik
H=

(,"IV -,"'OlS)'

---'-c~_---'c~~

Var(n-Var(MIS)

(IV4: 98)

mit einem Freiheitsgrad asymptotisch Chi-Quadrat-verteilt. Zur Schtzung beider


Varianzen soll dabei die gleiche Schtzung fr ci herangezogen werden. Die Null72 Vgl. Hausman (1978).
73 Diese sind per Konstruktion in LS nie mit der betroffenen erklrenden Variablen korreliert. Vgl. dazu (IV2: Be).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

575

hypothese kann verworfen werden, wenn H den kritischen Wert bersteigt.

Schlussfolgerung ist dann, dass die zum Parameter /3, gehrende Variable endogen
sein muss (unter der Voraussetzung, dass die zur N-Schtzung verwendeten

Instrumente wirklich exogen sind). Diese Methode kann einfach auf ein multiples
Regressionsmodell erweitert werden.74

Hausman-Tests kommen vor allem bei der Erkennung von Messfehlern, vernachlssigten Variablen und Simultanittsverzerrungen zum Einsatz. Ein von Davidson

und MacKinnon vorgeschlagener Spezialfall des Hausman-Tests wird besonders


hufig angewendet.75 Bei diesem wird im Falle nur einer endogener erklrenden
Variablen zunchst die als endogen vermutete erklrende Variable X auf alle exogenen Variablen des Modells und ein oder mehrere Instrumente regressiert. Die
Residuen dieser Hilfsregression werden dann als zustzliche Variable im originren
Regressionsmodell bercksichtigt und das neue Modell geschtzt. Uefert ein t-Test
fr den Koeffizienten der Residuenvariable Signifikanz, kann dies als ein Hinweis
dafr interpretiert werden, dass die Korrelation zwischen X und E einen Einfluss
auf das Schtzergebnis hat. Im Falle mehrerer endogener erklrender Variablen
wre hier natrlich ein F-Test heranzuziehen, da fr jede als endogen vermutete
erklrende Variable eine Residuenvariable entsteht.
Nelunen wir an, wir vennuten, dass im Modell
(Iv4: 99)
Yi = /30 + /31 XIi + /3'X 2i + /33 X3i + Ei
eine erklrende Variable (konkret x,) endogen ist. Haben wir ein Instrument Z
fr X, gefunden, so gehen wir in den folgenden zwei Schritten vor:

Schritt 1:

Wir schtzen zunchst in einem ersten Schritt die Gleichung


(IV4: 100)

d.h. wir regressieren die als endogen vermutete erklrende Variable auf
alle exogenen Variablen und Z und bestimmen die Residuen v,. Da
jede der in (IV4: 100) integrierten exogenen Variablen mit E unkorreliert
ist, ist Xl nur dann mit E unkorreliert, wenn v und E unkorreliert sind.
Dies ist es, was wir nun testen wollen. Schreiben wir EI = StVj + lljl wobei u ein klassischer Strtenn ist, dann sind E und v unkorreliert, wenn
11, - 0 ist.

Schritt 2:

Der einfachste Weg 11, - 0 zu testen, ist die Durchfhrung eines t-Tests
nach Aufnahme von v in (IV4: 99). Da v aber nicht beobachtbar ist,
verwenden wir stattdessen die im ersten Schritt berechneten Vi' Wir
schtzen also das neue Modell
YI = /30 + /3,X" + /3'X 2I + /3'X3I + 11, VI + u l

(IV4: 101)

mit OLS und testen H,: 11, - 0 mittels der t-Statistik. Sind wir in der Lage
Ho abzulehnen bzw. ist 11, signifikant von Null verschieden, so knnen
wir schlieen, dass X, tatschlich endogen ist, da E und v korreliert
sind, und OLS verzerrte Ergebnisse liefert.

74 Vgl. z.B. Johnston und Dinardo (997), Kapitel 8.


75 Vgl. Davidson und MacKinnon (989).

IV EinfOhn.mg in die Okonomebie

576

Interessante Eigenschaft der Schtzung von (N4: 101) ist, dass die geschtzten Konatrlich) genau den EreffIzienten der erklrenden Variablen (abgesehen von
gebnissen einer TSLS-Schtzung von OV4: 99) entsprechen. Dieses Verfahren liefert
uns also sowohl die TSLS-Schtzergebnisse als auch eine gleichzeitige Mglichkeit
der Prfung, ob die Anwendung von TSLS berhaupt gerechtfertigt war. Wir knnen daher das vorliegende Testverfahren wie folgt interpretieren: Das Hinzufgen
von
zum Ursprungsmodell CIV4: 99) und die anschlieende DLS-Schtzung beseitigt die Endogenitt von ~. Schtzen wir also zunchst (IV4: 99) mit OLS, knnen wir sehen wie stark sich die Schtzung ~ durch HinzufUgen von
ndert
und damit den Einfluss einer Endogenitt von ~ erkennen.

Bit

Hausman-Test

Beispiel IV 4-27

PrOfan wir fOr das Frauenlohnmodell aus Beispiel IV 4-26, ob die Anwendung von TSLS
tatslchlich gerach'tfenigt war, d.h. ob die Variable X1 Annahme 2b wirklich verletzt. In
einem ersten Schritt ist zunchst die Variable X1 in Abhngigkeit von ihren Instrumenten Z1
und L: sowie den exogenen Variablen XI! und ~ des Ursprungsmodells zu schtzen. Da
diese Regression genau der ersten Stufe der TSLS-prozedur entspricht, haben wir sie bereits unter Beispiel IV 4-26 durchgeffihrt. Die Residuen dieser Slufe, die sich aufgrund des
im Beispiel IV 4-26 angegebenen Regressionsergebnisses leicht Ober die Gleichung

VI -

X. -9, 1026-0,0452~1 +0,0010~I-o, 1576ZIl -0,1895Z11

bestimmen lassen, werden nun als zusAtzliehe Variable in die ursprOngliche Modellgleichung integriert und das so entstehende neue Modell geschtzt. Dies liefert den folgenden Regressionsoutput:
Dependent Variable: LOGM
Method: Least Squares
Coefficient

0.048100

X2
X2'2

.0._

0.058167
0.162350
0.154429
0.665016
187.0701
430.1908
1.931343

X1

R-squared
Adjustecl R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbln-Watson stat

0.061387
0.044170

Sampie: 1 428
Included obselVations: 428
t-Statislic
Prob.
Std. Error

0.394575
0.030985
0.013239
0.000396
0.034807

0.121904
1.981499
3.336272
-2.270623
1.671105

Mean dependent var


S.O. dependent var
Akaike info criterion
Schwarz criterion
F-statislic
Prob(F-statlsllc)

0.9030
0.0482
0.0009
0.0237
0.0954

1.190173
0.723198
2.033602
2.081022
20.49611
0.000000

Es wird dadurch unsere Behauptung beslaUgt, dass die durch das Integrieren der Residuenvariable resultierenden Parameterschatzungen mit denen der TSLS-Prozedur identisch
sind.7S Wir erkennen jedoch, dass der p-Wert fQr den Koeffizienten der integrierten Residuenvariable (in E-Views V) bei 0,0954 liegt Ein zweiseitiger t-Test der Nullhypothese der
Exogenilt (Koeffizient von V gleich Null) wUrde daher bei einem Signifikanzniveau von
5 % nicht zu einer Ablehnung von Ho fahren. Bel einem SIgnifikanzniveau von 10 % wOrde

76 Die Unterschiede bei den Standardfehlem ergeben sich aus der verschiedenen Anzahl von
Freiheitsgnaden bei der jeweiligen Berechnung der Standardfehler.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

577

sich jedoch die Alternativhypothese der Endogenitt besttigen lassen. Wir haben damit
nur einen moderaten Hinweis auf Korrelation zwischen e und X,. Es empfiehlt sich daher
aufgrund der Tatsache, dass die TSlS-Schtzung von 0,0614 doch deutlich unter der
OlS-Schtzung von 0,1074 liegt, beide Ergebnisse festzuhalten.
Dieser Spezialfall des Hausman-Tests kann einfach fr mehrere endogene erklrende variablen verallgemeinert werden. Dazu wird allerdings fr jede als endogen vennutete Variable mindestens ein Instrument bentigt. Zur Testdurcbfhrung
berechnen wir lediglich fr jede als endogen vennutete erklrende Variable die Residuen der Regression des Typs (IV4: 100), verwenden diese als zustzliche erklrende Variablen im ursprnglichen Modell und testen deren gemeinsame Signifikanz mittels eines F-Tests. Gemeinsame Signifikanz deutet an, dass mindestens eine
der als endogen vennuteten erklrenden Variablen dies auch ist.

4.6.3A

Sargan-Test und Gte von Instrumenten

Wie wir gesehen haben, mssen Instrumente relevant (Korrelation mit der endogenen Variable) und exogen (keine Korrelation mit dem Strtenn) sein. Whrend ein
F-Test auf gemeinsame Signifikanz aller Instrumente in Stufe 1 von TSLS Hinweise
auf die Relevanz der Instrumente liefert, kann die Korrelation zwischen Instrument

und dem unbeobachtbaren Strtenn der Grundgesamtheit nicht unmittelbar getestet


werden. Um die Gte von Instrumenten trotzdem beurteilen zu knnen, eignet sich

im Falle von beridentifikation (Anzahl der Instrumente grer als Anzahl der endogenen erklrenden Variablen) der sog. Sargan-Test.77

Nehmen wir zu dessen Veranschaulichung an, unser Modell sei

Y, = o + ,X 1I + ,X 2I + E,
(IV4: 102)
und wir verfgen fr die endogene erklrende Variable X, ber zwei potentielle Instrumente Z, und Z,. Die Testdurcbfhrung erfolgt nun in zwei Schritten:
Zunchst wird die beridentifizierte Gleichung mit TSLS geschtzt und die dabei
gewonnenen Parameterschtzungen, d.h die Y. aus Gleichung (IV4: 97) als Schtzungen fr die . zur Bestimmung der Residuen e, im Modell (IV4: 102) eingesetzt.
Anschlieend wird dann eine Regression von e, auf alle exogenen Variablen
(IV4: 103)
durchgefhrt. Falls Z" Z, und X exogen sind, sollten sie nicht mit e korreliert sein
und die Schtzung von (IV4: 103) ein niedriges Bestimmtheitsma R' liefern. Unter
der Nullhypothese, dass alle Instrumente exogen sind, ist die Teststatistik
SARG=nR'

(Iv4: 104)

bei der n den Stichprobenurnfang und R' das Bestimmtheitsma der Schtzung von
(IV4: 103) darstellt, mit q Freiheitsgraden asymptotiscb Chi-Quadrat-verteilt. q ist
dabei die Anzahl der Instrumentenvariablen Z abzglich der Anzahl der endogenen
erklrenden Variablen, d.h. der Grad der beridentifikation (hier q - 2 - 1 - 1).

77 Vgl. Sargan (1964). Voraussetzung der Anwendung des Tests ist Homoskedastizitt im Bezug auf die Instrumentenvariablen, d.h. vareE, IZ", Z., ... ) - 0'.

IV EinfOhn.mg in die Okonomebie

578

Q.

Ist SARG grer als der entsprechende kritische Wert der Chi-Quadrat-Verteilung,
muss die Nullhypothese, dass alle Instrumente exogen sind, verworfen werden.
Eine Ablehnung von H.. bedeutet, dass mindestens ein Instrument mit dem Strterm
e korreliert ist und daher die IV-Schtzungen, die auf den gewhlten Instrumenten
basieren, nicht gltig sind.
Wichtig ist, dass der Sargan-Test nur benutzt werden kann, wenn mehr Instrumente
vorliegen, als wir unbedingt brauchen. Haben wir genauso viele Instrumente wie
Z
endogene erklrende Variablen, wre das R , das wir im Zuge des Sargan-Tests erhalten gleich Null. Wtr knnen die Exogen#t der Instrumente im Falle exakter
Identifikation also n1cbt testen.

Beispiel IV 4-28

SBrgan-Test

FOr das Frauenlohnmodell aus Beispiel IV 4-26 hatten wir die Instromente Schulbildung

der Muner

und Schulbildung des Vaters Z2 zur TSLS-Schatzung herangezogen. Die

Relevanz der Instrumente knnen wir durch einen F-Test IOr Ihre gemeinsame Slgnlftkanz
in der ersten TSLS-Stufe, d.h. in der Regression von X, auf ~'X:' Z, und Zz, untersuchen. Diese erste Stufe haben wir bereits Im Beispiel IV 4-26 geschAtzt. Um diesen FTest durchzufUhren dOrfen wir nun nicht einfach den F-Wert des EViews-Outputs von
28,3604 heranziehen, da dieser die Gesamtsignifikanz aller Modellvariablen testet. Wir bentigen nur einen Test fOr die Parameter von Z, und Z!. Diesen knnen wir in EViews im
Schatzfenster dieser Regression Ober View I Coefficient Tests I Wald - Coefficient Restrictions und Eingabe der Restriktion c(4) '" c(5) '" 0 durchfUhren (vgl. dazu auch Beispiel IV 37). Das Resultat eines solchen F-Tests ist F '" 55,4003. Die Variable X, ist also klar (partiell) korreliert mit Z, und l,.
Die Instrument-ExogenitAl: knnen wir mit dem eben beschriebenen Sargan-Test OberprOfan. Dazu bentigen wir zunAchst die Im Anschluss an Gleichung (IV4: 102) er1Auterten
Residuen BI. Diese werden von E-Views nach der TSLS-SchAtzung in der Variable "resid"
abgelegt und dOrfen nicht mit den Residuen des zweiten TSL8-Schrltls, 1, verwechselt
werden. Wir legen fUr die relevanten Residuen eine Variable E1 an und regressieren sie
auf alle exogenen Variablen, was folgendes Ergebnis liefert:78
Dependent Variable: E1
Method: Least Squares

Z1

Z2
X2
X22
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Coefficient
0.010964
0.006607
0.005782
-1.83E-Q5
7.34E-Q7

0.000B83
-0.008565
0.675210
192.8495
-436.7021
1.946859

Sampie: 1 428
Included obselVaUons: 428
t-Statistic
Std. Error
Prob.
0.141257
0.077618
0.9382
-0.555804
0.011886
0.5788
0.011179
0.517263
0.8052
0.013329
-0.001376
0.9989
0.000398
0.001842
0.9985
Mean dapandent var
3.18E-16
S.D. dependentvar
0.672337
Akaike info criterion
2.064029
Schwarz criterion
2.111448
F-statistic
0.093496
Prob(F-statistic)
0.984495

78 Dies ist erforderlich, da die Variable "resid" in EViews nicht direkt fr weitetfhrende Berechnungen verwendet werden kann.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

579

Mit R2 = 0,0009 und dem Stichprobenumfang n = 428 knnen wir nun den konkreten Wert
SARG = 428 . 0,0009 = 0,3852 ermitteln, was in einer Chi-Quadrat-Verteilung mit einem
Freiheitsgrad einen sehr kleinen Wert darstellt, sodass die Instrumentenvariablen den Sargan-Test bestehen. Fugen wir Z3, die Schulbildung des Ehemannes, in unsere Liste von
Instrumentenvariablen ein, so erhalten wir eine Oberidentifikation vom Grad q = 2 und
SARG = 428 . 0,0026 = 1,1128. Auch damit bestehen die Instrumente den Test.
Dependent Variable: E2
Method: Least Squares
C
ZI
Z2
Z3
X2
X2'2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Sampie: 1 428
Included observations: 428
Coefficient

Std. Error

t-Statistic

Prob.

0.008606
-0.010385
0.000673
0.006781
5.60E-05
-8.88E-06
0.002605
-0.009212
0.670007
189.4399
-432.8847
1.938177

0.177272
0.011869
0.011380
0.011426
0.013229
0.000396

0.048549
-0.874997
0.059179
0.593484
0.004236
-0.022452

0.9613
0.3821
0.9528
0.5532
0.9966
0.9821

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic}

-4.75E16
0.666942
2.050863
2.107767
0.220457
0.953682

Die Aufnahme des zustzlichen Instruments fUhrt im Vergleich zur Schtzung mit nur zwei
Instrumenten
= 0,0614 bei einem Standardfehler von 0,0314) zu
= 0,0804 bei
einem niedrigeren Standardfehler von 0,0218, wodurch der Parameter von X, an Signifikanz gewinnt.

(,

Dependent Variable: LOGM


Method: Two-Stage Least Squares
Instrument list: ZI Z2 Z3 X2 X2 A 2
C
XI
X2
X2'2
R-squared
Adjusted R-squared
S.E. of regression
F-statistic
Prob(F-statistic)

Sampie: 1 428
Included observations: 428

Coefficient

Std. Error

t-Statistic

Prob.

0.186857
0.080392
0.043097
-0.000863

0.285396
0.021774
0.013265
0.000396

-0.654730
3.692104
3.248981
-2.177745

0.5130
0.0003
0.0013
0.0300

0.149524
0.143506
0.669298
11.52474
0.000000

Mean dependent var


S.D.dependentvar
Sum squared resid
Durbin-Watson stat
Second-Stage SSR

1.190173
0.723198
189.9347
1.952048
207.8396

IV Einfiihrung in die konometrie

580

4.7 Besonderheiten bei der Arbeit mit Zeitreihen


Die Durchfhrung von Zeitreihenregressionen verursacht oft Komplikationen, die
in Querschnittsregressionen nicht auftauchen knnen. So haben wir bereits gese-

hen, dass distributive Lag-Modelle (vgl. Abschnitt IV 4.1.4) hufig unter MultikoIli-

nearitt leiden, was ihre Schtzung bzw. die Interpretation von Schtzergebnissen

erschwert. Wir wollen uns daher in diesem Kapitel nher mit der Modellklasse der
dynamischen Modelle (Modelle mit Variablen Zu unterschiedlichen Zeitpunkten)
beschftigen. Zudem befassen wir uns im Detail mit dem Konzept der Stationaritt
von Zeitreihen. Verndern sich die Eigenschaften einer Variablen (z.B. Erwartungswert oder Varianz) im Zeitverlauf drastisch, wird sie als nicht stationr bezeichnet. Ein besonderes Problem mit nicht stationren Variablen ist, dass sie
t-Werte und die Mae fr den "Gesamtfit" von Modellen in die Hhe treiben. Zustzlich werden wir uns im Kontext von nicht stationren Variablen mit dem Konzept der Kointegration und Fehlerkorrekturmodellen beschftigen. Dieses Konzept
fhrte zu einer Revolution in der konometrie. Engle und Granger erhielten fr
ihre Arbeiten auf diesem Gebiet im Jahr 2003 den Nobelpreis fr konomie.

4.7.1

Dynamische Modelle

4.7.1.1

Autoregressive distributive Lag-Modelle

Das allgemeinste dynamische Modell ist das sog. autoregresslve dIstributive LagModell (ARDL-Modell). Es sieht vor, dass eine Variable Y, durch eine Reihe exogener Variablen X1I' ~t' . , ihre Verzgerungen X1t-lJ JC,.t-21 ... , Xa-l1 Xll--2J'" (distributive
Lags) und ihre eigene Vergangenheit Yt-l' Yt-21 ... (autoregressive Komponente) er-

klrt wird und besitzt daher die Gestalt


Y, = Uo + /3oX" + /3,X,,_, + ... + 9oX" + 9,X,,_, + ... + q"Y,_, + ... + E,. (Iv4: 105)

Eine derartige Spezifikation kann aus verschiedenen Grnden sinnvoll sein. Erstens, knnen inhaltliche Oberlegungen Verzgerungen bei den erklrenden Variablen notwendig machen. So knnen z.B. Anpassungseffekte oder -kosten dazu fhren, dass Y nicht unmittelbar auf nderungen gewisser exogener erklrender Variablen reagiert, was das Hinzufgen von verzgerten Werten dieser Variablen
notwendig macht. So reagiert z.B. die Arbeitslosenquote nur bei schnell auflsbaren Zeitarbeitsvertrgen unmittelbar auf einen Konjunktureinbruch. Aufgrund von
Kndigungsfristen ist aber zustzlich noch mit zeitlich verzgerten Effekten eines
Konjunktureinbruchs zu rechnen. Darber hinaus kann der Prozess der Erwar-

tungsbildung von Individuen eine derartige Modellform induzieren. Geht man etwa
in einem Kursbildungsmodell davon aus, dass sich Investoren stark an vergangenen Kursentwicklungen orientieren, so ist das Hinzufgen verzgerter Werte der

erklrten Variable zu den erklrenden Variablen sinnvoll.


Ein zweiter Ursprung von ARDL-Modellen ist eng mit den Problemen distributiver
Lag-Modelle verbunden. Unter IV 4.1.4 haben wir gesehen, dass mit distributiven
Lag-Modellen der Form
(IV4: 106a)

4. Verletzungen der Annahmen des klassischen Regressionsmodells

581

insbesondere Multikollinearitt und der Verlust von Freiheitsgraden einhergehen.


Um diesen Problemen zu begegnen, werden in der Praxis unter recht restriktiven
Annahmen Modifikationen derartiger Modelle vorgenommen. Die bekannteste Umformung ist dabei wohl die Koyck-Transformation79 Unter den Annahmen, dass
alle ~k das gleiche Vorzeichen besitzen, s gegen ~ geht und die Pk mit zunehmendem Lag geometrisch abnehmen,BO lsst sich (Iv4: 106a) in ein Modell der Form
(N4: 106b)

berfhren. Bl Der sofortige Effekt einer Vernderung von X auf Y ist nach wie vor
durch ~o gegeben. Die gesamten Wirkungsverzgerungen kommen nun durch y,
zum Ausdruck. So beinflusst X. Y, und Y, Y,." das wiederum Y,., beeinflusst usw.
Unter Gltigkeit der aufgefhrten Annahmen knnen wir also in (Iv4: 106a) die
verzgerten erklrenden Variablen durch die um eine periode verzgerte erklrte
Variable ersetzen und so den Problemen distributiver Lag-Modelle durch Formulierung eines speziellen ARDL-Modells begegnen.
Drittens zeigt uns das Modell aus Abschnitt N 4.5.4.3, dass auch einer Autokorre/taion des Strterms durch Spezifikation eines ARDL-Modells begegnet werden kann.
Hier haben wir nmlich gesehen, dass durch Hinzufgen von Yt-l und ~1 ins Modell Autokorrelation erster Ordnung bercksichtigt bzw. ein Modell mit unkorreliertern Stltenn generiert wird.

4.7.1.2

Spezialfall : Autoregressive Modelle

ARDL-Modelle, die nur verzgerte erklrte Variablen beinhalten, werden als autoregressives Modelle bezeichnet und gehren zu den in der Praxis bedeutendsten
dynamischen Modellen. Typische Beispiele hierfr haben wir bereits im Kapitel zur
Autokorrelation des Strterms als (N4: 52) und (N4: 58) kennengelemt.
Autoregressive Modelle folgen der Grundidee, dass sich die Variable Y allein aus
ihrer eigenen Vergangenheit heraus erklren lsst. Ein autoregressitJeS Modell erster
Ordnung bzw. AR{l)-Modell besitzt die Gestalt
(IV4: 107)
wobei 11 und, Parameter und E, einen klassischen Strterm mit E, - NID(O,a;)
symbolisieren. Da sich beim Vergleich der Grundstruktur der Gleichungen (Iv4: 52)
und (N4: 107) abgesehen von der Modellkonstante 11 in (N4: 107) starke hnlichkeiten feststellen lassen, knnen wir die im Abschnitt N 4.5.1 aufgezeigten Modelleigenschaften direkt bertragen. Wir erhalten fr Erwartungswert, Varianz, Autokovarianz und Autokorrelationskoeffizient

1-,
11

1-,
0"'

E(Y,)=--, Var(Y,) = --'-, ' Cov(Y" Y<-o)

=,'cr

und Corr(Y" Y<-o)

=,' ,

79 Vgl. Koyck (1954).


80 Dies bewirkt, dass Einflsse der jngsten Vergangenheit einen strkeren Effekt auf Y
haben, als weit in der Vergangenheit liegende, was durchaus plausibel ist.
BI Hili et al. (2001) zeigen in Kapitel 15 diese berfhrung fonnal auf. Sie bieten auerdem
einen berblick. ber andere Transfonnationsmglichkeiten unter anderen Annahmen be-

Zglich der k

IV Einfiihrung in die konometrie

582

er;

wobei a' fr die unbedingte Varianz


/(1- cp') steht. 1) detenniniert hier den Erwartungswert von Y. Erneut ist fr Stationaritt I cp I < 1 etforderlich. cp reflektiert
den Autokorrelationskoeffizienten erster Ordnung von Y und bestimmt den Startwert der mit s fallenden Autokorrelationsfunktion.
Analog knnen wir auch die unter 1V 4.5.1 besprochenen Eigenschaften eines
AR(2)-Mode1ls bertragen, da die entscheidende nderung auch hier durch die
Konstante 1) im Zhler der Erwartungswertfonnel auftritt. Da sich dadurch an dieser
Stelle keine neuen Erkenntnisse gewinnen lassen, berlassen wir dies dem Leser.
Es sei jedoch noch einmal hervorgehoben, dass fr ein allgemeines AR(s)-Modell
die notwendige Stationartsbedingung p, + p, + ... + cp, < 1 lautet 82
Bei der praktischen Arbeit mit AR(s)-Modellen stellt sich die Frage, ob eine vorliegende Zeitreihe durch ein AR(s)-Modell beschrieben werden kann und wenn ja,
wie gro man s whlt, um ein geeignetes Modell zu erhalten. Die Standardvorgehensweise zur Modellspezifikation sieht vor, in einem ersten Schritt zunchst die
Autokorrelationsfunktion der Variable zu schtzen und die Signifikanz ihrer Autokorrelationskoeffizienten nher in Augenschein zu nehmen, da diese erste Anhaltspunkte ber die Natur des Prozesses geben kann. Die dafr verwendbaren Testverfahren werden wir im Folgenden kurz vorstellen. Da sich damit die Natur des Prozesses jedoch nicht immer eindeutig identifizieren lsst, werden in einem zweiten
Schritt AR-Modelle fr verschiedene s geschtzt und die resultierenden Ergebnisse
anhand der Signifikanz der geschtzten Parameter und der Ausprgung verschiedener Infonnationskriterien (z.B. AlC oder SC; vgl. Abschnitt 1V 4.1.3) verglichen.
Nun zunchst ZU den Mglichkeiten, die uns die Literatur zum Test der Signiftkanz
von Autokorrelationskoeffizienten bietet: Haben wir fr Y einen Autokorrelationskoeffizienten der Ordnung s analog zu (Iv4: 63b) ber

- L (Y, - Y)(Y,_. - Y)

p, =

L(Y, - y)'

(IV4: 108)

geschtzt, so knnen wir diesen auf Signifikanz testen, indem wir uns der Tatsache

bedienen, dass wenn eine Zeitreihe einen Erwartungswert von Null, konstante
Varianz und keine Autokorrelation aufweist, die Schtzungen der Autokorrelationskoeffizienten
(IV4: 109)
P.... N(O;lI n)
sind.83 Dies bedeutet, dass die Autokorrelationskoeffizienten in groen Stichproben
mit einem Erwartungswert von Null und einer Varianz von 1 dividiert durch den
Stichprobenumfang n approximativ nonnalverteilt sind. Damit knnen wir den sog.
Bartlett-Test durchfhren, d.h. eine Z-Statistik
Z=

p, - 0

.J1if,.

(IV4: 110)

berechnen und den resultierenden Wert mit dem kritischen Wert aus der Standardnorrnalverteilung vergleichen. Ist der Absolutbetrag der Teststatistik grer als der
kritische Wert, knnen wir Ho: P. - 0 ablehnen, andernfalls nicht.
82 Diese Bedingung ist notwendig, jedoch nicht hinreichend fr Stationaritt. Fr Details dazu
vgl. z.B. Enders (2004), Kapitel 2.
83 Vgl. Bartlett (1964).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

583

Anstatt die Signifikanz einzelner Autokorrelationskoeffizienten zu testen, knnen


wir die Hypothese testen, dass alle P. bis zu einem bestinunten Wert s - k gleichzeitig Null sind. Dazu knnen wir den BoI-Pierce-Test (auch Portmanteau-Test
genannt) heranziehen.84 Er basiert auf der sog. Q-Statistik
(IV4,111)
in der n wieder den Stichprobenumfang und k die Anzahl der Autokorrelationskoeffizienten darstellt, die einbezogen werden sollen. In groen StIchproben ist sie
mit k Freiheitsgraden approximativ Chi-Quadrat-verteilt. berschreitet Q" den kritischen Wert aus der Chi-Quadrat-Verteilung, kann die Nullhypothese Ho: p, - ... Pk - 0 gegenber HA: umindestens ein p, ist ungleich Null " abgelehnt werden.
Eine Variante des Box-Pierce-Tests ist der LJuna-BoI-Tcst. 85 Er bedient sich der
modifizierten Teststatistik

QLB = n(n + 2)

A'

L
,
._l -"-'n- s

(IV4, 112)

die in groen Stichproben ebenfalls approximativ einer Chi-Quadtat-Verteilung mit


k Freiheitsgraden folgt. Es hat sich jedoch gezeigt, dass diese auch in kleinen StIchproben vorteilhafte Eigenschaften aufweist, weshalb sie in einem solchen Fall der
Statistik (IV4: 111) vorgezogen wird. 86

Beispiel IV 4-29

Anleihenrenditen und AR-Modelle

Aus den Z8itreihendatenbanken der Deutschen Bundesbank kOnnen wir Monatsdaten IOr
die Umlaufsrandlten InlAndlscher Untemehmensanlelhen von Januar 2000 bis November
2013 finden. Wir wollen diese Z8itreihe nun daraufhin untersuchen, ob sie sich durch ein
geeignetes AR-Modell beschreiben lAsst. Es empfiehlt sich dazu zunchst ein Blick auf die
geschtzte AUIokorrelationsfunktion, die wir in EViews durch AnwAhlen der Zeitreihe, Aufrufen von Views I Correlogram und Angabe der grOBten VerzOgerung k erhalten. Whlen
wir k '" 20, so erhalten wir die auf der Folgeseite zu sehende Autokorrelationsfunktion, die
in EViews immer auch um die Ergebnisse der zugehrigen Ljung-Box-Tests ergAnzt wird.
(Der Box-Pierce-Test ist hingegen nicht verfOgbar.) In der Spalte AC ist die Autokorrelationsfunktion bzw. sind die Autokorrelationskoeffizient&n IOr die verschiedenen Lags enthalten. Die Balkengrafiken veranschaulichen die Autokorrelalionsstruktur, wobei die vertikale
Linie die Nullachse reprsenUert. Balken rechts (links) davon veranschaulichen demnach
positive (negative) Autokorrelalionskoeffizienten. Die Lnge der Balken symbolisiert die
Hhe der Autokorrelalion.
Das vorliegende Korrelogramm erinnert deullich an jenes eines AR(l )-Modells mit hohem
Steigungsparameter ., wie es uns bereits in Abbildung IV 24 begegnet ist. Wie unmittelbar
zu erkennen ist, ist insbesondere der AUIokorrelalionskoeffizient erster Ordnung mit einem
Wert von 0,963 sehr hoch. Untersuchen wir seine Signifikanz auf Basis des Bartlen-Tests,
84 Vgl. Box und Pierce (1970).

85 Vgl. Ljung und Box (1978).


86 OV4: 112) kann prinzipiell auch als Test auf Autokorrelation von Residuen verwendet
werden (in EViews nach der Modellschlitzung unter Views / Residual Tests / Correlogram
- Q-statistics). Liegt dabei jedoch ein Modell vor, in dem v verzgerte erklrte Variablen als
erklrende Variablen auftauchen, mssen die Freiheitsgrade auf k - v angepasst werden.

IV EinfUhrung in die Okonomelrie

584

so knnen wir bei einem Signifikanznive8u von 5 % und resultierendem kritischen Wert
ZO,m - 1,96 (zweiseitiger Test) feststellen, dass

,963-0

1.J1I167

=12,441 >1,96

gilt und Ho: p, - 0 klar abgelehnt werden kann. hnliches gilt Buch rur die individuelle Signifikanz fast aller anderen Koeffizienten der Aulokorrelallonsfunktlon. Sie sind auf einem

5%-Niveau signifikant, wenn

1J,'f~:71>1,9.

<->

Ip,I>0,15.

Diese Schwelle ist im Korrelogramm (negativ und positiv) durch die vertikalen gestrichelten
Unien verdeutlicht. Oberschreilet sie ein Korrelationsbalken, so ist der dazugehrige Koef-

fizient signifikant von Null verschieden. In unserer Anwendung ist dies ffir s-Werte von 1
bis 19 der Fall, sodass die gestrichelten Unien hier nicht mehr zu erkennen sind, da sie
van den AulokorrelationsbBlken berlagert werden. Wir haben sie daher von Hand ergnzt.
Interessieren wir uns dafUr. ob alle Autokorrelationskoeffizienten bis zu einem bestimmten
Lag gemeinsam signifikant von Null verschieden sind, knnen wir uns direkt der angegebenen Q-StaUstlken und Ihrer p-Werte bedienen. Ho: P1 - ... - P20 _ 0 knnen wir z.B. mittels der Q-Statistik 1275,5 testen. Bereits ihr sehr hoher Wert macht eine Ablehnung
offensichtlich. Zudem zeigt auch der zugehrige p-Werl von Null, dass Ho bei jedem Signiftkanznlveau verwerten werden muss.
Sampie: 200011101 201311111
In,luded observations: 167
Aulocorrelalion

AC

Q.Stat

Prob

0.963 157.54 0.000

2 0.920 302.23 0.000


3 0.883 436.42 0.000

0.844
0.804

5
6 0.760
0.707
8 0.657
9 0.605
10 0.556
0.513
12 0.470
10 0.429
0.391
15 0.341
16 0.296
0246
18 0.204
19 0.164
20 0.129

"
,.
"

559.81
612. 48
773.78
861.88
938.55
1003.9
1059.5
1107.1
1141.3
118Ul
1209.2
1231 .5
1241.8
12592

1267.1
1272.3
1275.5

0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0000
0.000
0.000
0.000

Nach diesen starken Hinweisen auf ein AR(1 )-Modell empfiehlt es sich, ein solches Modell
zu schtzen und es im Hinblick auf seinen ErklArungsgehalt mit anderen AR-Modellen
hOherer Ordnung zu vergleichen. Die Schtzung von AR-Modellen ist in EView sehr unkompliziert durchfahrbar. Die unter Quick I Estimate Equation einzugebebende Gleichung
ist ffir ein AR(1)-Modell einer Variable V schlicht V C V(-1). Ein AR(2)-Modell knnen wir
Ober V C V(-1 TO -2), ein AR(3)-Modell Ober V C V(-1 TO -3) schAtzen.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

585

In der folgenden Tabelle sind die Ergebnisse unserer Schtzungen fOr AR(s)-Modelie mit s
= I, ... , 4 zu finden. Wir haben uns dabei auf eine Darstellung der Parameterschtzungen,

der zugehrigen geschtzten Standardfehler (in Klammern) und der Informationskriterien


AIC und SC beschrnkt. Eine Signifikanz auf einem Niveau von 5 % bzw. 1 % ist, wie in
Fachpublikationen Oblich, mit' bzw. gekennzeichnet.
AR(I)
C
Y(-1 )

AR(2)

AR(3)

AR(4)

0,1298

0,1521

0,1385

0,1436

(0,0937)

(0,0944)

(0,0958)

(0,0976)

0,9700"
(0,0190)

Y(-2)

1,0718"

1,0802"

1,0830"

(0,0781)

(0,0789)

(0,0796)

-0,1064

-0,2007

-0,2069

(0,0780)

(0,1151)

(0,1169)

Y(-3)

0,0884

0,1245

(0,0786)

(0,1175)

Y(-4)

-0,0337
(0,0801 )

AIC

0,1743

0,1755

0,1860

0,2035

SC

0,2117

0,2320

0,2616

0,2984

Wie wir erkennen knnen, kristallisiert sich das AR(I )-Modell im Hinblick auf Parametersignifikanz klar heraus. Die Schtzung von ~1 ist in allen Modellen auf einem Niveau von
1% signifikant. Die Parameter "', cp. und cp. sind hingegen in allen hheren Modellen insignifikant. Die Gte des AR(I )-Modells wird auch von den Informationskriterien besttigt. Wie
wir wissen, ist ein Modell umso besser, je kleiner sein AIC und SC im Vergleich zu Konkurrenzmodellen ausfllt. In unserer Anwendung nehmen AIC und SC fr das AR(I)Modell
die niedrigsten Werte an, sodass dieses als das geeignetste Modell fr die Umlaufsrenditen angesehen werden kann.

4.7.1.3

Problem der AutokorrelBtion in ARDL-Modellen

Zwar beseitigen dynamische Modelle mit verzgerten erklrten Variablen die Probleme distributiver Lag-Modelle oder bercksichtigen eine Autokorrelation des stochastischen Strtenns, doch bringen sie eigene Schwierigkeiten mit sich, mit
denen generell alle autoregressiven Modelle zu kmpfen haben. So fhrt Autokorrelation in ARDL-Modellen auch bei groen Stichproben zu einer Verzerrnng der
OLS-Schtzer, whrend die Schtzer in statischen Regressionsmodellen bei Autokorrelation unverzerrt bleiben. Diese Verzerrung beruht, wie wir unter IV 4.6.2.3
gesehen haben, auf einer durch die Autokorrelation verursachten Verletzung der
Annalune 2b, da Yt- 1 von U~l abhngt und u t mit Ut-l korreliert ist.
Neben der Verzerrung der Schtzer der Regressionskoeffizienten fhrt Autokorrelation in einem ARDL-Modell auerdem zu verzerrten Schtzungen der Standardjeh/er und ZU "verzerrten" Residuen. Ersteres fhrt zu Beeintrchtigung von Hypothesentests und Zweiteres zu einer Untauglichkeit des Durhin-Watson d-Tests zur Aufdeckung von Autokorrelation. Als Testverfahren fr Autokorrelation in ARDLModellen ist daher Z.B. der Breusch-Godjrey LM-Test Cvgl. Abschnitt IV 4.5.3.3) zu

verwenden.

586

IV Einfijhrung in die Okonomelrie

Wurde Autokorrelation in einem ARDL-Modell diagnostiziert, haben wir allgemein


zwei Mglichkeiten der weiteren Vorgehensweise. Zunchst empfiehlt es sich die

Modellspezifikation noch einmal zu analysieren. Es knnte nmlich ein Fall von


Autokorrelation vorliegen, die z.B. durch eine vernachlssigte Variable verursacht
wird. Wie wir aber bereits gesehen haben, handelt es sich dabei um ein recht
schwieriges Unterfangen. Knnen wir von einer korrekten Modellspezifikation ausgehen, so kann die unter N 4.6.3 behandelte Instromentenvariablenscbtzung
herangezogen werden. Knnen wir nmlich ein Instrument finden, das ntit Y,_,
korreliert und gleichzeitig nicht ntit u, korreliert ist, so erhalten wir durch dieses im
Rahmen der IV-Schtzung zuntindest konsistente Schtzer. Wie wir gesehen haben,
ist aber das Finden eines solchen Instruments ebenfalls nicht einfach.87 Die unter
N 4.5.4.1 behandelte GLS-Scbtzung als Gegenmanahme bei Autokorrelation
heranzuziehen fhrt zu inkonsistenten Schtzern.SB

4.7.2

Nichtstationre Zeitreihen und Kointegration

Ein weiteres Problem bei der Arbeit mit Zeitreihendaten besteht darin, dass in Zeitreihenregressionen Koeffizienten signifikanter erscheinen knnen, als sie es eigentlich sind, wenn die zugehrigen erklrenden Variablen dem gleichen Trend wie
die erklrte Variable unterliegen. Liegt eine derart starke, nicht kausale Beziehung
zwischen Variablen vor, sprechen wir auch von Schelnlrorrelation. Die Schtzung
eines Regressionsmodells ntit scheinkorrelierten Variablen wird auch als Scheinregression (engI. spurious regression) bezeichnet, deren Charakteristika berhhte
t-Werte und ein berschtzter Gesamtfit sind 89 Ursache von Scheinkorrelation bei
Zeitreihendaten sind meist sog. nlcbt-statlonre ZeItreihen.
4.7.2.1

StatioDaritt vs. Nicht-Stationaritt

Zeitreihen werden allgemein als stationr bezeichnet, wenn sich ihre grundlegenden Eigenschaften wie z.B. Erwartungswert und Varianz im Zeitverlauf nicht verndern. Bei nicht-stationren Zeitreihen kommt es hingegen zu derartigen Vernde-

rungen. Betrachten wir z.B. die Pro-Kopf-Produktion einer Volkswirtschaft, so werden wir hier von einer nicht-stationren Zeitreihe sprechen knnen, da die ProKopf-Produktion typischerweise im Zeitverlauf zunimmt. Die durchschnittliche

Wachstumsrate der Pro-Kopf-Produktion verndert sich jedoch hufig kaum im


Zeitverlauf, kann also als stationr angesehen werden.
Formal knnen wir sagen, dass eine Zeitreihenvariable Yt dann stationr ist, wenn
fr alle t und s

der Erwartungswert der Variablen im Zeitverlauf konstant ist,

E(Y,) = 11.

(N4: 113a)

87 In der Literatur wird fr ein Modell der Form (IV4: 106b), welches aus einer KoyckTransformation resultiert, hufig die Verwendung von ~1 als Instrument fr Y'-l vorgeschlagen. Vgl. z.B. Hill et al. (2001), Kapitel 15.
SB Vgl. Betancourt und Kelejian (1981).
89 Yule (1926) entdeckte dieses Phnomen erstmals. Granger und Newhold (1974) hefassen

sich intensiv mit dem Thema Scheinregression.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

ihre Varianz im Zeitverlauf konstant ist


Var(Y,) =

587

<fv

(IV4: 113b)

und die Kovarianz zwischen zwei Perioden t und t-s nur vom Abstand s der
Perioden und nicht vom Zeitpunkt t abhngt, zu dem sie berechnet wurde.
(IV4: 113c)

Eiofach formuliert sind also Zeitreihen dann stationr, wenn ihre unbediogten Erwartungswerte, Varianzen und Autokovarianzen (fr verschiedene Lags) gleich
bleiben. Wird eine der Voraussetzungen nicht erfllt, ist eine Zeitreihenvariable Yt
nicht stationr. Anders ausgedrckt verndern sich also fr nicht stationre Zeitreihen unbedingte Erwartungswerte und Varianzen im Zeitverlauf.
Auch wenn sich unsere Definitionen von Stationaritt und Nicht-Stationaritt auf
Variablen beziehen, sei angemerkt, dass sie natrlich auch fr Strterme gelten. So
ist der stochastische Strterm des klassischen Regressionsmodells stationr, da er

einen konstanten Erwartungswert von 0 und eioe konstante Varianz cl besitzt sowie nicht autokorreliert ist, d.h. die Autokovarianzen fr alle Lags gleich 0 siod. Besitzt eioe Variable allgemeio diese drei spezifischen Eigenschaften, sagen wir, sie ist
Weies Rauschen (White Noise). Im Falle von Heteroskedastizitt haben wir gesehen, dass der stochastische Strterm seine White Noise Eigenschaft und damit
seine Stationaritt verlieren kann. Hier haben wir nmlich festgestellt, dass sich die
Varianz des Strterms im Zeitverlauf verndern kann. Ein heteroskedastischer Strterm ist also ein nicht stationrer Strterm.
4.7.2.2

Random Walks und Unit Roots

In der Empirie begegnet uns hufig eio ganz spezieller Typ nicht-stationrer Zeitreihen, der Random Walk. Wir unterscheiden allgemeio zwei Typen von Random
Walks: den Random Walk ohne Drift (ohne konstanten Term) und den Random
Walk mit Drift (mit konstantem Term).

1. Random walk ohne Drift


Nehmen wir an,

llt

ist ein White Noise Strterm mit Erwartungswert 0 und Varianz

cl. Eine Zeitreihe Y, folgt dann einem Random Walk ohne Drift, wenn

(Iv4: 114)
gilt. Der Wert von Y zum Zeitpunkt t hngt also von seinem Vorperiodenwert und
einer reio zufalligen Komponente ab. Es liegt also eio AR(1)-Modell ohne Modellkonstante und Steigungsparameter von Eios vor. Da die Reihe zum Zeitpunkt 0 mit
einem bestimmten Wert Y, beginnt, knnen wir aus (IV4: 114) auf
Yt =Yo +ut
Y2 =Yt +u 2 =Yo +u 1 +u 2

Y3 =Y2 +u3 =Yo +u 1 +u 2 +u3

und damit auf


(Iv4: 115)
schlieen. Es gilt daher

588

IV Einfijhrung in die Okonomelrie

E(Y,) = E(Yo + Eu,) = Yo

(Iv4: 116)

und aufgrund der Unabhngigkeit der U,


Var(Y,)= Var(Yo + Eu,) = Var(Eu,) = EVar(u,) =I:a' = ta' .90

(Iv4: 117)

(N4: 116) und (Iv4: 117) zeigen klar, dass ein Random Walk ohne Drift zwar einen

konstanten Erwartungswert, jedoch eine von t abhngende Varianz besitzt und damit nicht stationr ist. Fr t ~ ~ wre Var(Y) ~ ~, was gegen Stationaritt spricht.
Eine interessante Eigenschaft von Random Walks ist die Tatsache, dass sie ein unbegrenztes Gedchtnis bezglich zufalliger Schocks besitzen. Wie (IV4: 115) zeigt,
ist Y, nmlich die Summe des Startwertes Yo plus der Summe zuflliger Einflsse,
die sich bis t ereignet haben. Ist also z.B. U, - 3 an Stelle von u, - 0, so sind alle Y,
von Y, an 3 Einheiten hher. Wir sagen daher, dass der Schock dem Random Walk
unbegrenzt im Gedchtnis bleibt.
Drcken wir nun (IV4: 114) als
(Iv4: 118)
aus, wobei A die erste Differenz symbolisiert. Obwohl Y, nicht stationr ist, lsst
sich damit einfach zeigen, dass die ersten Differenzen stationr sind. Sie entsprechen ja gerade der White Noise Strgre u t und sind damit stationr.

2. Random walk mit Drift

Fgen wir zu (Iv4: 114) den sog. Driftparameter hinzu, so erhalten wir den sog.
Random Walk mit Drift als
(Iv4: 119)
Wir betrachten also wieder ein AR(1)-Modell, diesmal jedoch mit Konstante und
einem Steigungsparameter von Eins. Daraus folgt wie bei (N4: 115)
Y, =Yo +t+

LU"

(Iv4: 120)

woraus wir

E(Y,)=Yo +t

(Iv4: 121)

Var(Y,) = ta'

(IV4: 122)

erhalten. Dies erklrt die Bezeichnung "Drift" fr die Konstante 5. Mit fortschreiten-

der Zeit driftet nmlich der Erwartungswert nach oben ( > 0) oder nach unten
( < 0) vom Startwert Yo weg. Wir erkennen auerdem, dass nun neben der Varianz auch der Erwartungswert von Y, von t abhngt und damit auch ein Random
Walk mit Drift nicht stationr ist.
Wie auch beim Random Walk ohne Drift knnen wir beim Random Walk mit Drift
durch die Bildung der ersten Differenz eine stationre Reihe generieren, da
(IV4: 123)

90 Hufig wird Y. gleich Null gesetzt, sodass E(Y) - 0 gilt.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

589

gilt. Weil 6 eine Konstante ist, ist der Erwartungswert von OV4: 123) gleich 6 und
seine Varianz ist konstant. Es ist also Stationaritt gegeben.

BoiopioliV 4-30

Random Walk Simulation

Zur besseren Veranschaulichung der beiden vorgestellten Random Walks fUhren wir zwei
Simulationen durch und stellen die Ergebnisse grafisch dar. Wir lassen fUr den Strtenn Ut
von einem N(O;l)-verteilten Zufallsgenerator 500 Beobachtungen erzeugen und bestimmen damit bei einem Startwert Vo _ 10 nach (IV4: 114) die Werte VI des Random Walk
ohne Drift. FOr dan Random Walk mit Drift gehen wir analog vor, wobei wir in (IV4: 119)
einen Drift von a '" 0,1 ansetzen. Wir erhalten damit folgende Reihen (Yllinks, AVI rechts).

Y,

~',-------------------~

51

1m

1lIJ

:aJ ZID 3IIJ :.I 4ID _

iiIIXI

Wie sehr schOn zu erkennen Ist, fluktuieren die Vernderungen von VI beim Random Walk
in nahezu konstanter Schwankungsbreite um den Wert Null, was auf einen ErwartungsW8rt
der Vernderungen von Null und eine konstante Varianz hindeutet. Dies zeigt, dass aus
einem nicht-stationren Random Walk durch Differenzenbildung eine stationre Reihe g&neriert werden kann. Zum dazugehrigen Verlauf von VI ist zu sagen, dass dieser durch
die Kumulation der zufllig erzeugten Vernderungen entsteht und damit selbst ein Zufallsprozess ist. Das Bild, das sich hier zeigt, erinnert an typische Kursverlufe, wie wir sie aus
BOrsenzeitschriften oder den Nachrichten kennen. In der Tat wird von einer Vielzahl von
Wissenschaftlern angenommen, dass Aktienkurse ungefhr Random Walks folgen. Dies
wird damit begrOndet, dass der aktuelle Kurs stets alle auf dem Markt verfOgbaren Infomationen beinhaltet, da die Aktionre schlielich auf deren Basis handeln und so den Kurs
beeinflussen. Eine KursverAnderung kann damit nur durch neue, unerwartete Informationen entstehen, die in ihrer Natur stochastisch sind. Garade daher ist die grafische Analyse
der vergangenen Kursentwicklung (sog. Chart-Analyse), die in der Praxis betrieben wird,

Q.

590

IV Einfijhrung in die Okonometrie


gnzlich untauglich, um daraus SchlOsse fr die kOnftige Kursentwicklung zu ziehen. Ein
Chart-Analyst wrde bei der Betrachtung unseres Verlaufs von Y, wohl am ueren Rand
einen Abwrtstrend (oder andere Muster, wie z.B. die Schulterformation) in die Grafik hineininterpretieren, der aber definitiv nicht vorhanden ist, da wir ja wissen, dass die Reihe
rein zufllig erzeugt wurde.
Bei den ersten Differenzen des Random Walk mit Drift zeigt sich ein hnliches Bild wie bei
denen des Random Walk ohne Drift. Es ist eine konstante Varianz der Vernderungen zu
erahnen. Diese fluktuieren jedoch um den Wert 0,1. Dies deutet auf die geltende erwartete
Vernderung von = 0,1 hin und erklrt auch, warum Y, im Zeitverlauf ansteigt.

In der Literarur wird der Random walk hufig flschlicherweise alternativ mit dem
Begriff Unit Root (dt. Einheitswurzel) bezeichnet. Genau genommen ist dieser aber
ein Spezialfall einer Uni! Root. Diesen Spezialfall haben wir durch Einsetzen von
.p = 1 (bzw. auch 11 = 0 beim Random Walk ohne Drift) ins AR(1)-Modell
Y, =1l+.pYH +u,
mit Wblte Nolse Strterm erhalten. Eine allgemeinere Klasse von Unit Roots erhalten
wir, wenn der Strtenn U, bei ebenfalls .p = 1 nicht White Noise ist. So wre es z.B.
denkbar, dass u, z.B. selbst einem AR(1)-Modell folgt. In einem solchen Fall sind
nicht alle Eigenschaften der Random Walks gltig, die wir in diesem Abschnitt hergeleitet haben. Die wichtigste Eigenschaft, dass der Wert von Y hochgradig mit vergangenen Werten von Y korreliert ist, bleibt jedoch erhalten. Dies ist die Kerneigenschaft einer Unit Root.

4.7.2.3

Difl'erenzstationaritt vs. Trendstationaritt

Bei der Analyse von Zeitreihen mssen wir zwischen zwei Arten von Trends unterscheiden: stochastischen Trends und detenninistischen Trends. Ist der Trend einer
Zeitreihe vollstndig prognostizierbar und nicht variabel, so sprechen wir von
einem deterministischen Trend. Beim detenninistischen Trend sind die Abweichungen vom Trend stationr, d.h. es gibt immer wieder eine Tendenz zurck zum
Trend. Bei einem stochastischen Trend gilt dies jedoch nicht. Hier sind die Abweichungen vom Trend nicht stationr.
Beim nicht stationren Random Walk ohne Drift, der einen stochastischen Trend
aufweist, knnen wir feststellen, dass seine Vernderungen (IV4: 118) bzw.
Yt

Yt - 1 =AYt = u t

einen Erwartungswert von Null aufweisen und eine stationre Reihe liefern, da ut
einen White Noise Prozess darstellt. Wir bezeichnen Zeitreihen, deren Differenzen
stationr sind, auch als dif[erenzstationr.

Auch der nicht stationre Random Walk mit Drift weist einen stochastischen Trend
auf. Seine Vernderungen (IV4: 123) bzw.
Yt

Yt - 1 ;;;;;;AYt

;;;;;;

+ u t

sind im Erwartungswert von Null verschieden bzw. konkret 11. Dies bedeutet, dass
die Variable Y, einen positiven (11 > 0) oder negativen (11 < 0) Drift aufweist. Auch
der Random Walk mit Drift ist dif[erenzstationr, da Erwartungswert und Varianz
der d Y, konstant sind.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

591

wird der Wert einer Variablen direkt von der fortschreitenden Zeit bestinunt, d.h.
steigt oder fllt sie im. Zeitverlauf, so sagen wir, sie besitzt einen deterministischen
Trend. Eine solche Variable knnen wir durch ein Modell
beschreiben, wobei U. ein stationrer Strtenn (z.B. White Noise oder AR.(l)-Prozess
mit 1'1 < 1) und t eine Variable ist, die aus den fortlaufenden natrlichen Zahlen
besteht, die den Zeitbezug von Y beschreiben. Dies bedeutet, dass wir ein solches
Modell typischerweise aus einem Datensatz der folgenden struktur schtzen:
Realisation der erklrten Variable Y
Realisation der erklrenden Varlable t

Y,

Y,

Y.

Der Erwartungswert von (IV4: 124) ist mit E(Y) - +'Yt klar nicht konstant, die
Varianz Var(Y) - ti hingegen schon. Die Zeitreihe ist also nicht stationr.
Subtrahieren wir E(Y) von Y, ist die resultierende Reihe staUontJr, da sie nur noch
durch den White Noise U, bestinunt wird. Diese Prozedur der Beseitigung eines
detenninistischen Trends bezeichnen wir auch als Trendbereinigung. Da durch
Trendbereinigung eine stationre Reihe generiert werden kann, bezeichnen wir
(IV4: 124) als trendstationilr.
Differenzen- und Trendstationaritt sind klar voneinander abzugrenzen. Es gilt
nmlich folgendes:
1. Im Falle einer differenzstationren Zeitreihe fhrt eine Trendbereinigung nicht
zu einer stationren Reihe, da in (IV4: 120) der Tenn Eu, erhalten bleibt.
2. Im Falle eines deterministischen Trends fUhrt Differenzenbildung (sog. berdifferenzierung) ebenfalls zu schwerwiegenden Problemen.91

BoloplollV 4-31

DetermlnlsUscher vs. stochastischer Trend

Zur Veranschaulichung des Unterschieds zwischen detenninisti9Chen und stochastischen


Trends betrachten wir die folgende Abbildung:
~,-----------------~

"
"

,
.~~~~~~~~~~
ro ~ ~ ~ m m ~ m m ~
-

_ _ lIwd --- _ _ .lIwd

91 Der differenzierte Strtenn stell.t einen Moving-Average-Prozess (MA-Prozess) mit einer


Unit Root dar. Zu MA-Prozessen vgl.. Z.B. Pindyck und Rubinfeld (1998), Kapitel 17 .

592

IV Einfijhrung in die Okonometrie


Die Reihe mit stochastischem Trend haben wir durch einen Random Walk mit Drift bzw.
konkret Y, = 0,2 + Y,., + u, unter Verwendung 100 zufllig aus einer Standardnonnalverteilung gezogener Werte von u, und eines Startwertes Y. = 1 erzeugt. Die Reihe mit deterministischem Trend entstammt der Gleichung Y, = O,2t + u, mit t = I, 2, ... , 100 und ebenfalls
zufllig erzeugten Werten von u,.
Wie zu erkennen ist, sind im Fall des deterministischen Trends die Abweichungen von der
Trendlinie, die den zeitvariablen Erwartungswert reprsentiert, rein zufllig und entfernen
sich nicht weit bzw. nur in einer gewissen Schwankungsbreite (konstante Variant) von ihr.
Wir sagen auch, dass sie keinen Einfluss auf die langfristige Entwicklung der Zeitreihe
haben, die von der Trendkomponente O,2t bestimmt wird. Im Falle des stochastischen
Trends hingegen, ist es gerade die zufllige Komponente u" die den langfristigen Kurs der
Zeitreihe Y, mitbestimmt. Wir erkennen nicht die Tendenz, dass die Zeitreihe zu einem bestimmten Trend zuruckkehrt. Was wir sehen, ist neben dem zeitvariablen Erwartungswert
auch eine zeitvariable Varianz, da keine gleich bleibende Schwankungsbreite um eine
Trendlinie zu beobachten ist.

Kombinieren wir einen Random Walk mit einem detenninistischen Trend, so erhal-

ten wir ein Modell der Fonn


Y, =+YH +'Yt+u,.

(Iv4: 125)

Y, ist klar nicht stationr. Selbst die ersten Differenzen


Y, - YH = 4Y, = + 'Y' t+ u,
(IV4: 126)
bilden hier keine stationre Reihe, da ihr Erwartungswert von t abhngt. Eine stationre Reihe knnen wir hier nur erhalten, wenn wir zustzlich zur DilJerenzenbildung eine Trendbereinigung vornehmen.
Bevor wir im nchsten Abschnitt die Auswirkungen der Verwendung nicht stationrer Variablen in Regressionsmodellen aufzeigen, wollen wir noch einige Begrifflichkeiten klren, die im Zusammenhang mit Zeitreihenregressionen bzw. der Stationaritt von Bedeutung sind: Wir nennen eine Zeitreihe allgemein integriert mit
Grad 1 oder kurz I(l), wenn sie nicht stationr ist, ihre ersten Differenzen jedoch

stationr sind. Typische Beispiele fr I(l)-Reihen sind daher der Random Walk mit
und ohne Drift. Muss eine Zeitreihe zweimal differenziert werden bzw. mssen die
ersten Differenzen noclunals differenziert werden, um eine stationre Reihe Zu erhalten, nennen wir sie integriert mit Grad 2 bzw. 1(2).92 Fhrt also allgemein das
d-malige Differenzieren einer nicht stationren Reihe Yt zu einer stationren Reihe,
nennen wir sie I(d) und schreiben Y, - I(d). Ist eine Zeitreihe Y, bereits in ihrer Urfonn stationr (z.B. typischer White Noise), schreiben wir Y, - 1(0).

4.7.2.4

Scheinregression und ihre Bekmpfung

Besonders bei makrokonomischen Zeitreihen stellt fehlende Stationaritt bei Regressionen ein ernstes Problem dar. 93 Fhren wir eine Regression nmlich mit nicht
stationren Variablen durch, so werden wir hchstwahrscheinlich hoch signifikante
Parameterschtzungen erhalten, obwohl zwischen erklrter und erklrender Variab-

92 Ist Yt also 1(2), dann ist MYt "" A(Yt - YI-) '" AYt
beachte dabei, dass M Yt "" Alyt Yt - Yt-z.
93 Vgl. z.B. Nelson und Plosser (1982).

'*

AYI-l '" Yt

2YI-l + YI-2 stationr. Man

593

4. Verletzungen der Annahmen des klassischen Regressionsmodells

le mglicherweise berhaupt kein Zusammenhang besteht.94 Wir sprechen dann


von einer Scbcrlnregression. Das folgende Beispiel zeigt dies auf.

BalsplellV 4-32

Scheinregressionen

Simulieren wir die beiden Random Walks ohne Drift '" '" "'.1 + UI und VI '" VI.I + VI indem
wir zufllig jeweils 500 Beobachtungen von UI und Vt aus einer Standardnormalverteilung
ziehen und jeweils Startwerte von Null verwenden. Die resultierenden Zeitreihen sind nicht
stationAr bzw. genauer 1(1). Da VI und'" unabhngig voneinander zufAllierzeugt wurden,
wOrden wir nun in einer Regression von VI auf '" erwarten, dass das R der Regression
nicht signifikant ist. XI sollte mimlich nicht in der Lage sein, VI zu erklren. Auch sollte der
Parameter von '" nicht signifikant sein. Wir beobachten nun aber folgende Ergebnisse:
Dependent Variable: V
Method: Least Squares

R-squared
Adjusted R-squared
S.E. cf regression
Sum squared resid
Log likelihood
Durbin-Watson Slat

Coefficient
1.489786

0.514560
0.582932
0.562055
4.037027
8116.198
-1406.222

0.0U547

Sampie: 1 500
Included observations: 500
Std. Error
t-Statistic
Prob.
0.392653

0.020317

3.794156

25.32610

0.0002

0.0000
10.32061
6.100306

Maan dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

5.632686
5.649745
641.4113

O.DOODOO
2

Der Koeffizient von '" ist hoch signifikant und das nicht geringe R ist signifikant von Null
verschieden (p-Wert von Null bei der F-Statistik). Als typisch bei stochastischen Trends
kOnnen wir au8erdem einen sehr niedrigen Welt der Durbin-Watson d-Statistik feststellen.
WOssten wir nun nicht, dass die beiden Variablen in keineriei Beziehung zueinander stehen, knnten wir in Versuchung geraten, diese Ergebnisse dahingehend zu interpretieren,
dass eine signifikante statistische Beziehung zwischen Vt und Xt besteht.
Fahren wir eine analoge Simulation und Regression tar die beiden Random Walks mit Drift
0,1 + "'.1 + Ut und V t - 0,1 + Vt1 + Vt durch, so erhalten wir folgendes Ergebnis:

Xt -

Dependent Variable: V
Method: Least Squares

c
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likellhood
Durbin-Watson stat

Coefficient
-8.794763

0.779279

4.520955
10178.64
-1462.829

0.050848

Sampie: 1 500
Included observations: 500
Std. Error
t-Statistic
Prob.
0.368401

-23.87277

S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statlstlc
Prob(F-statistic)

0.0000

9.622947

5.659316
5.876174
1762.769

O.DOODOO

94 Auerdem sind die OLS-5chtzer der Koeffizienten autoregressiver Variablen nach unten
verzerrt und die t-5tatistiken selbst bei Gltigkeit von H" nicht t-verteilt.

Q.

IV Einfijhrung in die Okonometrie

594

Wieder ist der Parameter der erklrenden Variablen hoch signifikant, obwohl zwischen den
Variablen kein Zusammenhang besteht. Zudem erhalten wir nun auch ein hohes und signifikantes R2 . Dies lsst sich damit begrnden, dass durch den stochastischen Trend mit
Drift beide Variablen eine hnliche Entwicklungstendenz aufweisen. Wir stellen auerdem
wieder einen sehr niedrigen Wert der Durbin-Waison d-Statistik fest.
Wrden wir zwei Variablen mit hnlichen deterministischen Trends aufeinander regressie2
ren, ist R sogar noch hher. Am besten erkennen wir dies durch Simulation der Variablen
X, = 0,1 t + U, und Y, = 0,2t + V, nach der bisher verwendeten Methodik. Regressieren wir Y,
auf X" erhalten wir das folgende Ergebnis, welche unsere R2-Behauptung besttigt. Signifikanz ergibt sich hier nur aufgrund des hnlichen deterministischen Trends. Wieder hngen die Variablen nmlich in keiner Weise voneinander ab. Die Betrachtung der DurbinWatson d-Statistik zeigt nun ein anderes Bild. Bei deterministischen Trends zeigen sich
keine derart niedrigen Werte, wie wir sie bei den stochastischen Trends beobachtet hatten.
u, und v, sind schlielich anders als bei den Random Walks nicht autokorreliert.
Dependent Variable: Y
Method: Least Squares
C

X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson slat

Sampie: 1 500
Included observations: 500
Coellicient

Std. Error

t-Statistic

Prob.

-0.076253
1.998653

0.198653
0.006859

-0.383853
291.3911

0.7013

0.994169
0.994157
2.221539
2457.747
-1107.567

1.982894

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.0000
50.05015
29.06362
4.438269
4.455128
84908.75

0.000000

Nachdem wir diese fatalen Auswirkungen nicht stationrer Zeitreihen auf die interpretation von Regressionsergebnissen kennengeiemt haben, stellt sich nun die Frage, wie wir diesen begegnen knnen. Wir haben diese bereits indirekt in den vorhergehenden Kapiteln beantwortet. Differenzstationre Reihen knnen wir durch
Differenzieren in stationre Reihen berfhren95 und trendstationre durch Trendbereinigung. im ersten Fall knnen wir das Modell dann in bestimmten Fllen einfach mit den Differenzreihen neu schtzen. 96 Der Vorgang der Trendbereinigung ist
dagegen noch erklrungsbedrftig: Nehmen wir an, wir wollen ein Modell
Y, =

Po + P,X, + E,

(IV4: 127)

schtzen, in dem beide Variablen einem deterministischen Trend folgen. Wir haben
gesehen, dass wir einen deterministischen Trend bei Y, beseitigen knnen, wenn
wir von Y, = Ii + 'Y. t + u, den zugehrigen Erwartungswert Eey) = Ii + 'Y. t subtrahieren. in der praktischen Umsetzung bedeutet dies, dass wir trendbereinigte Werte
Y, dadurch erhalten, dass wir das Modell
(Iv4: 128)
Y, =1i+'Yt+u,
ntit OLS schtzen und dann
9S Da die GLS-Schtzung eine Quasidifferenzierung von im Modell verwendeten Zeitreihen
darstellt, kann auch sie den Folgen einer Scheinregression etwas entgegenwirken.
96 Eine solche Methodik ist bei konomischen Reihen nur zweckmig, wenn die Variablen
nicht kointegriert sind, cl.h. in keiner langfristigen Beziehung stehen (vgl. IV 4.7.2.6).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

595

(!V4, 129)
berechnen. Da (IV4: 129) gerade den Residuen der OLS-Sch.tzung entspricht, knnen wir sagen, dass die Residuen trendbereinigte Gren darstellen, d.h. 0 , = V, .

Fhren wir eine analoge Trendbereinigung auch fr die erklrende Variable (bzw.
mehrere erklrende Variablen) durch, knnen wir schlielich Y, auf X, regressieren, da diese ja stationr sind und wir keine verflschten Ergebnisse erhalten.
Alternativ zu dieser Vorgehensweise knnen wir in das Modell (IV4: 127) auch einfach die Trendvariable t in der Ponn
(!V4,130)
integrieren.97 Die Schtzung des Parameters l aus (IV4: 130) stimmt mit der Parameterschtzung berein, die wir aus der Regression von Y, auf X, erhalten. Eine
Trendbereinigung (Bereinigung eines linearen detenninistischen Trends) kann also
einfach durch Hinzufgen einer Trendvariablen t in das Modell erfolgen.

Beispiel IV 4-33

Scheinregressionen - Gegenmanahmen

Regressieren wir fr die Random Walks des vorhergehenden Beispiels IV 4-32 die ersten
Differenzen AYt auf die ersten Differenzen AXt. so erhalten wir die im Folgenden abgedruckten Ergebnisse. Wir haben dabei in EViews die Funktion D( ... ) genutzt. die automatisch die ersten Differenzen der jeweiligen Reihe bildet.
Sampie (adjusted): 2 500
Included observations: 499 after adjustments
Std. Error
t-Statistic
Prob.
Random Welk ohne DI1fI Coefficient
Dependent Variable: D(Y)
Method: Least Squares

C
D(X)
R-squared
Adjusted R-squared
S.E. cf regression
Sum squared resid
Log likelihood
Durbin-Watson stat

D(X)
R-squared
Adjusted R-squared
S.E. cf regression
Sum squared resid
Log likellhood
Durbin-Watson stat

0.036594

0.044461

0.823063

0.4109

-0.028704

0.043117

-0.665739

O.S05Q

0.000Bt1
-0.001119
0.993186
490.2497
-703.6364

1.882143

-0.067548

0.005055
0.003053

0.966966
464.7063
-690.2858

2.036095

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.042508

-1.589072

Maan dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statlstlc
Prob(F-statistic)

0.036661

0.992630
2.828202
2.845086
0.443209

0.505887

0.1127
0.050344
0.968445

2.774693
2.791577
2.525149

0.112680

97 Genauso knnen wir auch bei Modellen mit mehreren erklrenden Variablen vorgehen.

IV Einfijhrung in die Okonometrie

596

Es sticht sofort ins Auge, dass die erklrenden Variablen in beiden Modellen nun nicht
mehr signifikant sind, wie es auch sein sollte. Auerdem sind auch die Bestimmtheitsmae
der Regressionen nun sehr klein und nicht mehr signifikant. Die Werte der Durbin-Watson
d-Statistik liegen nun nahe 2, da der stochastische Trend beseitigt ist.
Das Modell mit den zwei Variablen mit deterministischen Trends, welches wir im Beispiel
IV 4-32 geschtzt halten, wollen wir nun trendbereinigt schtzen. Wir fgen dazu eine
Trendvariable mit den Werten 1,2, ... ,500 ins Modell ein und erhalten die folgenden "korrekten" Ergebnisse, die uns klar zeigen, dass der Koeffizient von X nicht signifikant ist und
anders als die Variable t keinen Erklrungsbeitrag fijr Y leistet.
Dependent Variable: Y
Method: Least Squares

Deterministischer Trend
C
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson slat

Coefficient
-0.307592
-0.022670
0.203299
0.998719
0.998714
1.042261
539.8951
-728.6610
1.950665

Sampie: 1 500
Included observations: 500
Std. Error
t-Statistic
Prob.
-3.294586
0.093363
0.0011
0.6384
0.048214
-0.470202
0.004838
42.01758
0.0000
Mean dependent var
50.05015
S.D.dependentvar
29.06362
Akaike info criterion
2.926644
Schwarz criterion
2.951931
F-statistic
193758.4
Prob(F-slatistic)
0.000000

Wrden wir eine derartige Trendbereinigung in einem Modell vornehmen, in dem die Variablen einem stochastischen und keinem detenninistischen Trend unterliegen, wrde trotzdem weiterhin ein signifikanter Zusammenhang zwischen den Variablen festgestellt wer2
den. Auch wre R weiterhin hoch und der d-Wert niedrig. Dies knnen wir zeigen, indem
wir in unser Modell aus den beiden Variablen mit Random Walks mit Drift eine Trendvariable mit den Werten 1,2, ... ,500 einfgen:
Dependent Variable: Y
Method: Least Squares
Random Walk mIt Drift
C
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson slat

4.7.2.5

Coefficient
-5.593064
0.670867
-0.096966
0.825210
0.824507
4.031233
8076.666
-1405.001
0.092475

Sampie: 1 500
Included observations: 500
Std. Error
t-Statistic
Prob.
-12.92832
0.0000
0.432621
0.0000
18.14830
0.036966
-11.37302
0.0000
0.008526
4.135194
Mean dependent var
9.622947
S.D.dependentvar
5.632003
Akaike info criterion
5.657291
Schwarz criterion
1173.210
F-statistic
Prob(F-statistic}
0.000000

Prfung auf Stationaritt

Nachdem wir nun die Auswirkungen fehlender Stationaritt auf Regressionsergebnisse und auch bereits erste Anstze kennengelemt haben, diesen zu begegnen,
stellt sich die praktisch wichtige Frage, wie wir prfen knnen, ob eioe Zeitreihe

4. Verletzungen der Annahmen des klassischen Regressionsmodells

597

stationr ist oder nicht. Nur dann drfen wir sie schlielich in unseren klassischen
Regressionsmodellen verwenden.98
Wir haben bereits gesehen, dass uns eine grafische Darstellung der Zeitreihe erste
Hinweise auf Nicht-Stationaritt geben kann. Trends zeigen zeitvariable Erwartungswerte auf und Schwankungen der Zeitreihe in nicht konstanten Intervallen
deuten auf zeitvariable Varianz hin Cvgl. dazu auch Abschnitt IV 4.8.1). Handfestere
Hinweise knnen uns die Autolrorrelationsfunklion und statistische Verfahren, wie
z.B. Dickey-Fuller-Tests, liefern.

1. Autolrorrc1atlomfunktl.on und KorrcJoaramm


Eine erste visuelle Prfung auf Stationaritt erlaubt uns die bereits unter IV 4.5.1
kennengelernte AutoTtorrelationsfunklion, deren einzelne Werte wir auf Basis des
konsistenten Schtzers (IV4: 108) ennitteln knnen. Diese Bestimmung der Autokorrelationsfunktion bzw. die Abbildung des zugehrigen Korrelogramms nimmt
uns EViews ab. Wie wir sie konkret dazu benutzen knnen, eine Zeitreihe auf Stationaritt zu berprfen, wollen wir direkt anhand des nachfolgenden Beispiels
veranschaulichen.

Beispiel IV 4-34

Autokorrelationsfunktion

Wie wir bereits wissen, Ist ein Random Walk ohne Drift nicht stationAr, seine ersten DIHe
renzen sind es jedoch schon. Versuchen wir nun, dies anhand der zugehOrigen Autokorre
lationsfunldionen aufzuzeigen. Wir simulieren dazu zunachst1.500 Beobachtungen fur den
Random Walk Vt '" V\-1 + Ut mit standardnormalverteiltem Starterm und lassen uns dann
von EViews fOr die letzten 500 Beobachtungen bzw. die korrespondierenden ersten Dlffe
renzen die Korrelogramme bis zu 20 Lags anzeigen (Anwahlen der Zeitreihe und Klick auf
Views I Correlogram). Whrend wir in unseren bisherigen Anwendungen direkt die ersten
simulierten Beobachtungen fOr Random Walks verwendet haben, ist es in diesem Beispiel
wichtig (und in der Praxis Oblich), den Random Walk zunAchst1.000 Beobachtungen -lau
fen zu lassen- und erst die Folgebeobachtungen fur die weitere Analyse heranzuziehen.
Dies hat den Grund, dass sich die typische Korrelationsstruktur von Vt erst nach lngerer
Laufzeit der Simulation vollslAndig ausgeprgt hat. In den ersten Beobachtungen kommt
diese nur weniger klar zum Vorschein.
Betrachten wir zunchst das Korrelogramm der ersten Differenzen. Wir erkennen rur den
simulierten White Noise Prozess, der sich dahinter verbirgt, ausschlielich Autokon'elationskoeffizienum um Null. Dies Ist das typische Bild des Korrelogramms eines Whlte
Noise Prozesses. hnelt das Korrelogramm einer empirisch beobachteten Zeitreihe also
dem einer While Noise Reihe, dann kann sie sicherlich als stationr betrachtet werden.
Das Korrelogramm des Random Walk zeigt ein vllig entgegengesetztes Bild. Hier haben
wir sehr hohe Autokorrelatlonskoefflzlenten. Selbst bei hohen Lags ist die Autokorrelation
noch sehr hoch. Das hier zu sehende Bild Ist typisch fOr eine nicht stationAre Z8ltrelhe: Die
Autokorrelatlonskcefflzlenten beginnen bei einem hohen Wert und sinken kaum mft zu
nehmendem Lag.
Interessant ist in diesem Zusammenhang ein direkter Vergleich mit dem Korrelogramm
einer Variablen, die durch ein stationres AR(1)-Modell beschrieben werden kann. Ein solches finden wir etwa im Beispiel IV 429 zur Umlaufsrendite deutscher Unternehmensan-

98 Im Abschnitt IV 4.7.25 werden wir sehen, dass wir unter gewissen Voraussetzungen auch
mit nicht stationren Reihen sclUitzen knnen.

Q.

598

IV EinfOhrung in die Okonomelrie


leihen. Der geschAtzte Koeffizient, ist hier 0,97, also sehr nahe am Wert 1 des Random
Walk. Trotzdem zeigt sich ein anderes Verhalten der Autokorrelationsfunktion. Auch hier
stellen wir zunchst hohe Autokorralation erster Ordnung 'est, doch im Vergleich zum

Random Walk fallt die Autokorrelationsfunktion sehr viel schneller ab. WAhrend wir bei unserem simulierten Random Walk tOr einen Lag von 20 noch einen sehr hohen Autokorrelationskoeffizienten von 0,903 beobachten knnen, liegt der korrespondierende Wert der
AR(1)-Ralhe nur noch bel niedrigen 0,129.

Random Walk ohne Dritt VI:

Zugehrige erste Differenzen AYt:

Sampie: 1 500
In,luded observati ons: 500

Sampie: 1 500
Included observations: 500

Aulocorrelation

AC

Q-Stal

0.988
0.983
0.918
0.973
0.968
0.963
0.958
0.953
0.948
0.943
0.939
0.935
0.931
0.927
0.923
0.918
0.913
0.908
0.903

497.01 0.000
989.45 0.000
1471.3 0.000
1961.1 0.000
2440.8 0.000
2916.8 0.000
3389.1 0.000
3851.5 0.000
4322.1 0.000
4182.6 0.000
5239.4 0.000
5692.1 0.000
6143.4 0.000
6591.1 0.000
7036.1 0.000
7477.7 0.000
7915.6 0.000
83 49.8 0.000
8780.1 0.000
9208.2 0.000

, 0.994
2
3
,
5

,,
6

10

"
"

12
13
15
16
17

"

19
20

Prob

Autocorrelation

"
",
"
"
"
"

"
"

"
",
"
"
"
"
,"
"
"

AC
1 0.039
2 0.032
3 0.053
0.00 4
5 0.011
6 0.040
0.039
8 0.023
9 0.013
10 0.014
0.025
12 0.090
13 0.023
14 0.013
15 0.031
16 0.013
17 0.022
0.056
19 0.013
20 0.037

"

"

Q-Stat

Prob

0.381
0.525
0.439
0.606
0.134
0.732
0.735
0.795
0.857
0.902
0.924
0.677
0.128
0.181
0.810
0.854
0.882
12.t33 0.840
12.217 0.876
12.935 0.880

0.1688
1.2889
2.1098
2.1174
2.7781
3.5907
U770
4.6387
4.7308
4.8302
5.1522
9.3048
9.5721
9.6528
10.t53
10.239
10.483

Die Werte der Q-Statistik (vgl. Abschnitt IV 4.7.1.2) bzw. die zugehrigen poWerte (oder
auch individuelle Bartlett-Tests) sollten nicht zur Beurteilung von Nicht-StationariW herangezogen werden. Zwar zeigen uns diese hier hochgradig signifikante Autokorrelation bis zu
20 Lags an, doch ist diese noch kein Indiz fiir Nicht-StationaritAt. Dies knnen wir uns wieder durch einen Blick auf das Korrelogramm aus Beispiel IV 4-29 klar machen. Auch hier
haben wir hochgradig signifikante Autokorrelation bis zu 20 Lags, obwohl ein stationrer
AR(1)-Prozess vorliegt. Es ist also vielmehr die "Geschwindigkeit- des Abfallens der Autokorrelationsfunldion und nicht die Signifikanz ihrer Autokorrelationskoeffizienten, die uns
Hinweise auf Nicht-Stationaritt liefert.

2. DIckeyFulkrT....
Ausgangspunkt des Dickey-Fuller-Tests99 ist die Gleichung
Y, = tjtY'-l

+ u"

(IV4: 131)

in der U, ein White Noise Strtenn ist. Wie wir wissen, erhalten wir fr tjt - 1 einen
Random Walk ohne Drift, also eine nicht stationre Reihe. Ist jedoch 1,1 < 1, so
99 Vgl. Dickey und Puller (1979, 1981). Fr einen berblick ber weitere Testverfahren vgl.
z.B. Campbell und Perron (1991) sowie Wolters und Hassler (2006).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

599

erhalten wir eine stationre Zeitreihe100 Die Nullhypothese der Nicht-Stationaritt


kann also als H,: cp - 1 fonnuliert werden. Die Altemativhypothese der Stationaritt
lautet in der Praxis meist HA: cP < 1101
Aus Vereinfachungsgrnden wird der Dickey-Fuller-Test in der Praxis jedoch nicht
direkt mittels (N4: 131) durchgefhrt, sondern diese Gleichung zunchst ber
~

- Yt - 1 = q,Yt - 1 - Yt - 1 + U t

AY,
modifiziert, was mit "6 -

(cp -

= Cel> -1)YH + u,

1) folgende Darstellung zulsst:


AY, = "6YH + u,

aV4: 132)

"6 - 0 gilt nun, wenn <I> - 1, d.h. Y, eine nicht stationre Reihe ist. "6 < 0 erhalten
wir, wenn q, < 1, d.h. Y t stationr ist. Um die Stationaritt von Yt zu berprfen,
knnen wir also Gleichung (N4: 132) mit OLS schtzen und das Hypothesenpaar
(Nicht-Stationaritt)
(Stationaritt)

av4: 133)

testen. Eine Ablehnung von Ho bedeutet, dass die Zeitreihe mit E(Y) - 0 stationr
ist. Da gerade bei konomischen Zeitreihen ein Erwartungswert von Null unrealistisch ist, macht eine solche Alternativhypothese nicht inrmer Sinn. Deswegen haben
Dickey und Fuller noch weitere Testgleichungen vorgeschlagen:
Erweitern wir (N4: 132) um eine Driftkomponente Ii bzw. betrachten als Ausgangspunkt in aV4: 131) einen Random Walk mit Drift, erhalten wir die Testgleichung
AY, = Ii + "6YH + u,.

av4: 134)

Prfen wir mittels dieser Gleichung das Hypothesenpaar (N4: 133), so bedeutet
eine Ablehnung von Ho nun, dass die Zeitreihe mit dem von Null verschiedenen
Erwartungswert E(Y) - 1i/0 - cp) stationr ist.
Wird in aV4: 134) nun noch ein detenninistischer Trend integriert, erhalten wir als
letzte Testgleichung
AY, = Ii + "6YH +yt+u,.

aV4: 135)

Sei einer Ablehnung von Ho sagen wir hier, dass die Zeitreihe trendstationr ist.
Dies bedeutet, dass wir sie erst nach Bereinigung des deterministischen Trends als
wirklich stationr bezeichnen knnen.

Die konkrete Durchfhrung eines Dickey-Fuller-Tests hnelt nun einem t-Test des
Koeffizienten "6 der verzgerten Variablen Y,_,. Die Teststatistik des Dickey-FullerTests, die auch als Tau- bzw. 't-Statistik bezeichnet wird, ist also die des
t-Tests, d.h.

100 Dies knnen wir uns klar machen, indem wir uns aus Abschnitt IV 4.7.1.2 in Erinnerung
rufen, dass unter der Bedingung I~ I < 1 fr den Erwartungswert und die Varianz von
(N4: 131) gilt: E(Y) - 0 und Var(Y) - 1/0-1>'). Da diese Konstanten sind und die Autokovarianz Cov(Yt'Y.) "" cp'~ nur von s abhngt, ist Yt stationr.
101 Die Alternative, > 1 wird in der Regel nicht betrachtet, da diese bedeuten wrde, dass Yt
"explosiv" wchst.

IV ElnfOhrung In die Okonometrle

600

<=-.

a,

Bei korrekter Nullhypothese folgt 't nun aber keiner konventionellen t-Verteilung
mehr, sodass wir fr unsere Testentscheidung nicht auf die klassischen kritischen
t-Werte zurckgreifen knnen. Stattdessen sind abhngig von der verwendeten
Testgleichung (IV4: 132), (IV4: 134) und (N4: 135) spezielle von Dickey und Puller

bestinunte kritische Werte zu verwenden. Die nachfolgende Tabelle zeigt typische


kritische Werte des Dickey-Fuller Tests fr groe Sttchproben im Vergleich zu den
klassischen t-Werten. 102 In der praktischen Anwendung liefern konometriesoftwa-

repakete die notwendigen kritischen Werte automatisch, weshalb wir hier auf weitere Tabellierung verzichten.
Modell

Interpretation,

AY = "'"YI - 1 + u t

wenn ' - 0
Y, folgt einem Random Walk
ohne Drift
Y , folgt emem. Rambn wallt

tJ.Yt = S + "YI - l + u t

mftDdft

!lY, =S+Y'_l +ll+u,

mit Drift und detenninisti-

1%

5%

"

10 %

-2,58

-1,95

-1,62

-3,43

-2,86

-2,57

-3,96

-3,41

-3,12

-2,33

-1,65

-1,28

Y, folgt einem Random Walk

sehern Trend

Klassische t-Werte

Ist der Wert der 't-Statistik. kleiner als der kritische Wert, knnen wir Ha ablehnen
und damit folgern, dass Y, in den Fllen (IV4: 132) und (IV4: 134) stationr und im
Fall (IV4: 135) trendstationr ist.
Besonders wichtig ist bei der Durchfhrung des Dickey-FuUer-Tests die korrekte

Q.

Wahl der Testgleichung. Whlen wir die falsche, verursachen wir eine Fehlspezifikation, deren Konsequenzen uns bereits aus IV 4.1 und 4.2 bekannt sind. WlC
haben bereits erwhnt, dass (IV4: 132) aufgrund des fehlenden Drifts fr konomische Zeitreihen meist unrealistisch ist. In der Praxis sind daher eher (IV4: 134) und
(IV4: 135) relevant. Welchen Einfluss die wahl der Testgleichung auf die Testergebnisse hat, wollen wir im nachfolgenden Beispiel im Detail betrachten.

Beispiel IV 4-35

Dickey-Fuller-Test

Simulieren wir in der gewohnten Art und Weise durch zufilliges Ziehen von StOrtermrealisierungen aus einer N(0;1)-Verteilung die Variable VI, die einem deterministischen Trend
der Form
VI'" 0,1 + 0,21 + UI
folgt. Ein Test auf Stationaritlt musste nun Trendstationaritt der entstandenen Reihe feststellen, d.h. Ho ablehnen. Wir wissen bereits, dass aufgrund unserer Simulation nur Glei-

102 Modifiziert entnommen aus MacKinnon, J.G. (1991).

4. Verletzungen der Annahmen des klassischen Regressionsmodells

601

chung (IV4: 135) dazu in der Lage sein kann. Teslen wir nun dennoch mittels aller drei
mglichen Teslgleichungen auf Stationaritt. Es ist dazu anzumerken, dass der DickeyFuller-Test in EViews als Spezialfall des sog. Augmented Dickey-Fuller-Tests (vgl. Ausfh
rungen der Folgeseite) zu behandeln ist. Es ist also die Zeitreihe anzuwhlen, unter View I
Unit Root Test der Augmented Dickey-Fuller-Test zu selektieren und die Lag-Lnge benutzerdefiniert auf Null zu setzen. Nach Auswahl der Form der Testgleichung erhalten wir
dann die folgenden (gekrzt dargestellten) Ergebnisse:
Null Hypothesis: Y has a unit root
Exogenous: None
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
Null Hypothesis: Y has a unit root
Exogenous: Constant

Lag Length: 0 (Fixed)


t-Statistic

Prob.

2.177890
2.569604
-1.941459
1.616273

0.9933

Lag Length: 0 (Fixed)


t-Statistic

Augmented Dickey-Fuller test statistic


Test critical values:
1% level
5% level
10% level
Null Hypothesis: Y has a unit root
Exogenous: Constant, Linear Trend

-0.628667
3.443228
-2.867112
2.569800

Lag Length: 0 (Fixed)


t-Statistic

Augmented Dickey-Fuller test statistic


Test critical values:
1% level
5% level
10% level

Prob.
0.8612

-23.00531
3.976554
-3.418852
3.131965

Prob.
0.0000

Wie zu erwarten war, sind die Tests auf Basis von (IV4: 132) und (IV4: 134) nicht in der
Lage die Trendstationaritt aufzuzeigen. Die sich aus den speziellen kritischen Werten ergebenden p-Werte sind sehr hoch, d.h. wir knnen Ho bei einem Signifikanzniveau von
5 % nicht ablehnen. Der Test auf Basis von (IV4: 135) liefert jedoch einen p-Wert von Null.
Wir knnen Ho klar ablehnen, was auf Trendstationaritt hinweist.

Besonders wichtig ist, dass die Test-Gleichungen und kritischen Werte des DickeyFuller-Tests der Annahme unterliegen, dass die Strtenne nicht autokorreliert sind.
Fr den Fall autokorrelierter Strterme haben Dickey und Fuller die Testgleichungen durch Einbeziehung verzgerter erster Differenzen der erklrten Variablen
modifiziert. Werden diese modifizierten Gleichungen verwendet, sprechen wir
auch vom ADF-Test (engI. augmented Dickey-Fuller-test). Die drei mglichen Formen des ADF-Tests sind

602

IV ElnfOhrung In die Okonometrle

AY, ='Y'_l + tep,AYt-\ +u,

OV4: 137)

,.,

AY, =&+"Yt - 1 + tep,AYt-t +u t


AY, = &+ yt + '6YI-l

Bit

+t

i_I

CPiAYt-t

+ U"

wobei AY0-1 - Yt--l - Y0-2' AYO-2 - Y0-2 - Y,-" ete. gUt. Die Lag-Anzahl s wird dabei in
der Regel ber das Akaike- oder das Schwatt-Informationskriterium bestimmt.
Sinnvoll ist es zudem fr die gewhlte Lag-Anzahl zu prfen, ob die Residuen der
ADF-Regression autokorreliert sind oder nicht (z.B. mit dem Breusch-Godfrey IMTest). Sind sie dies nicht, ist die richtige Lag-Zahl gefunden. Zur Testentscheidung
werden auch hier der Wert der t-Statistik und die speziellen kritischen Werte
herangezogen.

BeloplellV 4-36

Ist der Goldpreis stationr?

Testen wir die Zeitreihe des Feingoldpreises in Euro je kg von Juni 1986 bis April 2009 mit
insgesamt 491 Preisbeobachbmgen aus der Zeitreihendatenbank der Deutschen Bundesbank auf StationaritAt. Bereits ein erster Blick auf die grafische Darstellung weist auf fehlende Stationaritiit hin, da weder Erwartungswert noch Varianz im Zeitverlauf konstant zu
sein scheinen.
~',-------------------,

In der Literatur wird hAufig vorgeschlagen, Rohstoffpreisa miHels der Tastgleichungen auf
Stationaritiit zu testen, die auf dem Random Walk mit Dritt oder dem Random Walk mit
Dritt und deterministischem Trend beruhen. 103 Wir entscheiden uns zunchst fUr die erstgenannte Mglichkeit und berucksichtigen auerdem eine evU. Aulokorrelation des St6rterms, d.h. wir verwenden Testgleichung (IV4: 138) des ADF-Tests. Zur Vereinfachung bedienen wir uns einer automatischen Lag-Bestimmung miHels des Akaike-Informationskriteriums durch EViews. Wir erhalten damit das auf der Folgeseite (nun vollstndig)
abgedruckte Testergebnis.
Der Regressionsoutput verdeutlicht, dass die ADF-Teststatistik genau den Wert der
t-Statistik fiir den Koeffizienten von Yj-1 in der ADF-Testgleichung annimmt. Durch das
Akaike-Informationskriterium hat EViews fr die verzgerten Differenzen eine Lag-Anzahl s
von 15 bestimmt und damit der Autokorrelation des St6rterms Rechnung getragen. Aufgrund des hohen p-Werts von 0,7081 kOnnen wir die Nullhypothese der Nlcht-Statlonarltat
103 VgI.. z.B. Pindyck und Rubinfeld (1998), Kapitel 16.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

603

bei einem Signifikanzniveau von 5 % nicht ablehnen. Es lsst sich also keine Stationaritt
vermuten. Selbst unter Einbeziehung eines deterministischen Trends erhalten wir einen
poWert von 0,8165. Es kann also auch nicht auf Trendstationaritt geschlossen werden.
Null Hypothesis: Y has a unit root
Exogenous: Constant
Lag Length: 14 (Automatie based on AIC, MAXLAG=15)
t-Statistic
-1.122794
3.443863
-2.867392
2.569950

Augmented Dicke~-Fuller test statistic


Test critical values:
1% level
5% level
10% level
'MacKinnon (1996) one-sided p-values.

Prob:
0.7081

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(Y)
Method: Least Squares
Sampie (adjusted): 1969M09 2009M04
Included observations: 476 after adjustments
Y(-I)
D(Y(-I))
D(Y(-2))
D(Y(-3))
D(Y(-4))
D(Y(-5))
D(Y(-6))
D(Y(-7))
D(Y(-8))
D(Y(-9))
D(Y(-10))
D(Y(-l1))
D(Y(-12))
D(Y(-13))
D(Y(-14))
C
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Coefficient
-0.007005
-0.034874
-0.044773
-0.074971
0.057077
0.099042
-0.074008
0.039359
0.072273
0.106529
0.009844
0.100366
0.019737
-0.030692
-0.119526
120.2412
0.064094
0.033576
664.0117
2.03E+08
-3760.468
1.999847

Std. Error
0.007040
0.046520
0.046840
0.047013
0.048084
0.048138
0.048737
0.049157
0.049399
0.049411
0.049532
0.049514
0.049653
0.049897
0.050275
78.35573

t-Statistic
-1.122794
-0.749653
-0.955890
-1.594673
1.187040
2.057455
-1.518507
0.800684
1.463035
2.155982
0.198739
2.027039
0.397502
-0.615114
-2.377419
1.534555

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(Fstatistic)

Prob.
0.2621
0.4538
0.3396
0.1115
0.2358
0.0402
0.1296
0.4237
0.1441
0.0316
0.8426
0.0432
0.6912
0.5388
0.0178
0.1256
39.86970
675.4479
15.86751
16.00753
2.100174
0.009066

EViews bietet uns die komfortable Mglichkeit den ADF-Test auch fUr die ersten (und auch
zweiten) Differenzen einer Variablen durch einfachen Mausklick durchzufiihren. Fhren wir
diesen Test mit der auf dem Random Walk mit Drift basierenden Testgleichung und automatischer Lag-Bestimmung durch EViews durch, liefert der ADF-Test einen poWert von
Null, mit dem wir die Stationaritt der ersten Differenzen des Goldpreises bei jedem Signifikanzniveau aufzeigen knnen.

604

IV Einfijhrung in die Okonomelrie

4.7.2.6

Kointegration und Fehlerkorreklurmodell

In unseren bisherigen Ausfhrungen haben wir gesehen, dass nicht stationre Zeitreihen nicht (in ihrer Urform) in Regressionen verwendet werden sollten, um das

Problem der Scheinregression zu vermeiden. Zu dieser Regel gibt es jedoch eine


Ausnahme. Betrachten wir dazu das Regressionsmodell
Y, = o + ,X, + E"
(IV4: 140)
in dem wir mittels des Dickey-Fuller-Tests oder des ADF-Tests festgestellt haben,
dass sowohl 1'; - 1(1) als auch X; - 1(1) gilt. Obwohl eine Linearkombination von Y

und X,104 wie z.B.

E, = Y, - o - ,X"
(IV4: 141)
in der Regel ebenfalls 1(1) ist, besteht die Mglichkeit, dass (IV4: 141) 1(0) ist. Trotz
der Tatsache, dass Y und X stochastische Trends aufweisen, kann ihre Linearkombination (IV4: 141) also stationr sein. Durch die Linearkombination heben sich die
stochastischen Trends der Reihen sozusagen auf. Nehmen wir z.B. an, uns liegen

die 1(1)-Variablen Konsum und Einkommen vor, so knnte die Ersparnis (Einkommen abzglich Konsum) eine stationre Variable sein. In einem solchen Fall ist
eine Regression von Konsum auf Einkommen sinnvoll und wrde Zu keiner
Scheinregression fhren. Eine stationre Linearkombination impliziert nmlich
auch, dass die Variablen Y und X einem hnlichen stochastischen Trend folgen,
sich also nie all zu weit voneinander entfernen. konomisch bedeutet dies, dass
zwischen den Variablen eine langfristige Beziehung (oder Gleichgewichtsbeziehung) besteht.
In der hier geschilderten Konstellation nennen wir Y und X kolntegrlert, 105
bezeichnen (IV4: 140) als Kointegrationsregression und , als Kointegrationsparameter. Die einfachste Mglichkeit zu testen, ob die Variablen Y und X kointegriert sind, ist die Strterme (IV4: 141) der Kointegrationsregression mittels eines
Dickey-Fuller-Tests oder ADF-Tests auf Stationaritt zu testen. 106 Da wir diese jedoch nicht beobachten knnen, prfen wir stattdessen die Residuen
e, = Y, - o - ,X,. Sind die Residuen stationr, sind Y und Xkointegiert. Sind sie
nicht stationr, sind Y und X nicht kointegriert und ihre Regression aufeinander
wre eine typische Scheinregression.

Der Test auf Stationaritt der Residuen basiert auf der Testgleichung
(IV4: 142)
104 Eine Linearkombination von Y und X ist eine neue Variable Z '" ~ + ~X + ~Y. Hier er-

halten wir QV4: 141), indem wir a" -

--f3., a, - -, und a" -

1 setzen und die Reihe Z mit

e bezeichnen.
105 Wre eine der Variablen 1(1) und die andere 1(0), knnen sie nicht kointegriert sein. Eine
stationre Variable lsst sich schlielich nicht durch eine nicht stationre erklren und
umgekehrt, weshalb es auch keine langfristige Beziehung zwischen ihnen geben kann.
106 Einen berblick ber Kointegrationstests bei Modellen mit mehreren erklrenden Variab-

len bietet z.B. Kennedy, P. (2003). Zu den wichtigsten modemen Verfahren zhlt der Test
von ]ohansen, S. (1991, 1995). Er besitzt anders als das im Folgenden vorgestellte Verfahren nach Engle, R.F., Granger, C.W.]. (1987) den Vorteil, auch auf mehr als eine Kointegrationsbeziehung unter den Variablen testen ZU knnen.

605

4. Verletzungen der Annahmen des klassischen Regressionsmodells

die wieder Tenne der Art det-1, det _ 2 , etc. auf der rechten Gleichungsseite enthalten kann, um Autokorre1ation von U. zu begegnen. Von besonderer Bedeutung ist,
dass UV4: 142) ketne ModellIronstante enthalten darf, da der Mittelwert der Residuen bei Null liegt. Unser Hauptaugenmerk bei der Testdurchfhrung gilt wieder dem
Wert der t-Statistik fr den Parameter '. Da der Test auf den Residuen der Kointegrationsregression beruht, sind der Dickey-Fuller Test und der ADF-Test in Richtung eines Auffindens von Kointegration verzerrt. Um dieses Problem zu umgehen,
sind nicht die von Dickey und Puller gelieferten kritischen Werte des
Dickey-Puller-Tests, sondern spezieUe von Engle und Granger tabeUierte kritische
Werte fr die Testentscheidung ZU verwenden. 107 Die nachfolgende Tabelle zeigt
typische kritische Werte fr groe Stichproben. 108 Je nachdem, welche Ponn das
Ursprungsmodell UV4: 140) aufweist, aus dessen Schtzung die Residuen starrunen,
sind also andere kritische Werte erforderlich.
Modell

Beschreibung
Stand.romodell
Standardmodel1 mit
deterministischem Trend

Yt-Po+Pl~+Et
Yt=PO+Ilt~+P2t+~

Klassische t-Werte
Beispiel IV 4-37

1%
-3,96

5%
-3,37

10%
-3,07

-3,98

-3,42

-3,13

-2,33

-1,65

-1,28

Langfristiger Einfluss der EZB

Im Rahmen der Hauptrefinanzierungsgeschtte tauschen Geschftsbanken zeitlich begrenzt notenbankfAhige Sicherheiten in Zentralbankgeld um, d.h. sie beschaffen sich Mittel
fur ihre geschftlichen Operationen. Der diesen Wertpapierpensionsgeschtten zugrunde
liegende Zinssatz wird als Hauptrefinanzierungssatz bezeichnet und ist der wichtigste Leitzins der Europischen Z8ntralbank (EZB). Da die Geschftsbanken den HauptrefInanzIerungssatz durch Zinsen auf Wertpapiere und Kredite finanzieren, kann die EZB damit indirekt die Zinsen am Geld- und Kapitalmarkt beeinflussen.

=----

_ _ , .... liLaAM

;p

12_~

107 Vgl. Engle und Granser (1987). Vgl. auch Phillips und Ouliaris (1990).
108 Modifiziert entnommen aus Hamilton (1999), Stichprobengre 500.

Q.

606

IV EinfUhrung in die Okonometrie


In diesem Beispiel interessieren wir uns dafOr, ob eine langfristige Beziehung zwischen
dem Hauptrefinanzierungssatz und der Rendite brsennotierter Bundeswertpapiere mit 2
Jahren Restlaufzeit besteht. Wir wollen also untersuchen, ob beide Variablen kointegriert
sind. Um dies zu prOfen, steht uns Zahlenmaterial der Deutschen Bundesbank (Monatsdaten von Januar 1999 bis April 2009) zur Verfgung. Genau genommen sind fOr die
Untersuchung von Kointegrationsbeziehungen relativ lange Zeitrume erforderlich (vgl. dazu Aufgabe ZR 2). Das ist nicht durch eine hohe Periodizitt zu kompensieren. Wir knnen
oftmals keine Kointegration feststellen, da die betrachteten Zeitrume einfach zu kurz sind.
Auch das hier vorliegende Zeitfenster ist relativ eng. Aufgrund der anschaulichen Interpretation dieses Zinsbeispiels fUhren wir die Untersuchung aber dennoch durch.
Die uns vorliegenden Reihen (X: Hauptrefinanzierungssatz, V: Rendite Bundeswertpapiere) mOssen wir zunchst auf Stationaritt testen. Der ADF-Test (Lag-Wahl durch Akaike,
Grundmodell Random Walk mit Drift) liefert fr X einen poWert von 0,2302 und fUr V einen
poWert von 0,4339 und damit keinen Hinweis auf Stationaritt. Ein entsprechender Test fr
die ersten Differenzen von X liefert einen poWert von 0,0156 und bei V einen poWert von
0,0000. Wir knnen also von zwei 1(I}-Reihen ausgehen. Mit diesen knnen wir nun die
Kointegrationsregression V, = ~o + ,X, + .. schtzen. Wir erhalten das folgende Ergebnis,
mit dem wir die bentigten Residuen fr unseren Kointegrationstest bestimmen knnen:
Dependent Variable: V
Method: Least Squares
Coefficient
C
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.873099
0.822446
0.681618
0.679008
0.518439
32.79099
-93.48045
0.227406

Sam pie: 1999MOI 2009M04


Included observations: 124
Std. Error
t-Statistic
Prob.
0.162164
5.384041
0.050890
16.16128
Mean dependent var
S.D.dependentvar
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic}

0.0000
0.0000
3.383548
0.915061
1.540007
1.585496
261.1869
0.000000

Wir knnen nun die Hypothesen


Ho: "Reihen nicht kointegriert"

....

HA: "Reihen kointegriert"

...." Residuen stationr"

"Residuen nicht stationr"

testen. Der ADF-Test fr die Residuen auf Basis von (IV4: 142) liefert die Ergebnisse der
Folgeseite. Um Autokorrelation Rechnung zu tragen, wurden von EViews zwei Differenzterme in die Testgleichung integriert. Das Problem bei der Testentscheidung in EViews ist
nun, dass nicht die bentigten kritischen Werte von Engle und Granger ausgegeben werden, sondern die speziellen kritischen Werte von Dickey und Fuller, auf denen auch der pWert basiert. Wir knnen diesen daher nicht zur Entscheidungsfindung verwenden. Greifen
wir stattdessen (nherungsweise) auf die Werte aus der votihergehenden Tabelle zu, knnen wir hier feststellen, dass bei einem Signifikanzniveau von 5 % die Beziehung
-3,4154< -3,37 gilt, wir also Ho ablehnen knnen. Die Residuen sind also stationr und X
und V damit kointegriert.
Welche konomische Bedeutung hat nun eine Kointegration von Hauptrefinanzierungssatz
und der Rendite der Bundeswertpapiere? Wir knnen zunchst sagen, dass zwischen beiden Variablen eine fundamentale Beziehung besteht und die geschtzte (langfristige) Beziehung zwischen ihnen nicht als Scheinregression anzusehen ist. Verndert die EZB den
Hauptrefinanzierungssatz, wird sich die Rendite von Bundeswertpapieren ebenfalls ndern, wodurch sichergestellt wird, dass die Geldpolitik der Zentralbank auf die gesamte

4. Verletzungen der Annahmen des klassischen Regressionsmodells

607

Volkswirtschaft wirkt. Wir sprechen dabei auch von der Transmission geldpolitischer Impulse. Im Kontrast dazu wurden geldpolitische Manahmen erheblich behindert, wenn nur
eine "Scheinbeziehung" zwischen beiden Gren besteht. Dies wurde nmlich bedeuten,
dass Vernderungen beider Gren fundamental nichts miteinander zu tun haben.
Null Hypothesis: E has a unit root
Exogenous: None
Lag Length: 2 (Automatie based on AIC, MAXLAG=15)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level

t-Statistic

Prob:

-3.415398
2.584214
-1.943494
1.614970

0.0008

'MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(E}
Method: Least Squares
Sampie (adjusted): 1999M04 2009M04
Included observations: 121 after adjustments
E(-I}
D(E(I}}
D(E(-2}}
R-squared
Adjusted R-squared
S.E. 01 regression
Sum squared resid
Log likelihood

Coefficient

Std. Error

t-Statistic

Prob.

-0.154399
0.162624
0.150085

0.045207
0.090820
0.092537

-3.415398
1.790621
1.621884

0.0009
0.0759
0.1075

0.099885
0.084629
0.236995
6.627656
4.033069

Mean dependent var


S.D.dependentvar
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

-0.000667
0.247708
-0.017076
0.052242
2.008154

Sind Y, -1(1) und X; - 1(1) in einem Modell (IV4: 140) nicht kointegriert, so weisen
sie keine langfristige Beziehung zueinander auf. Ihre kurzfristige Beziehung knnen wir durch Modellschtzung in Differenzen beschreiben (vgl. Abschnitt N
4.7.2.4). Es ist dabei zu beachten, dass wir dadurch zwar einer Scheinregression
begegnen knnen, sich die Modellbedeutung aber ndern kann (vgl. Ausfhrungen
im Abschnitt N 4.3.4, Punkt 5). Wrden wir diese Vorgehensweise auch bei kointegrierten Niveauvariablen whlen, wrden wir den Langfristzusammenhang zwischen ihnen vernachlssigen. Schtzen wir das Modell mit den kointegrierten Variablen, bllden wir den Langfristzusammenhang ab,109 jedoch nicht den kurzfristigen. Fr kointegrierte Variablen wurde daher eine fundamentale Darstellung des
wahren Modells, das sog. Fehlerkorrekturmode1l nach Engle und Granger, entwickelt. l1O Dieses wollen wir im Folgenden kurz vorstellen:
109 Die Schtzung der Kointegrationsparameter kann dabei mit OLS oder dem dynamischen
GLS-Schtzer von Stock, J.H., Walson, M.W. (1993) erfolgen.
110 Das Modell wurde erstmalig verwendet von Sargan, J.D. (1984) und spter von Engle und
Granger popularisiert.

IV ElnfOhrung In die Okonometrle

608

Sind Y, - 1(1) und X. - 1(1) in einem Modell UV4: 140) kointegrlert, so besteht zwischen ihnen eine langfristige Beziehung, die kurzfristig aber verletzt sein kann. Wir
knnen den Strterm UV4: 141) als Fehlerwert betrachten, um den Y, kurzfristig
von seinem Langfristwert abweicht. Nach dem Granger-Reprsentations-1beorem.
lassen sich zwei kointegrierte Variablen X und Y unter Einbeziehung dieses Fehlers
in der Art

darstellen, in der u, ein klassischer Strtenn, ~ der um eine Periode verzgerte


Fehler aus der Kointegrationsregression ist und AY, und Me. die ersten Differenzen
der Variablen X und Y sind. Wir sprechen hierbei vom sog. Feblerkorrekturmodell.
Es ist dadurch gekennzeichnet, dass es nur [(O)-Variablen beinhaltet und damit
unsere Teststatistiken wieder den blichen Verteilungen folgen. Zur Schtzung von
(IV4: 143) ziehen wir in der Praxis aufgrund der unbekannten E,.., die Residuen e ...,
der Kointegrationsregression heran. Auerdem wird das Fehlerkorrekturmodell
hufig auch noch um dynamische Elemente wie z.B. AY...., und AX.-, erweitert.

Q.

(IV4: 143) besagt, dass AY, neben AX, auch vom Fehlerkorrekturterm E,.., abhngt:.
Ist dieser von Null verschieden, ist das Modell aus dem Gleichgewicht. Nehmen wir
z.B. an, AX, ist Null und E,.., ist positiv. Dies bedeutet, dass Y...., zu hoch ist, um im
Gleichgewicht zu sein. Anders ausgedrckt liegt Y...., ber seinem Gleichgewichtswert von ~o + P,x.-,. Da wir erwarten, dass a.a negativ ist, ist auch 1lA-, negativ und
damit AY, zur Wiederherstellung des Gleichgewichts ebenfalls negativ. Ist Y also
ber seinem Gleichgewichtswert, wird Y in der Folgeperiode fallen um den
Gleichgewichtsfehler ZU korrigieren (daher der Name Fehlerkorrektumodell). Analog ist bei negativem E..., der Term C1.A.., positiv, was zu positivem AY, fhrt. Wir
sehen daran, dass es der Wert von a.a ist, der bestimmt, wie schnell das Gleichgewicht wiederhergestellt wird.

Beispiel IV 4-38

Fehlerkorrektunnodell und Geldmarktstze

Seit Einfhrung des Euro ist der EURIBOR (Euro Interbank Offered Rate) der Zinssatz, zu
dem sich Gesch.ftsbanken im Eurosystem gegenseitig Geld leihen. Vorher war der fOr
Deutschland relevante Zins der FIBOR (Frankfurt Interbank Offered Rate). Die verknpften
3- (X) und 6-Monatsgeldmarktzinsen (Y) aus dem Datenbestand der Deutschen Bundesbank sind fOr den zeitraum von Juli 1990 bis April 2009 In folgender Abbildung zu sehen:
'~,-,,-------------------,
~
~
~
~

"Lr~m~M~~.""~.C>oo'-~ooC>oo~"oo"ood
3Mb

...... ,. ---Irm

...

4. Verletzungen der Annahmen des klassischen Regressionsmodells

609

Aus der volkswirtschaftlichen Theorie und auch aufgrund des Verlaufs beider Zinsen wOrden wir erwarten, dass eine langfristige Beziehung zwischen den beiden Zinsstzen besteht (diese also kointegriert sind), da andernfalls Arbitrageure die Diskrepanz zwischen
den beiden Zinsstzen ausnutzen wrden. Entsprechende Tests ergeben, dass beide Zeitreihen 1(1) und in der Tat kointegriert sind. Diese mge der Leser selbst nachvollziehen.
Die Schtzung eines Fehlerkorrekturmodells liefert nun folgendes Ergebnis. D( ... ) ist dabei
wieder die EViews-Befehlssymbolik fr erste Differenzen und E(-I) ist der verzgerte Fehlerkorrekturterm, der aus den Residuen der Langfristbeziehung, d.h. der Regression der 6
auf die 3-Monatsgeldmarktzinsen, gewonnen wurde.
Dependent Variable: DM
Method: Least Squares
C
D(X)
E(-I)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson slat

Sampie (adjusted): 1990M08 2009M04


Included observations: 225 after adjustments
Coefficient
Std. Error
t-Statistic
Prob.
0.9471
-0.000235
0.003538
-0.066448
0.998382
0.020120
49.62053
0.0000
-0.101382
0.030066
-3.371935
0.0009
-0.030533
0.928136
Mean dependent var
0.927488
S.D.dependentvar
0.194185
-3.050778
0.052290
Akaike info criterion
0.607003
Schwarz criterion
-3.005230
F-statistic
346.2125
1433.581
1.583538
Prob(F-statistic)
0.000000

Wie wir sehen, ist der geschtzte Koeffizient des Fehlerkorrekturterms negativ und signifikant. Der Wert von -{),1 014 bedeutet, dass 10,14 % der im vorhergehenden Monat aufgetretenen Abweichung der Zinsstze vom langfristigen Gleichgewicht im aktuellen Monat
eliminiert wird. Wenn also der 6-Monats-Geldmarktsatz im letzten Monat hher als apriori
erwartet ber dem 3-Monats-Geldmarktsatz lag, wird der 6-Monats-Geldmark1satz im Folgemonat um 0,1014 Prozentpunkte sinken, um die langfristige Beziehung zwischen den
Zinsstzen wieder herzustellen. Darber hinaus werden kurzfristige nderungen des 3Monats-Satzes schnell durch den 6-Monats-Satz reflektiert, da der Steigungskoeffizient
zwischen ihnen bei 0,9984 liegt. Dies ist bei der Effizienz moderner Kapitalmrkte allerdings kein verwunderliches Resultat.
4.7.2.7

Zusammenfassung

Wird ein Regressionsmodell mit Zeitreihendaten geschtzt, sind vor Interpretation


der Ergebnisse bzw. Tests auf eine Verletzung der Annahmen des CLRM die
folgenden fnf Schritte zu beachten:
1. Alle Variablen sind mittels des Dickey-Fuller-Tests oder des ADF-Tests auf
Stationaritt zu prfen.
2. Sind alle Variablen stationr, knnen wir das Modell schtzen.
3. Sind alle Variablen nicht-stationr, sind die Residuen der Kointegrationsregression mittels des Dickey-Fuller-Tests oder des ADF-Tests (mit kritischen EngleGranger-Werten und ohne Konstante in der Testgleichung) auf Stationaritt zu
prfen. Der Hinweis auf Stationaritt belegt Kointegration.
4. Sind die nicht-stationren Variablen kointegriert, kann ein Fehlerkorrekturmodell geschtzt werden.
5. Bei fehlender Kointegration sollte das Modell in ersten Differenzen geschtzt
werden, da diese in der Regel stationr sind. Sollte dies nicht der Fall sein,
sind hhere Differenzen zu verwenden.

610

IV Einfijhrung in die Okonomelrie

4.8 Modelle tr die Volatilitt


Bei der Analyse von Querschnittsdaten wird hufig Heteroskedastizitt bercksichtigt, wohingegen Zeitreihen gewhnlich im Kontext homoskedastischer Prozesse
untersucht werden. Engle (1982, 1983) fand Hinweise, dass fr bestimmte Zeitreihen die Varianz des Strtenns nicht so stabil ist, wie es oftmals angenommen
wurde. Insbesondere zeigte er in seinen Studien zu Inflationsprozessen, dass die

Varianz von Prognosefehlem von der Gre des vorhergehenden Strterms abhngt. Er schlug das Modell zeitabhngiger bedingter Heteroskedastie (autoregressive conditional heteroscedasticity model, ARen-Modell) als eine Alternative zu
gewhnlichen Zeitreihenregressionsmodellen vor. Dabei weist der Ausdruck autoregressiv bedingte Heteroskedastizitt darauf hin, dass die bedingte Varianz der zuflligen Strterme von den realisierten Zufallsfehlem der Vorperioden abhngig ist.
Heute werden ARCH-Modelle und ihre Weiterentwicklungen vor allem auf dem
Gebiet der Finanzmrkte zur Analyse der Volatilittsprozesse eingesetzt. Zeitreihen
von Finanzmrkten weisen nmlich hufig Eigenschaften auf, die Modelle mit
dynamischer Varianz gut abbilden knnen. Gerade deshalb basieren die in diesem
Abschnitt verwendeten empirischen Beispiele alle auf Finanzmarktdaten.
Die Schtzungen dieses Abschnittes werden wir abweichend von der Vorgehensweise im Rest des Buches mit Hilfe von STaTa durchfhren, da dieses Programm in
der Finanzmarktpraxis insbesondere bei der Analyse von Volatilitten sehr beliebt
ist und in diesem Bereich gegenber EViews gewisse Vorzge aufweist. Die Scht-

zung unserer Modelle stellt jedoch auch in EV/ews kein Problem dar, da dafr im
Programm schlicht unter Quick / Estimate Equation / Specification die "Method"
auf IIARCH Autoregressive Conditional Heteroscedasticity" umgestellt werden muss.
Im Anschluss knnen dann einfach die Art von ARCH-Modell und die Variablen

des Modells spezifiziert werden.

4.8.1

Volatilittseigenschaften von Finanzmarktdaten

Finanzmarktdaten besitzen Charakteristika, die wir mit den bisher behandelten


konometrischen Modellen nicht hinreichend abbilden knnen. Viele theoretische
und empirische Forschungsarbeiten beschftigen sich mit der Modellierung und
Prognose der Volatilitt (Standardabweichung von Renditen, vgl. Abschnitt I
2.2.2.4) auf Finanzmrkten. Dafr gibt es gute Grnde: Die Volatilitt ist eines der
wichtigsten Konzepte in der gesamten Finanzwirtschaft. Sie wird z. B. als Kennzahl
fr das Gesamtrisiko eines Wertpapiers oder Portfolios verwendet. Value-at-RiskModelle bentigen als wichtigen Inputfaktor Volatilittsprognosen. Zudem ist die
Volatilitt von Aktien eine der wesentlichen Preisdeterminanten ihrer Optionen
(vgl. z. B. Auer/Seitz, 2013, Kapitel IV 2.5).
Abbildung IV 29 zeigt die Entwicklungen der stetigen Tagesrenditen zweier Indizes
fr den deutschen (DAX) und den amerikanischen (S&P 500) Aktienmarkt, des
Euro-Dollar-Wechselkurses und des Goldpreises fr den Zeitraum vom 2. Januar
2007 bis zum 30. April 2013. Die stetigen Renditen werden in Prozent als logarithmische Differenz der Kurse (Onp, - lnp,_,) . 100) berechnet (vgl. dazu Abschnitt I
2.2.1.5). Wie zu erkennen ist, fluktuieren die hier berechneten Renditen stark um

4. Verletzungen der Annahmen des klassischen Regressionsmodells

611

null. l11 Dabei gibt es Perioden, in denen absolut groe nderungen wiederum
starken Schwankungen folgen und Phasen in denen eher schwache Schwankungen
der Renditen gehuft auftreten. Wir sprechen in diesen Fllen von zeitlich varuerender volatilitt. Betrachten wir beispielweise in Abbildung IV 29 den DAX und
den S&P 500, dann stellen wir fest, dass der Herbst 2008 eine Phase sehr hoher Volatilitt war, wogegen Anfang des Jahres 2007 die Renditeausschlge relativ gering
waren. Aufgeregte Marktphasen mit starken Ausschlgen wechseln sich mit eher
ruhigen Perioden ab. Man spricht deswegen auch davon, dass die Volatilitt in
Clustern auftritt (engI. Volatllity Cluster:lng). Dabei zeigt sich auch, dass die
Schwankungen nicht dauerhaft zu- oder abnehmen. Die Volatilitt wird nach sehr
turbulenten Phasen langfristig nicht inuner grer, sondern klingt, wenn auch nur
langsam, wieder auf das Ausgangsniveau ab. Die Volatilitt explodiert nicht, sondern kelut zu ihrem langfristigen Mittelwert zurck (engl. Mean R.evcrt:in&).

S&P500

DA)(

"

"

" 200'

"'"

...

"

2010 2011

2012 2013

"".

2008 2009 2010 2011

'~2

2013

2~2

2013

Dollar

" 200'

" 2007

"'" "'"

2010 2011

2012 2013

2007 2008 20011 2010 2011

Abbildung IV 29: Tagesrenditen mit Volatility Clustering


In Abbildung IV 30 Ca) ist das Autokorrelogramm der DAX-Renditen wiedergege-

ben. Dabei werden die geschtzten Autokorrelationskoeffizienten verschiedener


Ordnung und ein 95 % Konfidenzband dargestellt. Liegt der Autokorrelationskoeffizient einer bestinunten Ordnung auerhalb des Konfidenzbands, so weist das bei
einem Signifikanzniveau von 5 % auf eine von null verschiedene signifikante Autokorrelation der entsprechenden Ordnung hin (zum zugehrigen Signiflkanztest vgl.
Abschnitt IV 4.7.2.5). Wie der Abbildung zu entnehmen ist, weisen die Renditen
111 Das arithmetische Mittel der Renditen betrgt in dem Zeitraum beispielsweise fr den
DAX 0,00011 (- 0,011%) und den S&P 500 0,00007 (- 0,007%).

IV ElnfOhrung In die Okonometrle

612

keine relevante Autokorrelationsstruktur auf. Deshalb ist es in der Praxis auch


kawn mglich, durch Beobachtung vergangener Renditen die zuknftige Renditeentwicklung zu prognostizieren.
In Abbildung N 30 (b) ist dagegen das Autokorrelogramm fr die quadrierten Renditen des DAX wiedergegeben. Man erkennt, dass die Autokorrelationskoeffizienten viel grer und hufiger signifikant sind. Hier zeigt sich also ganz klar eine
zeitliche Abhngigkeit. Da bei der Berechnung von Varianzen quadrierte Werte
verwendet werden, knnen Vananzen und damit auch die volatilitt mittels vergangener Beobachtungen zum Teil prognostiziert werden. Die Varianz ist nicht
mehr konstant, sondern bedingt (gegeben den Informationen ber vergangene
Kursrealisatlonen) heteroskedastisch und damit zumindest teilweise prognostizierbar. Die klassische Regressions- und Zeitreihenanalyse unterstellen hingegen eine
im Zeitablauf konstante Varianz der Zufallsfehler und kann somit dieses Phnomen

nicht adquat abbilden.

Q.

a)

AuIokorrellllon DAX-Rerdten

J j j 11.' 1j j , 1111 J Ij j 1! ! 1 ., . , .. I .. i.

g
0

~
0

----

,
b)

"

"

'"

.,

.,

AutDkorrelation qu.c!r""" DAX-R..,dft..,

~
~

0
0

;;;
~
0

;;

-_..,

11111111
"

"

'"

.,

.,

Abbildung IV 30: Autokorrelogranune von DAX-Renditen


Die zeitlich variierende Volatllitt ist zudem nicht mit der Annahme nonnalverteilter
Renditen vereinbar. In der nachfolgenden Tabelle sind Schiefe und Wlbung der
Renditen der vier Wertpapiere aus Abbildung IV 29 wiedergegeben. Waren die
Renditen nonnalverteUt, so msste die Wlbung jeweils ungefhr 3 betragen, was
hier eindeutig nicht der Fall ist. Bei Verteilungen mit hoher Wlbung kommen
extreme Kursbewegungen hufiger als bei einer Nonnalverteilung der Renditen
vor. Man spricht bei Finanzmarktdaten von Verteilungen mit fetten Rndern (eng!.
fat talIs). Auf Finanzmrkten beobachten wir vermehrt Verteilungen mit fetten

4. Verletzungen der Annahmen des klassischen Regressionsmodells

613

Enden und relativ spitzen Gipfeln der Hufigkeitsverteilung. Weisen Verteilungen


diese beiden Eigenschaften auf, so spricht man von Leptolrurtosis.
Mittelwert

Stand.abw.

Schiefe

Wlbung

DAX

0,011

0,101

8,784

S&P 500

0,007

1,591
1,522

-0,281

11,075

Gold

0,052

1,241

-0,312

9,868

Dollar

0,001

0,689

-0,159

6,289

Als weitere Eigenschaft von Finanzmarktdaten hat man hufig den sog. Leverage-

Effekt (eng!. lever = Hebel) beobachtet: Am Aktienmarkt gehen starke Kursrck-

gnge hufig mit einem groen Anstieg der volatilitt einher, wogegen starke
Kursanstiege nicht mit einem hnlich groen Anstieg der Volatilitt verbunden sind.
Phasen starker Kurseinbrche sind also auch Phasen besonders hoher Volatilitt.
Man spricht auch vom asymmetrischen Verhalten der volatilitt. Dies fhrt Zu einer
negativen Korrelation der bedingten Varianz mit den vergangenen Renditen. Die
Begrndung dafr wird darin gesehen, dass bei sinkendem Unternehmenswert
(Rckgang der Aktienkurse) der prozentuale Anteil des Eigenkapitals fllt und damit der Anteil des Fremdkapitals (Verschuldung) steigt. Eine hhere Verschuldung
erhht wiederum das Risiko.
Zusammenfassend weisen also insbesondere Finanzmarktdaten Eigenschaften auf,
die Renditezeitreihen von anderen Zeitreihen unterscheiden. Diese stilisierten
Fakten (vg!. dazu auch Campbell, 2003) wurden in zahlreichen empirischen Untersuchungen nachgewiesen und sind im berblick folgende:
1.

Renditezeitreihen weisen nur eine geringe Autokorrelation auf.

2.

Quadrate von Renditezeitreihen sind dagegen stark seriell korreliert. Es liegt


also bedingte Heteroskedastizitt vor (Volatility Clustering).

3.

Die Volatilitt hat die Tendenz zu ihrem langfristigen Mittelwert zurckzukehren (Mean Reverting).

4.

Renditezeitreihen sind leptokurtisch.

5.

Hufig gibt es bei Volatilittsprozessen einen Leverage-Effekt.

Aufgrund dieser besonderen Zeitreiheneigenschaften von Finanzmarktdaten bedatf


es spezieller konometrischer Modelle, die die Volatilittsprozesse geeignet modellieren knnen.

4.8.2

Historische Volatilitt und gleitende Durchschnitte

Die einfachste Methode zur Schtzung der Volatilitt ist die historische Schtzung.
Die historische Volatilltt wird dabei mit der Stichprobenstandardabweichung
der n stetigen Renditen r;' geschtzt (vg!. Abschnitt I 2.2.2.4):
(IV 4: 144)

614

IV Einfijhrung in die Okonomelrie

Bei Tagesdaten oder anderen hochfrequenten Daten verwendet man in der Praxis
fr das arithmetische Mittel der Renditen oft den Wert null, da der Erwartungswert
von Tagesrenditen sehr nahe bei null liegen muss. 112 Zudem wird meistens die
annuallsierte Volatilltt 0p. angegeben: 0p. = 0,., T. . . 250''', wobei 250 fr die
Anzahl der Handelstage whrend eines Jahres steht.
Der groe Nachteil der Stichprobenstandardabweichung ist ihre Konstanz. Sie kann
somit die zeitlich variierende volatilitt nicht abbilden. Eine mgliche Abhilfe wre
eine gleitende Schtzung durchzufhren. Dabei wird ein Fenster von z. B. 30 oder
250 Tagen verwendet, das mit den ersten 30 Beobachtungen beginnt und sich dann
jeweils um eine Beobachtung nach vorne bis zum Ende des Datensatzes verschiebt.
Im ersten Schritt wird dabei mit den 30 ltesten Beobachtungen die historische
Volatilitt ermittelt. Die arn 30. Tag ermittelte Schtzung der Volatiltt wird dann
auch als Schtzung der Volatilitt fr den 31. Tag verwendet. Der nchste Schritt
beriicksichtigt bei der Schtzung die Beobachtungen des zweiten bis einschlielich
31. Tages und berechnet damit erneut eine Schtzung der Volatiltt und so weiter.
Die Anzahl der Tage (30 in unserem Beispiel) wird dabei aber vollkommen willkrlich festgelegt. Je mehr Werte in die Berechnung eingehen, desto glatter verluft
die geschtzte Volatilitt im Zeitverlauf. Folglich sind gleitende Volatilitten auch
suboptimal, da sie nur einen Teil der Stichprobeninfonnation ausnutzen knnen.
Ein weiterer Nachteil ist, dass bei der Berechnung der Stichprobenstandardabweichung alle Beobachtungen mit dem gleichen Gewicht eingehen. Jngere Informationen erhalten ebenso wie ltere Informationen das Gewicht 1/(n-l). Deshalb
wird diese Methode auch einfacher gleitender Durchschnitt (eng!. Simple Moving
Average, SMA) genannt. Das Volatility Clustering legt aber nahe, dass Beobachtungen der jngeren Vergangenheit ein hheres Gewicht haben sollten als weiter
zurckliegende Realisationen.
Der exponentiell gewichtete gleitende Durchschnitt (eng!. Exponentlally Welghted
Moving Average, EWMA) hebt diese Schwche auf und berechnet sich wie folgt:

0;.,

(1- A) LAie;_1 mit A E ]0,1[


1=0

(IV 4: 145)

(1-)(e: + ~,,1e;_l+ ~}e;_2+ A,3e;_3 + .. .)

Die Ausdrcke 1, A', A , A3 , ... nehmen dabei exponentiell ab, da A zwischen 0 und
1 liegt. Jngere Beobachtungen erhalten ein hheres Gewicht als weiter zurckliegende Beobachtungen. Die Summe dieser unendlichen Folge wrde 1/(1-A}
betragen. Damit die Summe der Gewichte 1 betrgt, werden obige Ausdrcke mit
(1-A) multipliziert und man erhlt in Gleichung (IV 4: 145) die Gewichte (1-A)l,
(1-A)A ' , (1-A)A2 , (1-A)A3, ...
Schreiben wir (IV 4: 145) fr die Periode t und multiplizieren beide Seiten mit A, so
erhalten wir zunchst folgendes Ergebnis:

0;

Aa;

= (1- A)(e;_1

+ A' e;_, + A'e;_, + ...)

= (1- A)(Ae;_1

+ A'e;_, + A'e;_, + ...)

(IV 4: 146)
(IV 4: 147)

112 Die einzelnen Realisationen der Tagesrenditen mssen nicht nahe bei Null liegen, aber
ihr arithmetisches Mittel liegt im Allgemeinen sehr nahe bei Null (vgl. z. B. Funote 111).

615

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Da die rechten Seiten von (IV 4: 145) und (IV 4: 1(7) bis auf e~ identisch sind, erhalten wir durch Einsetzen der linken Seite von (IV 4: 147) in (IV 4: 1(5)
a:+l=(l-)."X+~.

Diese Darstellung wird auch als Update- oder Rekursionsformel bezeichnet und
erleichtert enorm die Berechnung der geschtzten Varianz fr die nchste Periode.
Die Prognose fr die nchste Periode ist zugleich die Prognose fr alle zuknftigen
Perioden. Zur Schtzung der Varianz fr den nchsten Tag bentigt man nur den
aktuellen Schtzwert der Varianz und die aktuelle quadrierte Rendite, da das arithmetische Mittel der Rendite annahmegem null ist. Wenn ein neuer Wert der Rendite beobachtet wird, berechnet man also einfach die quadrierte Rendite und verwendet sie zustzlich zur aktuellen Schtzung der Varianz in der Relrursionsformel
(IV 4: 1(8) zur Aktualisierung der geschtzten Varianz. In der aktuellen Schtzung
der Varianz sind dabei smdiche Informationen ber die vergangenen quadrierten
Renditen enthalten Cvgl. Gleichung (IV 4: 1(6)). Diese Informationen bekommen
insgesamt das Gewicht).. Je kleiner also). ist, desto grer ist das Gewicht, das
der neuesten Realisation der quadrierten Renditen zugewiesen wird. Neuere Marktdaten werden strker gewichtet als weiter zurckliegende. Die EWMA-Methode ist
deshalb vom Ansatz her so konzipiert, dass sie nderungen der volatilitt prinzipiell erfassen kann.
Was muss bei der praktischen Arbeit noch bercksichtigt werden? Zunchst stellt
sich die Frage, wie gro man nun ). whlen sollte. RiskMetrfcs - eine Tochter der
amerikanischen Investmentbank: J.P. Morgan, die seit den 90er Jahren Risikokontrollsysteme fr Finanzuntemehmen entwickelt und vertreibt - verwendet). - 0,94
fr die Schtzung der tglichen Volatilitt (vgl. z. B. Engle, 2002a). Je grer). ist,
desto glatter verluft die geschtzte Volatilitt im Zeitverlauf. Des Weiteren bentigt
man fr die Anwendung der Relrursionsformel (IV 4: 148) noch einen Startwert fr
~. Viele Programme verwenden dafr die ersten I Beobachtungen, wobei I in der
Regel relativ klein, manchmal sogar nur 1 ist.

Beispiel IV 4-39

EWMA und DAX-Renditen

Wir wollen nun die EWMA-Methode auf die Tagesrenditen des DAX vom 02.01.2007 bis
30.04.2013 anwenden. Wir setzen). = 0,94 und verwenden die ersten 30 Beobachtungen
zur Bestimmung des Startwerts
Um Ergebnisverzerrungen zu vermeiden, nehmen wir,
wie bei Arbeit mit Tagesrenditen ublich, eine Nullrenditenbereinigung vor. Dies bedeutet,
dass wir Nullrenditen, die z. B. auf handelsfreie Tage entfallen, aus der Zeitreihe entfernen.
Diese bereinigte Renditereihe ist dann Grundlage des Rechenbeispiels und auch aller weiteren Schtzungen dieses Abschnitts.

a:.

Wir nutzen die folgenden STaTa-Befehle zur Berechnung des EWMA:

tssmooth 8Xponentia/ewmB '" dBJC2, sampO(30) parms(O.06)

gen volewma - sqrt(ewma) * sqrt(250)


tsJine VOlSwmB
Mit dem Befehl tssmooth exponentiaJ wird ffir die quadrierte Rendite des DAX (Variablenname dax_21 der exponentiell gewichtete gleitende Durchschnitt berechnet und in der neu
generierten Variable Kllewma abgespeichert Da STaTa die Rollen von . und 1-). vertauscht, geben wir als Option parms(O.06) an, um ). '" 0,94 zu erreichen. Die Option

Q.

616

IV EinfUhrung in die Okonometrie

sampO(30) fUhrt dazu, dass die ersten 30 Beobachtungen zur Berechnung von cr~ verwendet werden. Der zweite Befehl generiert (gen) die neue Variable voLewma, indem er
von der prognostizierten Varianz ewma mit der Funktion sqrt die Standardabweichung berechnet und diese mit der Wurzel aus 250 (sqrt(250)) multipliziert, um die annualisierte
Volatilitt zu erhalten. Der Befehl tsline erstellt dann die Abbildung der Variable voLewma.
DAX-Volatilitt nach EWMA-Methode

o ~----~--~----~-----r----~----~~
2007
2008
2008
2010
2011
2012
2013

In der Grafik sind deutlich die Volatilittsspitzen whrend der jngsten Finanzkrise zu erkennen. Die VolatiliUl.tsprognose fr den 2. Mai 2013 (t+ 1, da der 1. Mai ein Feiertag ist)
und alle weiteren Tage ergibt 17,46%.

Der schwerwiegende Nachteil der EWMA-Methode ist, dass die Prognose fr den
nchsten Tag bis in alle Zukunft konstant bleibt. Befinden wir uns momentan in
einer ruhigen (unruhigen) Marktphase, so wird fr alle Zukunft eine niedrige
(hohe) Volatilitt prognostiziert. Die EWMA-Methode kann also das Mean Reverting
Verhalten der Volatilitt nicht abbilden. Hypothesen ber die zeitliche Abhngigkeit
der Volatilitt knnen mit diesem Ansatz auf Grund seines deskriptiven Charakters
ebenso wenig wie mit dem SMA-Ansatz getestet werden. Diese beiden Schwchen
knnen ARCH-Modelle und ihre Verallgemeinerungen prinzipiell beheben.

4.8_3

ARCH- und GARCH-Modelle

ARCH-Modelle (autoregressive conditional heteroscedasticity models) dienen, wie


bereits angesprochen, der Aufhebung der Annahme konstanter Strtermvarianzen
in Zeitreihenregressionen. Sie sind Thema dieses Abschnittes. Darber hinaus behandeln wir eine in Forschung und Praxis bedeutende Verallgemeinerung dieser
Modellklasse, die sog. GAReH-Modelle (generalised autoregressive conditional
heteroscedasticity models).
4.8.3.1

Grundlagen des AReH-Modells

Betrachten wir zum leichteren Verstndnis zunchst noch einmal das uns bekannte
klassische Regressionsmodell

y, =/3, +/3,X,., +/3,X,., +... +E,

mit

E,

-N(O,cr').

(IV 4: 149)

4. Verletzungen der Annahmen des klassischen Regressionsmodells

617

In unserem Finanzmarktkontext stellt die endogene Variable Y die Rendite eines


beliebigen Wertpapiers dar. Da Renditen kaum prognostizierbar sind, modellieren
wir im Folgenden die bedingte Mittelwertgleichung113 einfach als zufallige Schwankungen um einen konstanten Mittelwert:

Y,

=110 + E,

mit

(IV 4: 150)

E, - N(O,a')

Da die Mittelwertgleichung keine Einflussfaktoren enthlt, stellt 11, hier sowohl den
bedingten als auch unbedingten Mittelwert der endogenen Variablen dar. Diese
Annahme werden wir auch bei den im Folgenden behandelten Modellen aufrechterhalten. Sie stellt keine wesentliche Einschrnkung fr unsere Vorgehensweise dar
und kann bei Bedarf ohne Probleme wie in Gleichung (N 4: 149) leicht aufgehoben werden.
In den klassischen Regressionsmodellen wird die Varianz der Schocks immer als
konstant unterstellt. Fr Engle (1982) war der Ausgangspunkt seiner Arbeiten die
ModelIierung der Varianz des Strterms. Die grundlegende Idee von ARCHModellen und ihrer Verallgemeinerungen besteht darin, die Varianzen und Volatilitten Zu verschiedenen Zeitpunkten nicht als konstant oder unabhngig voneinander zu betrachten. Das ARCH-Modell macht die bedingte Varianz von der Gre
der vetgangenen Schocks abhngig. Wir erhalten folgende Darstellung fr das
ARCH-Modell erster Ordnung, kurz ARCH(l)-Modell:
E,

er,

Y, =110 +E,

(N 4: 151a)

IIH

(N 4: 151b)

N(O,O":)

= ao + a,E:_,
(N 4: 151c)
An der Gleichung (N 4: 151a) fr den bedingten Mittelwert (eng!. Mean Equation)
ndert sich nichts, wogegen jetzt die bedingte Varianz nicht mehr als konstant unterstellt wird, sondern in Gleichung (N 4: 151c) vom quadrierten Strterm der Vorperiode abhngt (eng!. Variance Equation). Die Varianz der Periode t bedingt sich
also aus der Realisierung des vorherigen Strterms. Ist in der Vorperiode der
Schock gro gewesen, so erhht dies die Varianz in der Periode t. Da der verzgerte Strterm in quadrierter Form bercksichtigt wird, spielt es keine Rolle, ob er negativ oder positiv war. Man spricht von autoregressiv bedingter Heteroskedastie, da
der Strterm der Vorperiode (autoregressiv) die Varianz der Periode t verndert
(Heteroskedastie). Gleichung (IV 4: 151b) bringt Zum Ausdruck, dass die Strgre
gegeben den Informationen zum Zeitpunkt t-l normalverteilt ist. Die hier relevante
Wir nehmen also an, dass die mit der InformaInformation der Periode t-l ist
tion ber die Varianz (Gleichung (N 4: 151c)) bedingte Wahrscheinlichkeitsverteilung der Strterme normalverteilt ist.
In der Literatur wird die bedingte Varianz meist nicht mit
sondern mit h, bezeichnet. 114 Das ARCH(1)-Modell wird hufig folgendermaen beschrieben: 115

E:_,.

0":,

113 Gleichung (N 4: 149) beschreibt, wie die endogene Variable ber die Zeit variiert.

114 Damit knnen wir

cl spter fr die unbedingte Varianz verwenden.

115 Manchmal wird das ARCH-Modell auch in der folgenden multiplikativen Form prsentiert.
E, = z,,Jh,, z, - N(O, 1) , wobei sich die Gleichungen (N 4: 152a) und (N 4: 152c) nicht

ndern. Damit ist der standardisierte Strtenn Et /


standardnonnalverteilt. In Aufgabe
ARCHl zeigen Sie, dass sich dadurch die Eigenschaften von Et nicht ndern.

618

IV Einfijhrung in die Okonomelrie

Y,=o+E,

E, II H

N(O,h,)

(IV4: 152a)
(IV4: 152b)

(IV4: 152c)
h, = IXo + IX,E;_,
Handelt es sich bei der endogenen Variablen um Tagesrenditen, so ist o (unbedingter Mittelwert der Renditen) annhernd null und die E, entsprechen praktisch
den Renditen. Das Modell geht also davon aus, dass die Realisierung einer absolut

sehr groen Rendite (negativ oder positiv) in Periode t-l die Varianz des Prozesses
in der Periode t erhht. Damit steigt die Wahrscheinlichkeit, dass sich in der Perio-

de t wiederum eine absolut groe Rendite ergibt, womit wiederum fr die Periode

t+ 1 eine groe Varianz prognostiziert wird und so weiter. ARCH Modelle sind deshalb in der Lage das Volatility Clustering abzubilden.

Gegeben den Infonnationen aus der Periode t-1 werden die Strtenne als nonnalverteilt unterstellt und betragen der Erwartungswert und die Varianz der Strterme
null bzw. h,. Wir erhalten eine standardisierte Zufallsgre, indem wir von der ursprnglichen Zufallsvariable ihren Erwartungswert abziehen (hier Null) und den
Ausdruck durch die Standardabweichung dividieren (vgl. Abschnitt II 2.4.2.3). Sind
die Annahmen des ARCH(1)-Modells richtig, erhalten wir den normalverteilten
standardisierten Strterm

E,I.Jh, - N(O,1) .

(IV4: 153)

Hiermit ist es prinzipiell mglich, die Spezifikation des Modells zu berprfen (vgl.
Abschnitt IV 4.8.3.4). Bei Tagesrenditen und damit sehr kleinem..], sollte auch fr
die standardisierten Tagesrenditen annhernd gelten, dass y,l.Jh, - N(O,1). Engle
(1982) und Milh0j (1985) haben gezeigt, dass beim ARCH-Modell die Wlbung der
Strterme grer als drei ist. Deshalb gilt fr die unbedingte Verteilung im Gegensatz zur bedingten, dass weder die Tagesrenditen noch die Strterme selbst normalverteilt sind. Damit knnen ARCH-Modelle prinzipiell auch leptokurtische Renditeverteilungen abbilden (zur Leptokurtosis vgl. Abschnitt IV 4.8.1).
Das ARCH(1)-Modell kann leicht erweitert werden. So kann die bedingte Varianz
nicht nur von der um eine Periode verzgerten Realisation, sondern auch von weiter zurckliegenden quadrierten Strtennen abhngen. Wir erhalten beispielsweise
das ARCH(2)-Modell durch

h t = (10 + alE~_l + (l2E :_2


und ganz allgemein das ARCH(q)-Modell durch

(IV4: 154)

h t = (10 + (llE:_1 + (l2E:_2 + ... + aqE:--q .


(N4: 155)
Im letzteren Fall hngt die Varianz in einer bestimmten Periode also von den Ausprgungen der quadrierten Strterme in den vergangenen q Perioden ab.
4.8.3.2

Nichtnegativitt, unbedingte Varianz und Siationaritt

Da h, die bedingte Varianz darstellt, muss ihr Wert stets positiv sein. Eine negative
Varianz ist nicht mglich. Die Variablen der rechten Seite von (IV4: 155) tauchen
alle in quadrierter Form auf und sind deshalb immer positiv. Um nun eine positive
Varianz zu garantieren, wird gewhnlich verlangt, dass alle Koeffizienten auf der
rechten Seite von (IV4: 155) positiv sind, d. h. IXi ;" 0 fr alle i = 0,1, ... , p. Dies bezeichnen wir als die Nichtnegativittsbedingung. Sind ein oder mehrere Parameter negativ, so kann ein hinreichend groer quadrierter Schock aus einer vergange-

4. Verletzungen der Annahmen des klassischen Regressionsmodells

619

nen Periode zu einer negativen Varianz fhren. Negative Varianzen existieren aber

nicht. Beim ARCH(1)-Modell muss also sowohl Qo ~ 0 als auch Q, ~ 0 gelten. Diese Bedingungen sind hinreichend aber nicht notwendig fr eine positive bedingte
Varianz (sie sind ein klein wenig hrter als es notwendig wre). Wir berprfen
also immer nach der Schtzung eines ARCH-Modells, ob die Nichtnegativittsbedingung eingehalten wird.
Bei den ARCH-Modellen ndert sich die bedingte Varianz im Zeitablauf. Die langci', die auch unbedingte Varianz genannt wird, ndert sich dagegen nicht. Fr den Spezialfall des ARCH(l)-Modell gilt
fristige Varianz

(J

Qo

=--

(Iv4: 156)

l-a, ,

wobei Q, < 1 sein muss, damit die langfristige Varianz definiert ist und sich die
bedingte Varianz ihrem langfrisitgen Gleichgewichtswert annhert. Ist diese Bedingung nicht erfllt, spricht man auch von einem nicht stationren Varianzprozess.
Auch bei dem AR(1)-Modell aus Abschnitt IV 4.5.1 hatten wir eine ganz hnllche
Statlonarittsbedingung. Fr die Nichtstationaritt der Varianz gibt es aus theoretischer Sicht im Gegensatz zur Nichtstationaritt des Mittelwerts (z. B. des Preisniveaus) kaum gute Grnde. Zudem wrde die Prognose mit einem nichtstationren ARCH-Modell im Fall von Q, = 1 dazu fhren, dass die bedingte Varianz mit
zunehmenden Prognosehorizont nicht zur langfristigen Varianz konvergiert. Im Fall
von Q, > 1 , wrde die bedingte Varianz mit zunehmenden Prognosehorizont sogar
gegen unendlich gehen. In den beiden Fllen ist das Verhalten der bedingten Varianz nicht mit der empirischen Mittelwerttendenz der Volatilitt vereinbar.
Fr die langfristige Varianz gilt im ARCH(p)-Mode11
(Iv4: 157)

und die notwendige Stationarittsbedingung lautet

Q,

+ Q"

+ Qp < 1 . Die beding-

te Varianz ist stationr, wenn die Summe der Modellparameter ohne Konstante in
der Varianzgleichung kleiner als eins ist. Wir pIfen nach der Schtzung eines

ARCH-Modells also immer, ob die Nichtnegativittsbedingung und die Stationarittsbedingung erfllt sind.
4.8.3.3

Schtzen von und Prognose mit ARCH-ModeUen

OLS kann nicht zur Schtzung von ARCH-Modellen verwendet werden. OLS minimiert die Summe der quadrierten Residuen. Diese hngen aber nur von Parametern

der Mittelwertgleichung ab und nicht von Koeffizienten der bedingten Varianzgleichung. Deshalb ist OLS nicht im Stande ARCH-Modelle zu schtzen. Der im Rahmen der ARCH-Modelle verwendete Ansatz ist die Maximum-Likelibood-Metbode
(vgl. Abschnitt III 1.4.2). Diese beinhaltet die Schtzung der Parameter in der Art
und Weise, dass die Wahrscheinlichkeit fr das Vorliegen des beobachteten Datenmaterials maximal wird. Die Parameter werden dabei so gewhlt, dass der Wert
der Log-Likelihood-Funktion fr das gegebene Datenmaterial maximal wird. Die
genauen Details der Schtzung im Rahmen der ARCH-Modelle gehen ber den
Rahmen dieses Lehrbuches hinaus. Die Maximum-Likelihood-Methode ist aber in
der gngigen konometrischen Software, wie EViews und STaTa, programmiert.

IV ElnfOhrung In die Okonometrle

620

Q.

Beispiel IV 4-40

ARCH und DAX-Rendilen

Nun schAtzen wir fOr die Rendite des DAX (Variablenname

Modelle. Dazu verwenden wir den STaTa-Befehl arch:

dsXJ

verschiedene ARCH-

arch dax, arch(l)


arch dax, arch(I/3)
arch dax, arch(ll6)
Dabei gibt die Option arch() nach dem Komma die in der Varianzgleichung enthaltenen

Verzgerungen Oags) an. arch(1/3) ist eine Kurzschreibweise fOr BJCh(1) BJ'Gh(2) arch(3).
Die nachfolgende Tabelle enthAlt die Ergebnisse der Schtzungen. Im ersten Block der
Tabelle befinden sich die verschiedenen ModellbezeIchnungen. Der zweite Block enthlt
den Namen der endogenen Variablen (dax) und die Ergebnisse tOr die Mittelwertglaichung.
In unserem Fall wird nur der Parameter der Konstanten geschAtzt. der beim ARCH(1)Modell 0,046 betrgt. Der Erwartungswert der Rendite wird damit auf 0,046% geschtzt.
Der dritte Abschnitt gibt die Schtzungen fUr die Varianzgleichung wieder, wobei fUr das
ARCH(1 )-Modell hier gilt: ei o = 1,938 und eil = 0,262. Im letzten Abschnin sind jeweils die

Anzahl der Beobachtungen und die Werte der Log-Ukalihood-Funktion angegeben.

dax

_cons
ARCH
L.arch

(1 )
ARCH

(2)
ARCH 3

(3)
ARCH 6

0.046
(1.26)

0.091(3.18)

0.084(2.99)

0.262**
(9.84)

0.111**
(6.32)
0.330(10.07)
0.223(6.99)

1.938**
(3S.02)
1610
-2986.860

0.965**
(18.21)
1610
-2850.540

0.014
(0.76)
0.229(6.65)
0.164(5.S4)
0.166(S.73)
0.164(S.37)
0.073(3.05)
0.576(10.S4)
1610
-2785.978

L2.arch
L3.arch
l4.arch
L5.arch
L6.arch
_cons
N

"

t-Wert in Klammern, p < 0.10, ... P < 0.05


Betrachten wir nun die Schtzung fUr das ARCH(1) Modell etwas genauer. Wir priifen nach
der Schtzung eines ARCH-Modells zunAchst, ob die Nichtnegativitats- und die Slationarittsbedingung erfOlit sind. Beide sind hier erfOlIt, da
~ 0 und 0 S
< 1.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

621

a,

Der I-Wert des Koeffizienlen ersler Ordnung isl grer als 9 und damil is1
signifikant
von null verschieden. Es gibt relevante ARCH-Effekte beim bedingten Varianzprozess.
Interessieren wir uns fOr die langfristig geschtzte Volatilitt p.a., so berechnen wir zunchst die Schtzung fOr die langfristige Varianz

<i' = iio

I-ci,

1,938 = 2 626 .
1-0,262
'

Die langfristige geschtzte Volatilitt p.a. ist damit 2,626'" . 250'" = 25,62%.
Eine Prognose fr die Rendite und die Varianz am nchsten Handelstag t+ 1 (ones1epahead forecast, vgl. Abschnitt IV 6.1) erhalten wir wie folgt:

Y", =~o =0,046%


hl+1 = d o +~E~ = (Xo + a1(Yt- Yt)2
= 1,938 +0,262(0,509 -0,046)2 = 1,994

(*)
(**)

Gleichung (*) gibt die Vorhersage fr die Rendite wieder, die sowohl die bedingte als auch
unbedingte Prognose der erwarteten Rendite darstellt, da sie konstant ist. Der geschtzte
Strterm in Gleichung (**) wird berechnet, indem von der Rendite am Tag t (30. April 2013)
von 0,509% die fr diesen Tag prognostizierte Rendite von 0,046% abgezogen wird. Die
Schtzung fOr die annualisierte Volatilitt in t+ 1 betrgt damit 22,30% (= 1,994'~ . 250'~)
und ist somit geringer als ihr langfristiger Wert. In den nachfolgenden Perioden t+2, t+3, ...
wird sich die Volatilitt ihrem langfristigen Wert 25,62% annhern.
In der folgenden Grafik ist die insample Schtzung fr die bedingte Volatilitt abgetragen.
Die dafr bentigten STaTa-Befehle lauten wie folgt:

predict var_arch, variance


gen voLarch = sqrt(var_arch*250j
tsline voLarch
Der predict Befehl berechnet nach der Modellschtzung die prognostizierten Werte und
speichert sie in der neuen Variable var_arch ab. Dabei gibt die Option variance an, dass
die bedingte Varianz berechnet werden soll. Die zwei weiteren Befehle gestalten sich entsprechend der Vorgehensweise beim EWMA in Abschnitt IV 4.8.2.
DAX-VoIaIIiIIAt nach ARCH(1)

IV Einfijhrung in die konometrie

622

Vergleichen wir diese Grafik mit Abbildung IV 29, so fllt auf, dass die besonders hohen
Werte fijr die bedingte Varianz Ende 2008 mit den starken Renditenderungen in diesem
Zeitraum zusammenfallen. Insgesamt schwankt die bedingte Varianz sehr stark und abrupt. Dies ist ein allgemeines Kennzeichen eines ARCH(1 }-Modells.
Betrachten wir nun die Schtzungen fr das ARCH(3}- und ARCH(6}-Modell, so zeigt sich,
dass jeweils die Koeffizienten der weiteren ARCH-Effekte alle auf dem 5% Niveau signifikant sind. Damit ist das ARCH(1 }-Modell nicht geeignet, den Varianzprozess der DAXRendite adquat abzubilden. Die Nichtnegativitts- und die Stationarittsbedingung sind
beim geschtzten ARCH(3}- und beim geschtzten ARCH(6}-Modell erfllt. Die berprfung bleibt dem Leser uberlassen.
Interessieren wir uns fijr die langfristig geschtzte Volatilitt p.a. beim ARCH(6}-Modell, so
berechnen wir erneut zunchst die Schtzung fr die langfristige Varianz als
0,576
1-0,014-0,229 - ... -0,073

3,028.

Damit betrgt die langfristige geschtzte Volatilitt p.a. 27,62%.


In der folgenden Grafik ist die Schtzung der bedingten Volatilitt fr das ARCH(6} Modell
abgetragen. Man erkennt, dass die geschtzte Volatilitt etwas glatter als beim ARCH(I}Modell verluft.
DAX-Volatilitt nach ARCH 6)

2007

2008

2009

2010

2011

2012

2013

Bevor wir nun allerdings die Modelle in der Praxis verwenden, sollten wir, hnlich wie bei
der klassischen Regressionsanalyse, noch geeignete Spezifikationstests durchfhren. Diese sind Thema des nachfolgenden Abschnittes.

4.8.3.4

berprfen von ARCH-ModeUen

Bei der berprfung geschtzter ARCH-Modelle stellen wir uns allgemeio die
Frage, ob sie io der Lage sind, die stilisierten Fakten eioes Renditeprozesses (vgl.
Abschnitt IV 4.8.1) zu modellieren. Falls sie wesentliche Eigenschaften nicht abbilden knnen, sollten wir uns mit Modellerweiterungen beschftigen, die dazu
priozipiell besser geeignet siod.

623

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Einem ARCH-Modell liegt zunchst die Annahme zugrunde, dass die standardisierten Strterme E, /
standardnormalverteilt sind Cvgl. Abschnitt IV 4.8.3.1). Sie
haben damit einen Erwartungswert von null, eine Varianz von eins und sind nicht
autokorreHert. Sind die standardisierten Strterme autokorreliert, so bildet die Mittelwertgleichung die dynamische Struktur des bedingten Erwartungswertes nicht
korrekt ab. Da wir die schocks nicht direkt beobachten knnen, vewenden wir
ihre Schtzungen und betprfen die standardisierten Residuen ~ / Vht beispielsweise mit einem Korrelogramm oder der Ljung-Box-Q-Statistik Cvgl. Abschnitt IV
4.7.2.5) auf Autokorrelation.
Wichtiger im Zusammenhang mit dem bedingten Varianzprozess ist aber Folgendes: Einem ARCH-Modeilliegt die Annahme zugrunde, dass die Varianz im Zeitablauf variiert und von den quadrierten verzgerten Schocks abhngt. Wir haben gesehen, dass die quadrierten Renditen hochgradig autokorreliert sind. Die quadrierten ~chocks ~ sind zwar autokorreliert, die quadrierten standardisierten Residuen
h, sollten aber keinerlei Autokorrelation mehr aufweisen. W~nnen also
festhalten. . dass ein geeignetes ARCH-Modell sowohl in den e, / Vh, als auch in
den ~ / h, keinerlei Autokorrelation aufweist. Da in unseren Modellen die Mittelwertgleichung nur eine Konstante enthlt, knnen wir das entsprechend auch mit
Y, selbst betprfen. Wir wenden also die Bereinigung au,f..die Cquadri~rten) Renditen an und testen dann die resultierenden Gren y, / Vh, bzw. y~ /h, auf Autokorrelation.

Jh:

e: /

BoloplollV 4-41

OberprOfung von ARCH-Modellen

Wir 'HOllen nun die ModelladAquanz fOr das ARCH(1)-Modell und das ARCH(6)-Modell aus
dem DAX-Renditen-Beispiel IV 4-40 untersuchen. Wir bilden for diese Modelle jeweils
und 11\ . Im Anschluss konstruieren wir dafur die folgenden Autokorrelogramme:
Yj

r:

t./h:

ACItand DAXRrlbnARCH(1)

~
~

lrIIni DAX-R8rda. ARCH(1)

"

1
1
j I jI, ' jl1, , IJ

N:; ~

--,

'"""

"

,~1 111# 1 , -r,.['


" , ,
0
0

I
.,

AC Itand DAX-RrdtwI ARCH(15)

"

-~--

N:; ~. lImd. DAX-Rrda.n ARCH(

ci

1
'1 r'''! 111]11 J1
, ,
.,

---

'"""

"

.1)!]1

q
0

-~--

'"""

"

.,

IV Einfijhrung in die konometrie

624

Die geschtzten Autokorrelationskoeffizienten der standardisierten Renditen geben sowohl


fr das ARCH{I)-Modell als auch das ARCH(6)-Modell keinerlei Hinweise auf Autokorrelation. Dagegen liegen die geschtzten Autokorrelationskoeffizienten der quadrierten standardisierten Renditen fijr das ARCH{I)-Modell zum grten Teil auerhalb der 95% Konfidenzbandes. Damit weisen die quadrierten standardisierten Renditen eindeutig noch Autokorrelation auf. Das ARCH{I )-Modell ist deshalb fehlspezifiziert und sollte nicht verwendet
werden. Die Situation ist beim ARCH(6)-Modell deutlich besser, aber auch dort gibt es
zwei signifikante Autokorrelationskoeflizienten.

4.8.3.5

Das GARCH-Modell und das GARCH-in-Mean-ModeU

Die revolutionren Arbeiten von Engle 0982, 1983) verliehen der Volatilittsanalyse
von Finanzmarktdaten einen entscheidenden Impuls. Einen weiteren Meilenstein in
diesem Bereich stellt das GARCHModell von Bollerslev (986) dar.
Ein groer Nachteil bei der empirischen Anwendung von ARCH-Modellen auf
finanzwirtschaftliche Zeitreihen besteht darin, dass eine Vielzahl von Verzgerungen (q) in der Varianzgleichung (N4: 155) geschtzt werden muss. Dies fhrt hufig zu Problemen. So kann z. B. die Nichtnegativittsbedingung leicht verletzt wer
den. Zudem werden bei groem q die Koeffizienten ungenauer geschtzt.
Das GARCH-Modell ist eine Alternative zum ARCH-Modell, um lang anhaltende
Effekte mit weniger Parametern adquat modellieren zu knnen. Die Gleichung fr
die bedingte Varianz lautet fr das GARCH-Modell in seiner einfachsten Form
h, = ao + a,E;., + lI,h,., .
(Iv4: 158)
Diese Spezifikation wird auch als GARCH(l,l)-Modell bezeichnet, da es einen
ARCH-Effekt
und einen GARCHEffekt 11,., enthlt. Das GARCHModell ist eine
Verallgemeinerung des ARCHModells, da es auch die verzgerte Varianz als ErklrungsgTe enthlt. In der verzgerten Varianz sind wiederum alle weiter zurckliegenden quadrierten Strterme mit einer speziellen Gewichtung enthalten. Die
Gleichung (N4: 158) erinnert an die Rekursionsformel des EWMA-Modells. E,_, entspricht in Gleichung (N4: 148) e, und 11,-, entspricht
Dort haben wir bereits geals gewichtete Summe aller quadrierten mittelwertbezeigt, dass die Varianz
reinigten Renditen bis zum Zeitpunkt t-l aufgefasst werden kann. Hier beinhaltet
h.-, entsprechend alle E;." E;." ... in einer hnlichen Gewichtung wie beim EWMA.
Damit kann das GARCHO,l)-Modell prinzipiell mit nur drei zu schtzenden Parametern lang anhaltende Effekte in der Dynamik des Varianzprozesses abbilden.
Das GARCH-Modell kann entsprechend dem ARCH-Modell erweitert werden. So
ergibt sich z. B. das GARCH(2,2)-Modell mit

E;.,

er; .

0;

h, = ao+ a,E;., + a,E;., + lI,h,., + lI,h,.,.


(N4: 159)
Die Nlchtnegativittsbedingung verlangt hier analog zum ARCH-Modell, dass
a, :<: 0 fr alle i = 0,1,2 und II j :<: 0 fr alle j = 1,2. Im GARCH(2,2)Modell gilt fr
die langfristige Varianz

ci'

ao

1-(a, +a, +11, +11,)

(IV4: 160)

und die Stationarittsbedingung lautet entsprechend a, + a, + 11, + 11, < 1. Andernfalls wrde kein langfristiger Gleichgewichtswert fr die Varianz existieren,

4. Verletzungen der Annahmen des klassischen Regressionsmodells

625

dem sich die bedingte Varianz annhern kann. Analoges gilt fr ein allgemeines
GARCH(p,q)-Modell mit P ARGH-Tennen und q GAReH-Tennen.
In der Praxis hat sich erwiesen, dass hufig eine einfache GARCH(1,l)-Spezifikation
ausreichend ist, um die Dynamik der bedingten Varianz abbilden zu knnen.
GARGH-Modelle hherer Ordnung werden selten geschtzt (vgL z. B. Hamen und
Lunde, 2005) oder fr Prognosen velWendet. Beim Schtzen und berprfen des
GARGH-Modells velWenden wir die gleichen Methoden und Tests wie bisher beim
ARGH-Modell.

Bal.plellV 4-42

GARCH und DAX-Renditen

In Beispiel IV 4-40 hatten wir fUr die Tagesrenditen des DAX diverse ARCH-Modelle geschtzt, rur die wir in Beispiel IV 4-41 Hinweise auf Modellfehlspezifikation erhielten. Wir
schAtzen daher nun ein alternatives Modell, das GARCH(1,1)-Modell. Dazu verwenden wir
den folgenden STaTa-Befehl, bei dem die Optionen nach dem Komma die jeweiligen
ARCH- und GARCH-Effekte angeben:
"reh dax, "rch(1) gaJCh(1)
Die nachfolgende Tabelle enthlt die Ergebnisse der Schtzung. Die ersten beiden Blcke
haben den gleichen Aufbau wie beim ARCH-Modell. Der dritte Abschnitt gibt die Schtzungen fUr die Varianzgleichung wieder, wobei fUr das GARCH(1,1)-Modell hier gilt:
Ii, = 0,043, Ii, = 0,099 und ii, = 0,884.

dax

_cons

ARCH

L.arch
L.garch

_cons
N
U

GARCH

11

0.078
(2.83)
0.099"
(8.33)
0.884**
(65.27)
0.043**
(4.77)
1610
2774.790

t-Wert in Klammern, * p < 0.10, .... P < 0.05


Betrachten wir wiederum die Schtzung rur das GARCH(1,1)-Modell etwas genauer. Die
~ichtnegativitAts- Aund die StationaritAtsbedingung sind hier erfOllt, da Iio ~ 0, ~ ~ 0,
l ~ 0 und ~ + ~ < 1 slnp. Bel vielen FInanzmarktreihen !?&Obachten wir, ebenso wie
hier, dass die Summe eil + ~ nur knapp unter eins liegt und ~ deutlich grOer als ~ ist.
Dies zeigt eine hohe Persistenz vergangener Schocks In der bedingten Varianz an. Deshalb kehrt die VolatilitAt der Renditen nur langsam zu ihrem langfristigen Gleichgewichtswert zuruck.
Die t-Werte der Koeffizienten zeigen an, dass sowohl der ARCH- als auch der GARCHEffekt bel einem Niveau von 1% slgnlftkant von null verschieden sind. Belde t-Werte sind
deutlich grOer als 2,58.

Q.

IV Einfijhrung in die konometrie

626
Aus der Schtzung fr die langfristige Varianz

i!I =

a, _

l-a,-5,

0,043
1-0,099-0,884

2, 493

erhalten wir die langfristige geschtzte Volatilitt p.a. 2,4930~ . 2505 = 25,06%.
In der folgenden Grafik ist die Schtzung der bedingten Volatilitt fijr das GARCH(I,I)Modell abgetragen. Analog zur Vorgehensweise beim ARCH-Modell haben wir die folgenden STaTa-Befehle verwendet:
predict var-Darch, variance
gen voU/arch = sqrt(var-Darch'250)
tsline voU/arch

Wir erkennen wieder die besonders volatilen Phasen whrend der Finanz- und Staatsschuldenkrise am Ende 2008/Beginn 2009 bzw. im Frhjahr 2010 und am Ende von 2011.
DAX-VolatlillAl nach GARCH(1, 1)

0c,____,-____,-____,-__-,____-,____-,~
2007

200B

2009

2010

2011

2012

20'3

E,/,Jh,

Ein gut spezifiziertes GARCH-Modell sollte sowohl in den


als auch in den E~ Ih,
keinerlei Autokorrelation aufweisen. Dies wollen wir zur Abwechslung nicht mit einem
Autokorrelogramm sondern mit der Ljung-Box-Q-Statistik QberprUfen. Wir berechnen diese
jeweils fijr die Ordnungen 5, 10 und 20 mit dem STaTa-Befehl wntesiq. Fr Ordnung 5 benutzen wir folgenden Quelleode:
predict var-Darch, variance
generate dax_2-Dsrch = dax_2/ var-Dsrch
generate dax-Darch = sqrt(dax_2 / var....garch)
wntesiq dax_2-Darch, lags(5)
wntesiq dax-Darch, lags(5)

Dabei stellt dax_2 die Variable fr die quadrierte DAX-Rendite dar und lags(5) gibt an,
dass die Q-Statistik mit 5 geSChtzten Autokorrelationskoeffizienten berechnet werden soll.
Der erste generate Befehl generiert die quadrierten standardisierten Renditen und der
zweite damit die standardisierten Renditen.
In der folgenden bersicht sind die Q-Statistiken mit ihren entsprechenden poWerten fr
das GARCH(I,I )-Modell zusammengefasst.

627

4. Verletzungen der Annahmen des klassischen Regressionsmodells

Variable:

dax~arch

Variable:

dax 2-'1arch

LAG

Prob><)

LAG

5
10

5.1967

0.3924

0.1568

0.8220

5
10

7.9898

5.9189

10.297

0.4148

20

16.846

0.6629

20

26.952

0.1366

Prob><)

Sowohl die geschtzten Autokorrelationskoeffizienten der standardisierten Renditen (linke


Tabellenseite) als auch ihre quadrierten Werte (rechte Tabellenseite) geben keinerlei Hinweise auf Autokorrelation. GARCH-Modelle er10llen im Allgemeinen diese Anforderungen
eher als entsprechende ARCH-Modelle bei hnlich sparsamer Parametrisierung.

Wir vergleichen noch einmal den EWMA mit dem GARCH-Modell: Der HWMA kann
auch als ein speziell restringiertes GARCH(1,l)-Modell aufgefasst werden, falls die
Bedingungen a o = 0 und ~ + ~ = 1 erfllt sind. In diesem Fall ist die Stationarittsbedingung des GARCH-Modells nicht erfllt und es existiert keine langfristige
Varianz, da der Nenner in Gleichung (IV4: 160) mit a 2 = lS2 = 0 null wre. Der
EWMA weist also nicht die Eigenschaft der Mittelwerttendenz auf. Dagegen verfgt
ein stationrer GARCH(1,l).-Prozess ber diese Eigenschaft. Da die Summe t + lS,
gewhnlich knapp unter eins liegt, nhert sich die bedingte Varianz nur langsam
ihrem langfristigen Wert an.
Beispiel IV 4-43

GARCH vs. EWMA Q .

In der folgenden Grafik wird mit Hilfe des In Beispiel IV 4-42 geschatzlen GARCH(l, 1)Modells eine Volatilitatsprognose rur die nachSien 250 Tage erstellt. Dabei entspricht die
Beobachtung Nr. 1610 dem 30. Apr11 2013. Wir erkennen, wie sich die prognosUzlerte
Volatilitat langsam ihrem langfristigen Wert von 25% annhert. Beim EWMA wUrde dagegen die Varianz auf dem rur die 1611. Beobachtung prognostizierten Wert verharren und in
der Grafik die out-of-sample Prognose (vgl. Abschnitt IV 6.1) durch eine zur x-Achse parallel verlaufende Gerade dargestellt.

'rc-----~c-----~c-----_c~-----c~.
1mo

1~O

1~O

1~O

IV EinfOhlling in die Okonometrie

628

Enveiterung: Du GARCB-in-Mean-Modell
Der positive Zusammenhang zwischen erwarteter Rendite und dem Risiko ist ein
grundlegender Lehrsatz der Finanzmarkttheorie. Bei einem riskanteren Wertpapier
erwarten wir eine im Mittel hhere Rendite, sodass die Rendite eines Wertpapiers
als Funktion seiner Volatilitt angesehen werden kann.
In diesen berlegungen besteht die Motivation zur Ausfonnulierung sog. ARCH-inmean-Modelle CARCH-M) oder GARCH-in-mean-Modelle (GARCH-M). beme1unen
Investoren ein hheres Risiko, so erwarten sie normalerweise einen hheren Ertrag
in Form der erwarteten Rendite. Bisher haben wir mit den GARCH-Modellen die
zeitliche Struktur der bedingten Varianz erfasst, aber wir haben das Risiko in Form
der Varianz nicht in der Mittelwertgleichung bercksichtigt. Dies zu korrigieren ist
die grundlegende Idee des folgenden GARCH-:ln-mean-ModeIIs:

P. + Il,h, + E,

(IV4, 161.)

E, I 11-1- N(O,h,)

(IV4,161b)

Y, =

OV4,161c)
h, = ~ + al~_l + ~ht_l
Die Mittelwertgleichung enthlt nun den Effekt der bedingten Varianz auf die endogene Variable. Falls PI > 0 ist, erhht die bedingte Varianz die Rendite. Alternativ
wird auch folgende Spezifikation fr die Mittelwertgleichung verwendet:
Y, =~.

Q.

+P,v'i\" +E,

OV4,162)

Hier beeinflusst nicht die bedingte Varianz, sondern die bedingte Volatilitt den
Mittelwert der Rendite. Es gibt keine eindeutigen theoretischen berlegungen, die
eine Version der anderen vorzuziehen.
Beispiel IV 4-44

GARCH-M und DAX-Renditen

Wir schtzen nun beide Varianten des GARCH-M-Modells fijr die Renditen des DAX. Wir
verwenden dazu folgende STaTa-Befehle:

arch dax, arch(l) garr:h(I) archm


arch dax, arch(l) garr:h(I) .rr:hm archmexp(sqrt(X))
Der Befehl arch ist bereits bekannt, so dass wir nur noch die nderungen bezuglich der
Mlnelwertglelchung er1<lAren. Mit der Option archm \IIIrd die bedingte Varianz als Elnftussfaktor in die MiHelwertgleichung integriert. Fugt man im Quellcode zusAtziich die Option
archmexp(sqrt(X)) hinzu wird staltdessen die Standardabweichung verwendet.
In der nachfolgenden SchAtzergebnlSlabelle Ist der Einfluss des Risikos auf die endogene
Variable Im Block ARCHM \IIIedergegeben. Die t-Werte der geschAtzten Koeffizienten
betragen 1,23 bzw. 1,39. Deshalb kann kein signifikanter Einfluss der bedingten Varianz
oder der bedingten VolalilitAt auf den Erwartungswert von VI nachgewiesen werden.
Ein derartiges Resultat beobachtet man haung bel empirischen Analysen von Flnanzmarkldaten, was zunAchst Oberraschend erscheint. Allerdings spielt fr die erwartete Rendite eines Wertpapiers nicht nur die eigene Volatilitat eine Rolle, sondern auch die Kovarianz mit dem Marktportfollo. Diese ZusammenhAnge lassen sich In wesentlich komplizierteren Modellen, nmlich den multivariaten GARCH-Modellen, abbilden. Dies geht aber weit
uber den Rahmen dieses Lehrbuchs hinaus. Greene (2012, S. 973) macht auf weitere
Probleme der GARCH-in-mean-Modelle aufmerksam.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

dax
_cons
ARCHM
sigma2
sigma2ex
ARCH
L.arch
L.garch

_cons
N
11

(1 )
GARCH M

(2)
GARCH M 2

0.042
(1.00)

-0.040
(-0.45)

0.024
(1.23)

0.100**
(8.32)
0.883**
(64.57)
0.043**
(4.75)
1610
-2774.287

629

0.101
(1.39)
0.099**
(8.30)
0.883**
(64.83)
0.043**
(4.71)
1610
-2774.064

I-Wert in Klammern, * p < 0.10, ** P < 0.05

Erweiterung: Modelle mit exogenen Variablen


Neben der Aufnahme der bedingten Varianz erlaubt die Mittelwertgleichung die
Bercksichtigung weiterer Variablen, wie es etwa in Gleichung (IV4: 149) der Fall
ist. Darunter knnen sich auch AR-Tenne befinden. Ebenso ist es mglich, in die
Varianzgleichung zustzlich exogene Variablen zu integrieren. Wir knnen z. B.
untersuchen, ob der Ausbruch eines Krieges die Volatilitt erhht. Dazu stellen wir

folgende Schtzgleichung fr die bedingte Varianz auf:


(Iv4: 163)
h, = Qo + Q,E:_, + li,hH + ~d,
Dabei ninunt die Dummy-Variable d, vor Ausbruch des Krieges den Wert null und
mit Beginn des Krieges den Wert eins an. Finden wir heraus, dass der Koeffizient ~

signiftkant und positiv ist, so knnen wir daraus schlieen, dass der Kriegsausbruch
die bedingte Volatilitt erhht hat.
GARCR-Modelle ohne exogene Variablen stellen reine Zeitreihenmodelle dar, die
die bedingte Varianz alleine aus den historischen Eigenschaften der Variable selbst
erklren. Da es sich bei GARCR-Modellen um Verallgemeinerungen des ARCRModells handelt, knnen wir zusammenfassend festbalten, dass diese Modelle prinzipiell dazu in der Lage sind, die stilisierten Fakten Volatility Clusterlng, Leptokurtosis und Mean Reverting der Varianz abzubilden.
4.7.3.4

Das asymmetrische ARCH- und GARCH-Modell

Das GARCR-Modell ist nicht in der Lage, den Leverage-Effekt ZU bercksichtigen.


GARCR-Modelle unterstellen eine symmetrische Reaktion der Varianz auf positive
und negative Schocks. Dies sieht man leicht an den Gleichungen (IV4: 158) oder
(IV4: 159), weil darin die bedingte Varianz jeweils eine Funktion der absoluten
Gre der verzgerten Strterme und nicht von ihren Vorzeichen ist. Da die verz-

IV EinfOhlling in die Okonometrie

630

gerten Strtenne in quadrierter Form eingehen, gehen die Vorzeichen der Schocks
verloren. Auf den Finanzmrkten scheinen aber aufgrund des Leverage Bffekts positive Nachrichten Ce. > 0) eine kleinere Auswirkung auf die Volatilitt zu haben als
ebenso groe negative Schocks Ce. < 0). Gerade in Phasen starker Kurseinbrche ist
die Volatilitt besonders hoch. Neue Informationen erhhen prinzipiell die volatilitt, wobei aber gute Nachrichten die Volatilitt geringer erhhen als negative Nachrichten. Deshalb sprechen wir vom asymmetrl.schen Verhalten der Volatilitdt.
Glosten, Jagannathan und Runkle (1993) haben eine einfache Erweiterung des

GARCH-Modells vorgeschlagen, um diese Asymmetrie zu bercksichtlgen.1 16 Ihr T-

ARCH-Modcll (Threshold-ARCH-Modell) bzw. das entsprechende T-GARCBModell spezifizieren die bedingte Varianzgleichung als

h l = 0 + ate.:_t + 'YtE~l~_l + ~ht-1


d _ {l
EH < 0
(negative Nachrichten)
0

1-1 -

~-l :<!: 0

(positive Nachrichten)

wobei 11 auch als der Asymmetrie- oder I.everage-Koeffizient bezeichnet wird. Ist
dieser null, erhalten wir wieder das traditionelle GARCH-Modell. Die DununyVariable cl. zeigt jeweils an, ob der Schock. negativ oder positiv ist. Ist der Schock
positiv (~-1 > 0, d - 0), betrgt sein Effekt auf die bedingte Varianz ~, ist er aber
negativ (1;-1 < 0 , d - 1), erhalten wir den Effekt a,. + 'YI, da nun cl. - 1 ist. Falls 'Y1
signifikant und positiv ist, haben negative Schocks eine strkere Auswirkung auf
die Varianz als positive Neuigkeiten.
Manchmal wird beim T-GARCH-Modell die Dummy-Variable
um definiert und wir erhalten folgende Darstellung:

cl. genau

anders her-

hl = ~ + a1e:_l + Y1E~_ldt_l + ~ht_l


d

_ {1
0

,-1 -

1;-1 ~ 0
eH

<0

(positive Nachrichten)
(negative Nachrichten)

Nun haben negative Schocks (EH< 0) eine grere Auswirkung auf die bedingte
Varianz, falls 'YI signifikant und negativ ist, da in dieser Situation die DununyVariable den Wert null und bei positiven Nachrichten den Wert eins annimmt.

Bit

STaTa verwendet die zweite und EViews die erste Darstellung des Modells. Ob
Leverage-Effekte vorliegen, kann leicht anhand eines t-Tests fr den KoeffIzienten
y, berprft werden. Dem wollen wir nun im folgenden Beispiel fr die Renditen
des DAX nachgehen.

Beispiel IV 4-45

T-GARCH und DAX-Renditen

Wie sehen die Ergebnisse fr die Rendite des DAX beim T-GARCH(1, 1)-Modell aus? Zum
Schtzen verwenden wir den folgenden STaTa-Befehl:
aroh dax, aroh(1) garr:h(1) lateh(1)

116 In der Literatur wird neben dem T-ARCH-Modell am hufigsten das von Nelson (1991)
eingefhrte E-GARCH-ModeU zur Analyse asymmetrische Varianzprozesse verwendet. Bei
diesem Modell wird der natrliche Logarithmu.s der bedingten Volatilitt modelliert.

4. Verletzungen der Annahmen des klassischen Regressionsmodells

631

Dabei geben die Optionen nach dem Komma an, dass die Spezifikation jeweils einen
ARCH-, GARCH- und Leverage-Effekt enthlt. Wir erhalten folgende Ergebnisse:
(1 )
GARCH AS
dax

_cons

0.017
(0.57)

ARCH
L.arch
Ltarch
L.garch

_cons
N
11

0.165""
(9.27)
-0.187""
(-10.17)
0.908""
(76.47)
0.042""
(6.68)
1610
-2732.847

t-Wert in Klammern, p < 0.10, P < 0.05

1,

Der geschtzte Koaffizient


und sein t-Wert betragen hier -{),187 bzw. -10,17. Damit
knnen wir einen Leverage-Effekt nachweisen, da
hochsignifikant und negativ ist. Treten am Markt schlechte Nachrichten (E,-, < 0, d, = 0) auf, so betrgt der Effekt von .~_,
auf die bedingte Varianz IX, = 0,165. Bei guten Nachrichten (',_, > 0) sind die DummyVariable d, eins und der Effekt IX, +1, = 0,165-0,187 =-0,022. In diesem Fall reduzieren
gute Nachrichten die bedingte Varianz sogar leicht.

1,

Um zu sehen, dass die bedingte Varianz h, viel strker von einem negativen Schock als
von einem gleich groen positiven Schock beeinflusst wird, wollen wir ein Beispiel fr uno
sere Schtzung berechnen: Wir nehmen an, dass h,_, = 2 und der Renditeschock "_' = +/3% sind. 117 Falls
= 3% und damit d, = 1, gilt fr h, = 0,042 + 20,908 - 0,0223' =
1,68 und damit ergibt sich IOr die annualisierte Volatilitt 20,37%. Ein negativer Schock von
gleicher absoluter Gre ("_' = -3%) IOhrt dagegen zu h, = 0,042 + 2 . 0,908 + 0,165 . 3' =
3,34 und damit zu einer annualisierten Volatilitt von 28,91 %. Im ersten Fall geht die bedingte Varianz auigrund der neuen Information um 0,32 zurck (1,68 - 2 = -{),32), im zweiten Fall steigt sie um 1,34 (3,34 - 2 = 1,34) an.

'1-'

Erfllt das T-GARCH(I, 1)-Modell die Nichtnegativitts- und die Stationarittsbedingung?


Die Nichtnegativittsbedingung verlangt IX, ;;.; 0, IX, ;;.; 0,
0 und ist somit erfOIit. Der
Koeffizient 1, muss dagegen nicht positiv sein, denn gerade ein negatives 1, zeigt das
Wirken des Leverage-Effekts an. Die Stationarittsbedingung erfordert bei einem
GARCH(1 ,1 )-Modell, dass ii, + < 1. Diese Summe ist hier aber 1,073. Trotzdem ist das
T-GARCH-Modell aus folgendem Grund nicht instationr: Der Effekt von .~_, betrgt IOr
',_, < 0 (d, = 0) 0,165 und fr ',_, > O. (d, = 1) -{),022. Zum berprOfen der Stationarittsbedingung darf also nicht nur IX, und 5, addiert werden, sondern es muss auch der Koeffizient 1, in geeigneter Weise berOcksichtigt werden. Da 1, nur zum Tragen kommt, wenn

B, ; .;

B,

117 +/-3% ist eine nicht unbliche Grenordnung fr tgliche Kursnderungen whrend
turbulenter Marktphasen.

632

IV Einfijhrung in die konometrie

E,_,

y,

> O.!'nd damit d, = 1, wird


mit dem Anteil der positiven Strterme multipliziert und
zu IX. + S, addiert. Da in unserem Beispiel die positiven Schocks einen Anteil von 52%
haben, erhalten wir 0,908 + 0,165 + 0,52 . Hl,187) = 0,976 < 1. Bei einer annhernd symmetrischen Verteilung der Renditen knnen wir bei Tagesrenditen fr den Anteil der positiven Schocks auch 50% verwenden.
Aus der Schtzung fr die langfristige Varianz

CI=

tla

I-tl, -(anteilpos.)Y-,

0,042
1-0,165-0,52 (-0,187) -0,908

1,76

erhalten wir die langfristige geschtzte Volatilitt p.a. von 1,76,5 . 250,5 = 21,09%. Verwenden wir fr den Anteil der positiven Schocks 50%, erhalten wir eine geschtzte langfristige Volatilitt p.a. von 22,63%.
In der nachfolgenden Gafik stellen wir im August/September 2011 eine besonders stark
ausgeprgte Volatilitt beim asymmetrischen gegenber dem traditionellen GARCH-Modell
fest. In diesem Zeitraum kam es zu deutlichen Kurseinbruchen am deutschen Aktienmarkt.
DAX-VolatililAtsvergleich T-GARCH(1, 1) und GARCH(1, 1)

li!,-------'O=--O==="-=~~~~-==""''------,

~~----~------~------r-----~------~
01/2011

07/2011

01/2012

................. T-GARCH(1,1)

4.7.3.5.

07/2012

01/2013

07/2013

- - - - GARCH(1,1)

Zusammenfassung und Ausblick

ARCH-Modelle und ihre Weiterentwicklungen werden vor allem auf dem Gebiet
der Finanzmrkte zur Analyse der Volatilittsprozesse eingesetzt, denn Finanzmarktzeitreihen weisen hufig Eigenschaften auf, die Modelle mit dynamischer Varianz gut abbilden knnen.
Die grundlegende Idee der ARCH- und GARCH-Modelle besteht darin, die Varianzen und Volatilitten zu verschiedenen Zeitpunkten niebt als konstant oder unabhngig voneinander zu betrachten. Das ARCH-Modell von Engle (982) macht die
bedingte Varianz des Strtenns von den vergangenen quadrierten Schocks abhngig. Die revolutionren Arbeiten von Engle verliehen der Volatilittsanalyse von
Finanzmarktdaten einen entscheidenden Impuls. Einen weiteren Meilenstein in diesem Bereieb stellt das GARCH-Model von Bollerslev (986) dar.
In der Praxis hat sich herausgestellt, dass hufig eine GARCHO,l)-Speziftkation
(eventuell auch eine asymmetrische Variante) ausreichend ist, um die Dynamik der
bedingten Varianz abbilden zu knnen. GARCH-Modelle hherer Ordnung werden

4. Verletzungen der Annahmen des klassischen Regressionsmodells

633

selten geschtzt. Allerdings bleibt die out-of-sample Prognose 118 der Volatilitt auf
Finanzmrkten selbst mit GARCH-Modellen ein schwieriges Unterfangen.
Die konometrie hat eine Vielzahl weiterer Varianten des CGlARCH-Modells hervorgebracht. Allein das Programm STaTa kennt weit ber ein Dutzend in der Literatur vorkommender Modellvarianten. Engle zog nach 20 Jahren ARCH Bilanz und
hielt Ausschau. Dabei bescherte er auf ironischer Weise der Zunft, wie sollte es anders sein, ein weiteres ARCH-Modell: "YAARCH: Yet Another ARCH,,119
Die neuere Forschung auf diesem Gebiet beschftigt sich vor allem mit den multivariaten GARCH-Modellen. Bei diesen handelt es sich nicht um univariate, sondern
multivariate nichtlineare Zeitreihenmodelle. Sie ennglichen es, das dynamische
Verhalten von Kovarianzen und Korrelationen zu analysieren und zu prognostizieren 120 Deshalb knnten sie insbesondere in der Portfolioanalyse in Zukunft an
Bedeutung gewinnen.

118 Hierbei handelt es sich um Prognosen fr zuknftige Perioden, die nicht in der Stichprobe zum Schtzen des Modells enthalten sind (vgl. Abschnitt N 6.1) .
119 Vgl. Engle (2002b).
120 Fr eine aktuelle Anwendung vgl. z.B. Auer und Schuhmacher (2013).

5.

Zusammenfassende Anwendungen
aus dem Finanzbereich

Wir haben bisher die Regressionsanalyse ausgehend von der Modelltheorie ber die
Modellschtzung bis hin zur Analyse von Annahmenverletzungen eingehend behandelt.
Die nachfolgenden Beispiele zeigen nun konkrete Anwendungen am Beispiel von Finanzmrkten. Wir beschftigen uns dabei mit dem Capital Asset Pricing Model und Verfahren
zur Beurteilung der Performance von Investmentfonds.

5.1

Capital Asset Pricing Model


Das sog. Capital Asset Pricing Model (CAPM)l gehrt zu den wichtigsten Modellen

im Finanzbereich. Es erklrt die erwartete Risikoprmie eines Wertpapiers j als eine

Funktion der erwarteten Risikoprmie eines Portfolios, welches alle ffentlich gehandelten Wertpapiere enthlt. Man bezeichnet tlieses Portfolio auch als Marktportfolio. Hinter den Risikoprmien verbirgt sich nichts anderes als tlie Differenz zwischen der erwarteten Rendite des Wertpapiers E[~ und dem Zins einer risikolosen
Anlage R, im ersten Fall bzw. der Rendite des Marktportfolios E[R,,] und R, im zweiten Fall. Es gilt im Modell
E[R j ] - R,

= f3 j (E[RM ] - R, ) .

(IV5: 1)

Der Ausdruck f3 j beschreibt dabei, wie sensibel tlie Rentlite des Wertpapiers j auf
Vernderungen der Rentlite des Marktportfolios reagiert. Ein Beta von weniger als
Eins bedeutet daher, dass die Variation von R, geringer ist als jene von R". Ein Beta
von grer als Eins deutet auf ein im Vergleich zum Marktportfolio strker schwankendes Wertpapier hin.
Damit der Beta-Faktor im Rahmen praktischer Anwendungen eingesetzt werden
kann, muss er mittels geeigneter Verfahren geschtzt werden. Dazu mssen wir die
Gleichung (IV5: 1) in eine empirisch schtzbare Form bringen (Operationalisierung). Hierbei ergibt sich das Problem, dass das CAPM eine Beziehung bezglich
der erwarteten Renditen darstellt. In der Praxis knnen wir aber nur die aktuellen
oder realisierten Renditen direkt beobachten. Aufgrund von Erwartungsirrtmern
entsprechen im Allgemeinen die realisierten Renditen nicht den in der Vergangenheit erwarteten Renditen. Aus diesen Grnden verwenden wir bei der Schtzung
des Betas fr ein Wertpapier j folgendes konometrisches Modell:
(IV5: 2)
Wir ersetzen also die Erwartungswerte durch die realisierten Werte zu jedem Zeitpunkt und fgen der Beziehung zustzlich einen Strterm E hinzu. Dieser sollte
einen Erwartungswert von Null aufweisen, falls es bei der Erwartungsbildung nicht
1 Vgl. Sharpe (1964), Lintner (1965) und Mossin (1966).
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_18, Springer Fachmedien Wiesbaden 2015

IV EinfOhn.mg in die Okonomebie

636

zu systematischen Fehlern. kornmt. 2 Zustzlich ist es erforderlich, dass eine Appro-

ximation des Marktportfolios gefunden wird, da dieses ebenfalls nicht empirisch


beobachtbar ist. Hufig wird ein mglichst breit gestreuter Aktienindex herangezo-

gen. Der risikofreie Zins wird meist mit dem fr Dreimonats-Tagesgeld belegt. Fr
deutsche Aktien bietet sich die Verwendung des DAX (alternativ auch CDAJQ und
des 3-Monats-Eurihors an}
Wenn wir PI mit der Regression OVS: 2) ennitteln, schtzen wir automatisch ~ als
Regressionskonstante mit. Ist das CAPM Gltig, sollte das wahre a, den Wert Null
annelunen (vgl. Gleichung WS: 1)). Bei positivem a, wrde das Papier mehr als
die nach dem CAPM erwartete faire Risikoprmie liefem, bei negativem entspre-

chend weniger. Man bezeichnet den Schtzwert von a, als Jensen-Alpha. 4 Eine
Mglichkeit der empirischen Prfung des CAPM besteht also in einem einfachen
t-Test fr ein geschtztes 0,. Hinsichtlich dieses und anderer Tests des CAPW ist

jedoch anzumerken, dass diese nicht kritikfrei sind. Es wird nmlich argumentiert,
dass das CAPM nur bei akurater Approximation des Marletportfolios vernnftig getestet werden knne. Ein einfacher Aktienindex sei dazu nicht ausreichend.6
Dieser Kritik zum Trotz wollen wir 1m Folgenden die Gleichung OV5: 2) mit OLS
fr 4 ausgewhlte Unternehmen des DAX schtzen. Dies ist einer der wenigen Flle, in dem der Schtzung der Regressionskonstanten Aufmerksamkeit geschenkt
wird. Um die Schtzung rechtfertigen zu knnen, mssen wir von einem korrekt
spezifiZierten Modell ausgehen, damit der Strtenn einen Erwartungswert von Null
aufweist (vgl. Abschnitt N 4.2.1).
Wir verwenden zur Schtzung 60 Monatsrenditen (in Prozent) von September 2003
bis August 2008. Die nachfolgende Tabelle zeigt fr die Renditen der verwendeten
Aktien die wichtigsten Parameter der Stichprobenverteilung. Abgesehen von BMW
weisen smtliche Aktienwerte eine positive Durchschnittsrendite (auf Monatsbasis)
auf, wobei jene von MAN und Volkswagen mit der grten Volatilitt verbunden
sind. Wir erkennen auerdem, dass Euribor und Volkswagen rechtsschiefe und alle
anderen linksschiefe Verteilungen sind. Im Vergleich zur Norma1verteilung (Schiefe
o und Wlbung 3) weisen vor allem die Verteilungen von DAX und MAN eine
grere Wlbung auf.

DAX
Eurlbor
BMW

Daimler
MAN

Volkswagen

Mittelwert

Standardabw.

Schiefe

Wlbung

1,12
0,26
-0,21
0,55
2,51
2,98

4,35
0,09
6,17
8,13
9,59
9,41

-0,94
0,50
-0,40
-0,06
-0,69
0,30

5,93
1,77
3,59
3,91
6,13
2,86

2 Vgl. dazu Elten et al. (200n, KapitellS.


3 Streng genommen handelt es sich beim Euribor nicht um eine risikolose Anlagemglichkeit,
da das potentielle Ausfallrislko nicht besichert ist.
4 VgL Jensen (1967).
5 Vgl. z.B. Fama und Prench (2004).
6 Vgl. Roll (1997).

637

5. Zusammenfassende Anwendungen aus dem Finanzbereich

Die im Vorfeld der Schtzungen durchgefhrten Stationarittstests fr die Risikoprmien der einzelnen Wertpapiere und des DAX lieferten keine Hinweise auf 1nstationaritt der Zeitreihen. Dies ist auch nicht verwunderlich, da die Berechnung
von Renditen schlielich eine Art Differenzierung der Kurszeitreihe darstellt, die ja

gerade eine nicht stationre Zeitreihe in eine stationre berfhren kann. Wir knnen daher ohne Gefahr einer Scheinregression die OLS-Schtzungen durchfhren.
Die folgende Tabelle enthlt die Schtzergebnisse, wobei der geschtzte Koeffizient
der Konstanten C das ]ensen-Alpha darstellt.
Dependenl Variable: BMW-EURIBOR
Coefficienl

Sid. Error

I-Slalislic

Prob.

C
DAX-EURIBOR

-1.342177
1.013244

0.573871
0.130045

-2.338814
7.791490

0.0228
0.0000

R-squared
Adjusled R-squared
S.E. of regression

0.511403
0.502979
4.360284

Durbin-Watson sial
F-stalislic
Prob(F-slalistic}

2.348775
60.70732
0.000000

Dependenl Variable: DAiMLER-EURIBOR


Coefficienl

Sid. Error

I-Slalislic

Prob.

C
DAX-EURIBOR

-0.808026
1.278089

0.786308
0.178186

-1.027619
7.172796

0.3084
0.0000

R-squared
Adjusled R-squared
S.E. 01 regression

0.470073
0.460936
5.974390

Durbin-Watson sial
F-stalislic
Prob(F-slalistic}

1.936987
51.44900
0.000000

Dependenl Variable: MAN-EURIBOR


Coefficienl

Sid. Error

I-Slalislic

Prob.

C
DAX-EURIBOR

0.861698
1.617898

0.863677
0.195718

0.997709
8.266475

0.3226
0.0000

R-squared
Adjusled R-squared
S.E. of regression

0.540902
0.532986
6.562237

Durbin-Watson sial
F-stalislic
Prob(F-slalistic}

2.454455
68.33461
0.000000

Dependenl Variable: VOLKSWAGEN-EURIBOR


Coefficienl

Sid. Error

I-Slalislic

Prob.

C
DAX-EURIBOR

2.103061
0.715964

1.175098
0.266289

1.789690
2.688671

0.0787
0.0093

R-squared
Adjusled R-squared
S.E. 01 regression

0.110824
0.095494
8.928420

Durbin-Watson sial
F-stalislic
Prob(F-slalistic}

2.044935
7.228953
0.009350

IV Einfiihrung in die konometrie

638

Die Schtzergebnisse weisen keine Probleme von Heteroskedastizitt oder Autokorrelation auf,? sodass Newey-West Standardfehler oder andere Korrektunmanahmen
nicht erforderlich sind. Wir legen in diesem Kapitel ein Signifikanzniveau von 5 %
zugrunde und erhalten damit folgende Ergebnisse:
Es fallt zunchst auf, dass die Betakoeffizienten aller 4 Schtzungen sogar bei
einem Signifikanzniveau von 1 % signifikant von Null verschieden sind. Interessanter ist allerdings, inwieweit sich die Betas signifikant von 1 unterscheiden. Um dies
zu prfen mssen wir die t-Statistiken fr die Nullhypothese Ho: , = 1 gegenber
HA: ,"* 1 berechnen. Wir erhalten diese wie folgt:

BMW
Daimler
MAN
Volkswagen

,-l

cr~

0,0132
0,2781
0,6179
-0,2840

0,1300
0,1782
0,1957
0,2663

0,1015
1,5606
3,1574
-1,0665

Bei einem Signiftkanzniveau von 5 % und einem Stichprobenumfang von 60 liegt


der zur Testentscheidung bentigte kritische t-Wert bei 1,,975;" = 2,00. H, wird nun
abgelehnt, wenn der Absolutbetrag der t-Statistik grer als 2,00 ist. Dies ist nur bei
MAN der Fall. Wir knnen also sagen, dass die Renditen von MAN strker als der
Markt schwanken. Fr BMW, Daimler und Volkswagen haben wir eine derartige
Evidenz nicht.

t-Tests der Nullhypothese Ho: !i =


gegenber HA:!i"*
der verschiedenen
Alphas fhren bei einem Signifikanzniveau von 5 % nur bei BMW zu einer Ablehnung von Ho> da der p-Wert kleiner als 0,05 ist. Er spricht damit gegen eine Gltigkeit des CAPM. Das Alpha von Volkswagen wre zumindest bei einem Niveau von
10 % schwach signifikant. Bei Daimler und MAN kann Ho hingegen nicht abgelehnt
werden Cp-Werte deutlich grer als 0,05), was nicht gegen das CAPM spricht.
Die Bestirnmtheitsmae der Regressionen liegen bis auf Volkswagen bei ungefhr
50 %, d.h. die Hlfte der Renditevariation knnen wir nicht durch Vernderungen
der Risikoprmie des Marktes erklren. Insbesondere bei Volkswagen trgt das
Modell nur wenig zur Erklrung der Renditevariation bei. Fr den gegebenen Zeitraum scheint das CAPM hier wesentliche Einflussfaktoren zu vernachlssigen.

5.2 Investmentfondsperformance
Fr die Bewertung und Analyse von Kapitalanlagen gibt es zahlreiche Verfahren,
die sich durch die Infonmationsanforderungen an die Daten und die unterstellten
Prmissen unterscheiden. Zu den bekanntesten regressionsbasierten Verfahren ge-

hren das unter IV 5.1 behandelte Jensen-Alpha und der Treynor-Mazuy-Ansatz.

7 Die p-Werte des White-Tests liegen mit 0,9953 (BMW), 0,1041 (Daimler), 0,6838 (MAN),
0,2537 (Volkswagen) deutlich ber einem Signifikanzniveau von 5 %. Auch die DurbinWatson-Statistik bewegt sich im Bereich um 2, wodurch Freiheit von Autokorrelation erster
Ordnung gewhrleistet sein drfte.

5. ZUsammenfassende Anwendungen aus dem Finanzbereich

639

Tritt in Gleichung (IV5: 2) an die Stelle der Rendite eines Wertpapiers die Rendite
eines Invesbnentfonds j, so kann fr diesen Fonds j das Jensen-A1pha a, geschtzt
werden. Diese Schtzung gibt (bei entsprechender Signiflkanz) Auskunft ber die
Differenz zwischen der erzielten Fondsrendite und der Rendite einer passiven Strategie (Investition in das Marktportfolio und das risikolose Wertpapier) mit gleichem
systematischen (marktbasierten) Risiko. a, misst also die risikoadjustierte Performance. Portfoliomanager, die ber besondere Selektionsfhigkeiten hinsichtlich der
Papiere in ihren Portfollos verfgen, generieren positive Alphas. Selektionsfhigkeit
bezeichnet dabei die Eigenschaft, eine berdurchschnittlich renditetrchtige Titelselektion vorzunehmen.
Wir wollen nun auf Basis von Monatsrenditen (in Prozent) fr einen Zeitraum von lf')
Februar 1998 bis Dezember 2004 und drei zufallig ausgewhlte Fonds mittels des ~
Jensen-Alpha testen, ob die Fondmanager ber Selektionsfhigkeiten verfgen. Als
Nherung fr das Marktportfolio verwenden wir dabei wieder den DAX und fr
den risikofreien Zins den 3-Monats-Euribor.
Die im Vorfeld der Schtzungen durchgefhrten Stationarittstests fr die Risikoprmien der einzelnen Fonds liefern wieder keine Hinweise auf Instationaritt der
Zeitreihen. Die OLS-Schtzungen sind im Folgenden dargestellt:
Dependent Variable: FONDS-EURIBOR

DAX-EURIBOR
R-squared
Adjusted R-squared
S.E. of regression

Coefficient
-0.194727
0.831602

0.129318
0.928446
1.832948

ISIN: DEOO08471608
Std. Error
0.201327
0.025483

Durbln-Walson stat
F-statistic
Prob(F-statistic)

R-squared
Adjusted R-squared
S.E. of regression

Adjusted R-squared
S.E. of regression

Coefficient

Std. Error

t-Statistic

-0.255692
0.928589
0.80237'
0.901169

0.268119
0.033937

0.953851
27.36234

2.441049

0.991658
0.716167

Prob.

0.3383
0.0000
2.435341
1064.984
0.000000

ISIN: DEOO08485509

Dependent Variable: FONDS-EURIBOR

DAX-EURIBOR

t-Statistic
-0.967219
32.63410

Durbin-Walson stat
F-statistic
Prob(F-statistic)

F-statistic
Prob(F-statistic)

Prob.
0.3431

0.0000
2.274321
746.6976
0.000000

9748.401
0.000000

IV Einfiihrung in die konometrie

640

Es wird deutlich, dass nur beim Fonds LU0028514403 die Nullhypothese Ho: a, = 0
gegenber HA: a, 0 bei einem Signifikanzniveau von 5 % abgelehnt werden kann.
Dieser Fonds weist eine signifikant negative Perfonmance gegenber dem Benchmarkportfolio DAX auf. Auch bei den beiden anderen Fonds sind die geschtzten
Alphas negativ, aber insignifikant. Wir knnen also fr keinen Fonds signiftkante
Selektionsfahigkeiten nachweisen.8 Zudem fallt deutlich auf, dass sich schon durch
diesen einfachen Modellansatz ein hoher Anteil der Variabilitt der Fondsrenditen
(hohe Werte von R') erklren lsst.

Die Idee des Treynor-Mazuy-Ansatzes ist es, dass ein Portfoliomanager neben
Selektions- eventuell auch ber Timingfahigkeiten verfgen kann. Verfgt man
ber Timingfahigkeiten, ist man in der Lage, die Gesarntmarktentwicklung (steigende oder fallende Marktphase) richtig einschtzen ZU knnen und dadurch eine
berdurchschnittliche Perfonmance zu erzielen. Bei diesem Ansatz steigert man sein
Fondsbeta kontinuierlich mit der Hhe der prognostizierten Marktrisikopriimie.
Wird eine positive Risikoprmie des Marktes prognostiziert, strebt der Fondsmanager ein hohes Beta (systematisches Risiko) seines Fonds an. Erwartet er eine negative Prmie, wird der Fonds versuchen ein niedriges Beta zu erzielen. Dies bedeutet, dass in steigenden Marktphasen die Portfoliorendite berproportional zunimmt
und in sinkenden Marktphasen unterproportional abnimmt.
Nehmen wir an, ein Fondsmanager besitzt keinerlei Fhigkeiten bei der Wertpapierauswahl, allerdings verfgt er ber sehr gute Prognosefahigkeiten bei der
Einschtzung des Marktes. Enmitteln wir nun ber eine Schtzung von (IV5: 2) das
]ensen-Alpha, erhalten wir hufig ein positives Alpha und bescheinigen dem
Fondsmanager Selektionsfahigkeiten, die er nicht besitzt. Um sowohl Timing- als
auch Selektionsfahigkeiten zu enmitteln, haben Treynor und Mazuy9 vorgeschlagen,
die Regressionsgleichung zur Schtzung des ]ensen-Alpha um einen quadratischen
Tenn Zu erweitern:

(IV5: 3)
Der quadratische Term erfasst, wie das Beta des Fonds mit Vernderungen der

Risikopriimie des Marktes variiert. Es gilt nmlich


-R. =Q, + (R M, -R.)[f3, +'Y,(RM, -R.)l+E~,
wobei Y,(RM, - R.) die Vernderung von Beta widerspiegelt. Liegen entsprechende
Selektions- bzw. Timingfhigkeiten vor, so lassen sich diese durch die positiven
Regressionskoeffizienten a, und 1, erfassen. Falls 1, = 0 ist, entspricht die quadratische Regressionsfunktion (IV5: 3) genau der einfachen ]ensen-Alpha-Regressionsfunktion (IV5: 2) und der Fondsmanager besitzt keine Timingfahigkeiten. Die
Schtzung des Treynor-Mazuy-Ansatzes fr unsere drei zufallig gewhlten Fonds
aus dem vorhergehenden Beispiel liefert folgende OLS-Ergebnisse: lO
R~

Die Vor- und Nachteile des ]ensen-Alpha sowie dessen praktische Eignung und Signifikanztests zur Beurteilung von Knnen oder Glck werden ausfhrlich von Bodie, Z't Kane, A.,
Marcus, A. J. (2005) behandelt. Eine Anwendung fr Deutschland fmdet man bei Rottmann,

H., Franz, T. (2007).


9 Vgl. Treynor und Mazuy (1966).

10 Eine Anwendung dieses und weiterer Verfahren auf deutsche Fonds fmdet man bei Rott-

mann und Franz (2008).

5. Zusammenfassende Anwendungen aus dem Finanzbereich

641

151N: DE0008471608

Dependenl Variable: FONDS-EURIBOR


C
DAX-EURIBOR
(DAX-EURIBOR)'2
R-squared
Adjusted R-squared
S.E. of regression

Coefficienl
-0.404230
0.853554
0.003458
0.932508

0.930821
1.802276

Sld. Error

I-Stalislic

Prob.

0.225383
0.027482
0.001779

-1.793527
31.05829
1.944349

0.0767

Durbin-Watson sIal
F-statistic
Prob(F-slalislic)

C
DAX-EURIBOR
(DAX-EURIBOR)'2
R-squared
Adjusted R-squared
S.E. of regression

-0.495489
0.953715
0.003958
0.905628

0.903269
2.414976

Sld. Error
0.302003
0.036825
0.002383

I-Slalislic

Prob.

-1.640672
25.89845
1.660872

0.1048

Durbin-Watson stat
F-slalislic
Prob(F-statistic)

R-squared
Adjusted R-squared
S.E. of regression

0.0000

0.1007
2.167413
383.8551
0.000000

151N: LUOO28514403

Dependent Variable: FONDS-EURIBOR


C
DAX-EURIBOR
(DAX-EURIBOR)'2

2.292218
552.6613
0.000000

151N: DE0008485509

Dependenl Variable: FONDS-EURIBOR


Coefficienl

0.0000

0.0554

Coefficient

Std. Error

t-Statistic

Prob.

-0.188407
0.977767
-0.000832

0.089344
0.010894
0.000705

-2.108793
89.75088
-1.180077

0.0381

0.991900

0.991698
0.714438

Durbin-Watson sIal
F-slalislic
Prob(F-slalislic)

0.0000

0.2415
2.088623
4898.520
0.000000

Tests auf Autokorrelation und Heteroskedastizitt ergeben, dass die geschtzten


Modelle keine offensichtlichen Mngel oder Fehlspezifikationen aufweisen. 11
Durch die neue quadratische Variable haben sich die angepassten Bestimmtheitsmae (wenn auch nur geringfgig) erhht. Der Treynor-Mazuy-Ansatz erklrt also
die Renditevariabilitt der Fonds besser als der einfache Jensen-Ansatz.
Bei einem Signifikanzniveau von 5 % knnen wir lediglich bei Fonds DE0008471608
durch einen t-Test von Ho: 1, ~ 0 gegenber HA: 1, > 0 positive Timingfhigkeiten
nachweisen. Der p-Wert der quadratischen Variablen liegt nmlich dafr bei
0,0554/2 - 0,0277 und damit unter 0,05, was ein Ablehnen von H, ermglicht. Es ist
zudem auffllig, dass die Fonds-Alphas alle negativ, jedoch nur bei Fonds
LU0028514403 auf dem 5 %-Niveau signifikant sind. Allerdings sind die Alphas bei
den beiden Fonds DE0008471608 und DE0008485509 nun deutlich kleiner und zumindest auf einem 10 %-Signifikanzniveau schwach signifikant. In Anbetracht unserer Argumentation aus den Abschnitten IV 4.1.1 und IV 4.2.1 ist bei derartigen Analysen jedoch immer ZU bedenken, dass die Alphas ggf. verzerrt geschtzt werden.
11

Die p-Werte des White-Tests liegen mit 0,9025 (DE0008471608), 0,3512 (DE0008485509),
0,3381 (LU0028514403) deutlich ber einem Signifikanzniveau von 5 %. Auch die DurbinWatson-Statistik bewegt sich um 2.

6.

Prognose mit geschtzten


Regressionsmodellen

Auf Basis der vorangegangenen Abschnitte IV 1 bis IV 5 sind wir in der Lage Regressionsmodelle aufzustellen, zu schtzen und die Schtzergebnisse zu beurteilen. Hufig ist
es fOr Unternehmen und politische Entscheidungstrger von Interesse nicht nur die Vergangenheit mit der Schtzung eines Modells beschreiben und erklren, sondern auch
Prognosen fOr die Zukunft abgeben zu knnen. Dies ist Thema des letzten Abschnitts.

6.1 Grundlagen der Prognose


Eine wichtige Anwendung von konometrischen Modellen sind Prognosen. Vorhersagen werden stndig in vielen Bereichen der Wirtschaft, wie beispielsweise auf
den Finanz-, Rohstoff- und Energiemrkten von Unternehmen (insbesondere in den

Bereichen strategische Unternehmensfhrung und Marktforschung), von Regierungen, Forschungsinstituten und Verbrauchern gemacht. Viele Entscheidungen sind

nmlich in die Zukunft gerichtet und hngen deswegen von Einschtzungen der
zuknftigen Entwicklungen ab. Um eine konometrische Prognose erstellen zu

knnen, schtzen wir Modelle mit vorliegenden Daten aus der Vergangenheit. Mit
den geschtzten Modellen generieren wir dann unsere Prognosen.
Grundstzlich knnen wir bei der Abgabe von Prognosen fr die erklrte Variable
zwischen einer Punkt- und einer Intervallprognose unterscheiden. Die Punktprognase liefert einen einzigen Prognosewert, whrend die Interoallprognase ein Intervallliefert, in dem die erklrte Variable mit einer gewissen Wahrscheinlichkeit liegt.
Neben dieser KlassifIkation ist eine weitere Unterscheidung von Prognosen sinnvoll. Betrachten wir dazu zunchst Abbildung IV 31. Wir bezeichnen das Zeitinter-

vall von 1 bis T, das als Grundlage fr die Schtzung eines Regressionsmodells l
verwendet wurde, als Schtzperiade. Man spricht hier auch hufig vom Sttzbereich des Modells. Nehmen wir nun an, wir wollen mittels des einfachen Modells

Y, =Po +P,X, +E,

(IV6: la)

die Variable Y vorhersal;!en, so knnen wir dafr das mit den Daten von 1 bis T
Yt ;;;;;; Jjo + tXt verwenden. Werden nun mittels der Ausprgungen der erklrenden Variablen innerhalb des Sttzbereichs Prognosen fr die erklrte Variable abgeben, sprechen wir von "in-sample"-Prognosen (IS-Prognosen).

geschtzte Modell

Derartige Prognosen sind uns bereits bekannt, da wir so bisher ~ berechnet und

damit die Residuen bestinunt haben.


1 Auch wenn wir uns im Folgenden hinsichtlich Notation und Argumentation auf die Zeitreihenregression beschrnken, ist der Groteil der Aussagen auch fr die Querschnittsregression gltig.
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_19, Springer Fachmedien Wiesbaden 2015

IV Einfiihrung in die konometrie

644

Jede Prognose, die sich auf einen Zeitpunkt auerhalb des Sttzbereichs bezieht,
wird als "out-of-sarnple"-Prognose (OS-Prognose oder eigentliche Vorhersage)
bezeichnet. Um die Prognosegte des Modells zu beurteilen, mssen die tatschlichen Werte der erklrten Variable mit den Prognosen verglichen werden. Die Differenz YT+1 - YT+1 = e T+1 wird als l-Schritt-Prognosefehler (eng!. one-step-ahead forecast error) bezeichnet. 2 Zuknftige Werte der erklrten Variablen sind aber momentan unbekannt. Deswegen wird die Stichprobe in der Praxis hufig aufgeteilt.
Ein Teil der Daten wird dazu verwendet, das interessierende Regressionsmodell zu
schtzen (Sttzbereich), und der andere Teil wird zur Beurteilung der Prognosegte genutzt. Man spricht dann von ex post Prognosen im Gegensatz zu ex ante
Prognosen. Bei der eI post Prognose sind die Ausprgungen der erklrenden Variablen und auch der erklrten Variable bereits bekannt. Die Prognosen knnen
daher mit den tatschlichen Werten der erklrten Variable verglichen und damit die
Prognosegte des Modells beurteilt werden. Bei eI ante Prognosen sind die Ausprgungen der erklrten und hufig auch der erklrenden Variablen unbekannt.
Fr den Wirtschaftswissenschaftler sind gerade ex ante Prognosen interessant, da es

gerade die unbekannte erklrte Variable vorherzusagen gilt.

verfgbare Stichprobe

Zukunft

r_----------------~----------------'~r------~JC'------~,
1
T
Beurteilung

Prognosegte
~

Schtzperiode
(Sttzbereich)

_-+1<1-- Ex post

Prognose

Ex ante
Prognose

---r------------------+-------------~--------------~Zet

~ IS-Prognose

OS-Prognose

Abbildung IV 31: Prognosearten (Zeitreihenmodelle)


Zustzlich ist zwischen bedingten und unbedingten Prognosen zu unterscheiden.
Bei bedingten Prognosen werden bestimmte Ausprgungen fr die erklrenden
Variablen angenommen (Szenarioanalyse) oder sie werden als bekannt unterstellt.
Mit bedingten Prognosen wird daher die Frage "Was wre, wenn ... ?" beantwortet.
Eine bedingte Prognose von Y mittels der Schtzung des Modells (IV6: la) htte

deshalb die Gestalt


(IV6: Ib)

Klassische Flle von bedingten Prognosen sind IS-Prognosen und ex post Prognosen, da hier immer die tatschlichen Werte fr die erklrenden Variablen angenommen werden knnen.

2 Wir beschrnken uns in diesem Lehrbuch zumeist auf die Betrachtung von "one-step-ahead
forecasts", d.h. Prognosen der erklrten Variablen fr T + 1. "rnulti-step-ahead forecasts",
d.h. Prognosen fr T + h mit h > I, werden z.B. von Wooldridge, 1.M. (2006), Kapitel 18 im
Detail behandelt. Sie sind gewhnlich mit hherer Ungenauigkeit verbunden.

6. Prognose mit geschtzten Regressionsmodellen

645

Hufig interessiert uns jedoch nicht die Frage "Was wre, wenn ... ?", sondern wir

wollen die bestmgliche Prognose fr die erklrte Variable abgeben (unbedingte

Prognose). Wollen wir mit der Schtzung des Modells (Iv6: la) eine unbedingte

Prognose fr Y abgeben, so htte diese die Gestalt


(IV6: lc)
da die Ausprgung der erklrenden Variable selbst prognostiziert werden muss,
bevor die Prognose fr die erklrte Variable abgegeben werden kann. Dies ist in
der Regel bei ex ante Prognosen der Fall. In der Praxis werden fr die Vorhersage
von X hufig autoregressive Modelle verwendet. Nehmen wir 2.B. an, wir nutzen

ein AR(1)-Modell der Fonn

Xt

Mittels des geschtzten Modells

;;;;;;

U o + U 1X t _ 1

x, = Qo + Q,X

+ ut

(IV6: 2a)

(IV6: 2b)

und des bekannten Wertes X, wren wir hier in der Lage eine Prognose fr die
Periode T + 1 abzugeben. Die vorhergesagten X-Werte knnten wir dann in Fonnel
(IV6: lc) einsetzen und damit Y prognostizieren. Besser und einfacher ist es jedoch, dies in einem Modell zusammenzufassen, in dem Y direkt vom verzgerten
X abhngt. Es wird also an Stelle von (IV6: la) und (Iv6: 2a) direkt das Modell
(IV6: 3)
geschtzt und fr die Prognose von Y verwendet. Dies spart den zustzlichen
Schritt der Vorhersagen von X, um Y fr die nchste Periode vorherzusagen (unbedingte Prognose).
Im Folgenden wollen wir uns nher mit bedingten und unbedingten Prognosen

sowie den Besonderheiten beschftigen, die in Modellen mit autokorrelierten Strtennen (typisches Problem in Zeitreihenmodellen), deterministischen Trends und
integrierten Variablen auftreten. Besonderes Augenmerk legen wir dabei auf die
Eigenschaften des Prognosefehlers. Wir werden dabei unter anderem sehen, dass
der Prognosefehler folgende Quellen besitzt:
1.

Unsicherheit ber die wahren Werte der Parameter


verwendeten Modells

2.

Unsicherheit ber x" sofern X, prognostiziert werden muss

3.

Unsicherheit ber zuknftige


bekannt sind

4.

Richtige Modellspezifikation: Modelle sind inuner Vereinfachungen der Realitt.


Lassen sie aber wesentliche Aspekte unbercksichtigt, so fhrt dies zu einer
Fehlspezifikation und damit eventuell zu schlechten Prognosen.

E"

~,

und

~,

des zur Prognose

da zuknftige zufllige Abweichungen nicht

Bevor wir uns jedoch diesem Themenkomplex widmen, gilt es noch zu begrnden,
warum unsere Prognosen hufig auf OLS-Schtzungen basieren. Es gibt nmlich
theoretisch eine Vielzahl von Mglichkeiten aus historischem Datenmaterial
einen Wert YTH zu prognostizieren und es stellt sich dabei natrlich die Frage, welche als die beste angesehen werden kann. Zur Klrung dieser Fragestellung wird

IV Einfiihrung in die konometrie

646

gewhnlich der quadrierte Fehler e~+, herangezogen.3 Er wertet positive und negative Prognosefehler gleich und grere Prognosefehler erhalten ein greres
Gewicht. "-,., ist aufgrund des unbekannten YT., aber zum Zeitpunkt Tunbekannt
und damit eine Zufallsvariable. Jedes mgliche Verfahren zur Prognose von YT.,
kann auerdem nur auf den zum Zeitpunkt T verfgbaren Informationen basieren.
Es wird daher die Prognose YT+, gewhlt, die den erwarteten quadrierten Prognosefehler bei gegebenem heutigen Informationsstand J., (enthlt alle relevanten erklrenden Variablen des Modells, ggf. mit Verzgerung)
(IV6: 4)
minimiert. Es lsst sich zeigen, dass der bedingte Erwartungswert von YT+l gegeben
dem heutigen Informationsstand, also E(YT +, I IT ) , die bestmgliche Prognose im

Sinne eines mglichst niedrigen erwarteten quadratischen Fehlers darstellt.4 Anders


ausgedrckt: Wollen wir den erwarteten quadrierten Prognosefehler bei gegebenem heutigen Informationsstand minimieren, so sollten wir als Prognose den bedingten Erwartungswert von YT., gegeben dem heutigen Informationsstand whlen.
Im Rahmen des klassischen Regressionsmodells, handelt es sich nun bei auf OLSSchtzungen basierenden Vorhersagen gerade um bedingte Erwartungswerte (vgl.
Kapitel IV 2.1). Damit stellen sie die besten bedingten Prognosen dar, da es keine
anderen Schtzfunktionen mit niedrigerem erwarteten quadrierten Fehler gibt.

6.2 Bedingte Prognosen


6.2.1

Prognosefehler bei bedingten Prognosen

Nicht immer mssen erklrende Variablen mit Verzgerungen der Form (IV6: 3)
vorliegen, um bedingte Prognosen abgeben ZU knnen. Auch in statischen Modellen knnen wir sie in manchen Fllen als bekannt unterstellen. Dies ist z.B. der
Fall, wenn es sich um detenninistische Variablen (z.B. saisonale Dummies) oder

demografische und konomische Variablen handelt, die sich nur langsam und vorhersehbar verndern. Befindet sich etwa ein Halbjahresdummy (0 = erste Jahreshlfte, 1 = zweite Jahreshlfte) als erklrende Variable im Modell, so knnen wir
narrlich ohne Probleme die Ausprgung einer Folgeperiode vorhersagen. Auch
eine erklrende Variable "Bevlkerungszahl l1 knnen wir relativ "przise" fr das

nchste Jahr vorhersagen. In Modellen ohne Verzgerung der Art


Y, = ~o + ~,X, + E,

t =

1, ... , T

(IV6: 4a)

knnen wir daher in diesen Fllen bedingte Prognosen ber

o ,x

YT+, = + T+,
(IV6: 4b)
abgeben. Betrachten wir nun den Prognosefehler in diesem Modellkontext etwas
nher. Fr das einfache Modell (IV6: 4a) ergibt er sich als Differenz aus der Prognose

YT+l

und dem tatschlich realisierten Wert

YT+1'

Analog zu den Residuen

wollen wir den Prognosefehler im Folgenden auch mit e bezeichnen. Es gllt damit

3 Zur Herleitung des OLS-Schtzers verwendeten wir die quadrierten Fehler im Sttzbereich.
4 Vgl. Wooldridge (2002), Kapitel 2.

6. Prognose mit geschtzten Regressionsmodellen

e T+ 1

;;;;;;

YT+1 -

647

YT+l

= (o + IXT+I) -

(~o + PIXT+I + ET+I ) .

= (o - Po) + (I - PI)XT+1 -

(IV6: 5)

~+1

Diese Darstellung des Prognosefehlers macht seine Quellen deutlich. Zum einen
geht er aus der stochastischen Natur der OLS-Parameterschtzer hervor. o und I
sind Zufallsvariablen, deren Ausprgungen in der Stichprobe mehr oder weniger
stark von den wahren Werten Po und PI der Grundgesamtheit abweichen. Selbst
wenn die wahren Regressionsparameter bekannt wren und von einem korrekt
spezifizierten Regressionsmodell ausgegangen werden kann, kann jedoch ein
Prognosefehler zum anderen auch aufgrund des unbekannten stochastischen Strtenns ET +1 entstehen.
Aufgrund der Annahmen des CLRM ist der stochastische Strterm ET+I mit dem Erwartungswert Null und der konstanten Varianz cl normalverteilt. Die Normalverteilung gilt damit auch fr die OLS-Schtzer o und I' Da der Prognosefehler nach
(IV6: 5) eine lineare Funktion dieser drei normalverteilten Zufallsvariablen ist, ist
auch dieser mit dem Erwartungswert5
E(eT+1)

= E(o

- Po) + E(I - PI)X T+I + E(--T+1)

=0

(IV6: 6)

und der Varianz6

0; = E[(eT+I)'] = E[(o - Po)'] + E[(I - ~I)']X~+I + E[(ET+I )']


+E[(o - ~O)(I - ~1)]2XT+I

(Iv6: 7)

= Var(o) + X~+IVar(I) + 0' + 2XT+ICov(o,I)


normalverteilt. Setzen wir in (Iv6: 7) die Varianzen der OLS-Schtzer (IV2: 23) und
(IV2: 24) und ihre Kovarianz
A

Cov(Po' PI)

-X,

= '"

(IV6: 8)

,0

""' x,
ein,? so erhalten wir nach einigen Umformungen

,_ '[1 + -1 + (XT"'"
+I -

Of - 0'

X)' ]

L,.X t

(IV6: 9a)

Aus (IV6: 9a) erkennen wir, dass der Prognosefehler auf nderungen des Stichprobenumfangs T, der Varianz von X und der Differenz zwischen X,.I und X reagiert.

5 Man beachte dabei, dass o und I unverzente Schtzer sind und Xr+l bekannt (und damit
nicht stochastisch) ist. Aufgrund von (IV6: 6) heit YT+1 im Englischen auch !lunbiased
linear predictorl! von

YT+l"

6 Die Kreuzproduktterme, die die OLS-Schtzer und Er+l betreffen, werden bei Erwartungswertbildung Null, da o - Po und
PI von den EI' ... , Er abhngen, die widerum alle von
t;.. unabhngig sind.
7 Fr eine konkrete Herleitung des Ausdrucks (N6: 8) vgl. z.B. Hill et al. (2001) oder Gujarati
(2003).

I -

IV Einfiihrung in die konometrie

648

Der Prognosefehler fllt umso geringer aus, je hher der Stichprobenurnfang T und
je hher die Varianz von X ist. Der Prognosefehler ist minimal, wenn x,., gleich Je
ist, da dann
(IV6: 9b)
gilt. Die besten Prognosen knnen somit fr Werte x,., nahe X gegeben werden.
Dies ist nicht berraschend, da nmlich mit zunehmender Entfernung von x,., zu
Je der Wert x,., immer mehr aus dem "Erfahrungsbereich" (Sttzbereich) des geschtzten Modells wandert und so die Prognosen an Verlsslichkeit verlieren. Es ist
generell gefhrlich ein Modell stark ber seinen Sttzbereich hinaus auszudehnen.
Da <i' in praktischen Anwendungen meist nicht bekannt ist, mssen wir seinen
Schtzer (IV2: 25) heranziehen, was uns zu folgender geschtzter Prognosefehlervarianz fhrt:
(Iv6: 10)

Die Wurzel von (IV6: 10) ist der sog. Standardfehler einer Punktprognose von
Diesen knnen wir dazu verwenden, den Prognosefehler zu standardisieren:

YT+l"

e T+ 1

E(e T+ 1 )
Of

e T+ 1 - 0
Gf

YT+1 -

YT+l

Gf

Dieser Quotient folgt einer t-Verteilung mit T - 2 Freiheitsgraden, sodass wir aus
ihm nach den im Abschnitt III 2 behandelten Vorschriften ein Prognose- bzw.

Konfldenzlntervall

(IV6:11)

aufstellen knnen, in das Y,., mit einer Wahrscheinlichkeit von 1 - (l fallt. Grafisch
lsst sich dieses Konfidenzintervall mittels Abbildung IV 32 veranschaulichen. Fr
den Fall x,., - Je ergibt sich das kieinsttngliche und damit verlsslichste Prognoseintervall, da hier cr, sein Minimum annimmt. Je weiter x,., von Je entfernt liegt,
desto grer wird cr" was zu einer Verbreiterung des Intervalls fhrt.

L-__

______________, -____- ,____________________

Abbildung IV 32: Prognosekonfidenzintervalle

X,

649

6. Prognose mit geschtzten Regressionsmodellen

Es sei erwhnt, dass die hier am Beispiel des einfachen Regressionsmodells be-

schriebenen Prinzipien auch fr das multiple Regressionsmodell Gltigkeit besitzen. Prognosekonfidenzintervalle, die aus einem multiplen Modell entstehen,

haben die gleiche Gestalt wie jene in Abbildung N 32. Im Falle mehrerer erklrender Variablen sind jedoch die mathematischen Herleitungen der Verteilungsparameter des Prognosefehlers komplexer. 8

6.2.2

Beurteilung der Gte von Prognosen

Nach Abgabe von Prognosen mittels eines geschtzten Regressionsmodells gilt es


die Gte dieser Prognosen zu beurteilen. Wir knnen die Prognosequalitt mittels
IS-Prognosen und!oder OS-Prognosen beurteilen. In Regressionsmodellen handelt

es sich bei den "in sample"-Kriterien z.B. um R , iP oder Ale. Sind das Ziel jedoch
echte Vorhersagen, so ist es aber besser, "out of sample"-Kriterien zur Messung der
Vorhersagequalitt Zu verwenden. Denn ein Modell kann einen guten Fit im Sttz2

bereich haben, aber trotzdem ziemlich schlechte Vorhersagefahigkeiten aufweisen.


Um OS-Prognosefehler Zu erhalten, verwenden wir in der Praxis hufig ex post
Prognosen.
Um die Nhe zwischen prognostizierten und tatschlich realisierten Werten zu

quantifizieren, verwendet man in der Praxis hufig verschiedene Prognosegtemae, von denen wir im Folgenden den mittleren, den mittleren absoluten
und den mittleren quadratischen Fehler sowie den Theilschen Ungleichheitskoeffizienten kurz vorstellen wollen. 9
Das einfachste Ma der Treffgenauigkeit von Prognosen ist der mittlere Fehler
(ME, eng!. mean error). Er ist nichts anderes als das arithmetische Mittel der auftretenden Prognosefehler, d.h.

(Iv6: 12)
wobei v die Anzahl der Vergleichsperioden, Yi ein prognostizierter Wert von Y,
und Y,' ein realisierter Wert von Y, ist. 10 Ein negativer (positiver) Wert von ME entspricht also einer Unter-(her-)schtzung der tatschlichen Realisationen. Gute
Prognosen sollten einen mittleren Fehler von Null aufweisen. Werte, die davon
abweichen, deuten auf eine Verzerrung (eng!. bias) der Prognosen hin, d.h. auf
eine systematische ber- oder Unterschtzung.

Der Nachteil von ME liegt darin, dass sich groe positive und negative Werte gegenseitig aufheben knnen. Gerade daher kommt die durchschnittliche Qualitt

8 Vgl. z.B. Greene (2008), S. 99 ff. Als umfassendes Lehrbuch zum Thema Prognosen empfiehlt sich zudem Diebold (2004).
9 Einen ausgezeichneten berblick ber weitere Verfahren zur Beurteilung der Gte von
Prognosen (z.B. graftsche FehlerdarsteIlungen, Wendepunktanalysen und konometrische
Methoden zur Beurteilung der Unverzerrtheit und Effizienz von Prognosen) bietet z.B.

Dpke (2004).

10 Wir weichen hier bewusst von der bisherigen Notation ab, da wir so im Folgenden die
Mittelwerte und Varianzen der prognostiZierten und der tatschlich realisierten Reihe besser unterscheiden knnen.

IV Einfiihrung in die konometrie

650

von Prognosen im mittleren absoluten Fehler (MAE, eng!. mean absolute error)
besser zum Ausdruck::
(Iv6: 13)
Die Betrachtung des mittleren Fehlers wird in der Praxis meist um die der Fehlervarianz (EV, engl. error variance) ergnzt. Diese ist defmiert als

EV

=.!. f[(y; - Y;) V

ME]' .

(Iv6: 14)

t ..1

Die Fehlervarianz gibt Auskunft ber die Volatilitt der Prognosefehler. Wnschenswert ist ein niedriger Wert der Fehlervarianz, da ein solcher bedeutet, dass
die Prognosefehler nicht weit von ihrem Durchschnitt abweichen, d.h. es zu keinen

krassen Ausreiern bei der Vorhersagegenauigkeit kommt.


Die Vorzeichen der Prognosefehler knnen auch auf eine andere Weise als in For-

mel (1V6: 13) eliminiert werden. Der mittlere quadratische Fehler (MSE, eng!.
mean squared error)
MSE =.!. ~
(yP - Y')'
~,
,

(1V6: 15a)

V t- l

bzw. die Wurzel aus dem mittleren quadratischen Fehler (RMSE, eng!. root
mean squared error)

RMSE =

.!. f
v

(Y; _ Y;)'

t_ 1

(1V6: 15b)

sind dazu die gebruchlichsten Mae. Diese beiden Kennzahlen haben im Gegensatz zum mittleren absoluten Fehler die Eigenschaft, dass groe Fehler strker gewichtet werden als kleine. Zur besseren Interpretation wird der mittlere quadratische Fehler meist in seine Quellen zerlegt. Es lsst sich zeigen, dass

MSE = (y P

Y')' + (Clp - CI,)' + 2(1- p)ClpCI,

(Iv6: 16)

gilt, wobei yP, Y', Clp und CI, die Mittelwerte und Standardabweichungen der
Reihen Y; und Y; sind und p ihr Korrelationskoeffizient ist. Man erkennt, dass
der MSE mit dem Ausma der Verzerrung (erster Term in der Gleichung), Unterschieden der Variabilitt (zweiter Term) und geringer werdender Korrelation zwischen prognostizierter und realisierter Variablen zunimmt.
Die Beurteilung von Prognosen anhand der bisher beschriebenen Mae stt auf
ein prinzipielles Hindernis: Es fehlt an einem Vergleichsmastab, der es erlaubt ZU
entscheiden, ob eine Prognose hinreichend gut oder verbesserungsfahig ist. So
kann Z.B. nicht entschieden werden, ob ein mittlerer absoluter Fehler von einem
Prozentpunkt eine "gute" oder eine "schlechte" Prognoseleistung ist. Eine Mglichkeit, diesem Problem zu begegnen, ist der Vergleich der Prognose mit einer sog.

"naiven" Prognose. In der Praxis verwendet man hufig das Random Walk Modell

651

6. Prognose mit geschtzten Regressionsmodellen

fr die Abgabe einer -naiven" Prognose. Der heute realisierte Wert einer Variablen
stellt danach die -naive" Prognose fr morgen dar.H
Liegt der RMSE der "naiven" Prognose, RMS~, sowie derjenige der zu beurteilenden Prognose vor, so kann damit der sog. Thdl!("hc UnaldcbhdtskocfllzJent
(11JK) berechnet werden. Fr diesen gilt

TUK

RMSE
RMSE-.

12

Diese Kennzahl lsst sich recht einfach interpretieren: Ist TUK - 1, ist die Prognosegte unseres Modells unzureichend, da beide RMSE gleich gro sind. Wir htten
also ebenso auf die Modellschtzung verzichten und lediglich eine "naive" Prognose abgeben knnen. Ist TUK < 1 (TUK > 1), so schneidet das geschtzte Modell bei
der Prognose besser (schlechter) ab als der "naive" Vergleichsmastab.
Zusammenfassend knnen wir also sagen, dass die Mae CN6: 12) - (IV6: 15b) vornehmlich zum Vergleich verschiedenartig spezifizierter Prognosemodelle dienen
(vgl. dazu Beispiel N 6-1). !legt nur ein einziges Modell vor, dessen Prognosegte
beurteilt werden soll, wird stattdessen auf (IV6: 17) zurckgegriffen.
Beispiel IV 6-1

zinsprognose Q .

Mit Hilfe von Jahresdaten von 1960 bis 2008 aus der Online-Datenbank der Deutschen
Bundesbank wollen wir Im Folgenden die PrognosegOte von verschiedenen Modellen zur
Erkl.rung des Dreimonatszinses Y auf dem deutschen Geldmarkt untersuchen. Als exogene erklrende Variablen dienen dabei die deutsche Inflationsrate X, sowie das BIPWachstum Xi. Konkret Schtzen wir die folgenden Modelle:
Modell 0:

YI - PD+~YI-l+~

Modell 1 :

VI = PD +p,Xl1

Modell 2:

VI = PD + ~~1-1 + ~

Modell 3:

VI - ~D+~~I +P:z~t +~

+~

Modell 4:
Das Modell 0 haben wir hinzugefLigt, um zu beurteilen, ob mit dem um eine Periode verzgerten Zins als erklrender Variable eine bessere PrognosegOte erreicht werden kann
als mit den exogenen Variablen X, und Xi. Wir schtzen alle Modelle fOr den Zeitraum
1960 bis 2000 (StCrtzbereich) und bilden damit bedingte Prognosen fUr die Jahre 2001 bis
2008. In EViews mOssen wir dabei beachten, dass bei Schtzung und Prognose stets genau das "sample~ angegeben werden muss, das Schtzungs- bzw. Prognosegrundlage
sein soll. Die Prognose selbst knnen wir Liber den BuHon "Forecast" im Schtzergebnisfenster erzeugen. Dabei ist widerum zu beachten, dass die von uns behandelten bedingten
1-SchriH-Prognosen in EViews als ~static forecasts- gefOhrt werden. Hier wird davon ausgegangen, dass die Variablen der rechten Gleichungsseite bekannt sind. D.h., bei Progno11 Alternativ ist als "naive" Prognose z.B. auch der Mittelwert im Sttzzeitraum oder ein Fort-

schreiben mit der durchschnittlichen Wachstumsrate whrend des Sttzzeitraums denkbar.


12 Es handelt sich hieIbei nicht um die umprunglicb von Theil, H. (1966) vorgeschlagene, jedoch eine in der Pruis gewhnlich bevorzugte Version des TUK. Es ist auerdem anzumerken, dass weitere TUK-Varianten existieren und in den gngigen Softwarepaketen

unterschiedliche implementiert sind. Auch EViews nutzt eine modifIzierte Variante von
(IV6: 17). Es empfiehlt sich daher stets ein Blick in die zugehrigen Softwarehandbcher.

652

IV Einfiihrung in die konometrie


sen von Y werden einfach die Daten fr 2001 bis 2008 in die geschtzten Gleichungen
eingesetzt. Im Gegensatz dazu wUrden bei "dynamic forecasts (nur mglich bei Modell 1)
prognostizierte Werte von Y fOr weitere Prognosen von Yeingesetzt.
Die Schtzergebnisse unserer Modelle zeigen fOr den StlZbereich folgendes Bild, wobei
Standardfehler in Klammem angegeben und eine Signifikanz auf einem Niveau von 5 %
bzw. 1 % wie in Fachpublikationen blich mit' bzw. " gekennzeichnet sind:

C
Y(-I)

Modell 0

Modell 1

Modell 2

Modell 3

Modell 4

2,1760'
(0,8158)
0,6325"
(0,1264)

2,8506"
(0,5333)

3,8681"
(0,7062)

2,6803"
(0,7189)

2,4653"
(0,8787)

1,0005"
(0,1501)

XI

1,0098"
(0,1540)
0,6678"
(0,1967)

Xl(-I)

0,7447"
(0,1877)
0,0458
(0,1280)

X2
X2(-I)

0,3971
0,3812
4,2299

R'

R'

AIC

0,5325
0,5205
3,9513

0,2327
0,2125
4,4710

0,5341
0,5096
3,9967

0,3763'
(0,1543)
0,3390
0,3033
4,3719

Eine erste Betrachtung dieser Ergebnisse zeigt, dass Modell 1 den besten Stichprobenfit
(grtes angepasstes Bestimmtheitsma bzw. kleinster AIC-Wert) aufweist. Die Einbeziehung weiterer unverzgerter und auch verzgerter exogener Variablen (Modelle 2 bis 4)
und auch ein rein autoregressives Modell (Modell 0) liefern keinen besseren Stichprobenfit.
Beurteilen wir nun die PrognosegOte der von uns geschtzten Modelle. In EViews knnen
wir uns dazu automatisch die prognostizierten Zeitreihen ausgeben sowie eine Reihe von
PrognosegOtemaen berechnen lassen. Die GegenObersteIlung der Prognosen und der
tatschlichen Beobachtungen von 2001 bis 2008 sowie der RMSE zeigen folgendes Bild:
.,;,----------------------,

"

.'

'

RMSE

Y ---- VF310

- y ----- VF.J)1 ----VF.JJ2 ---VFJl3 ----YFJ)4

Modell 0

Modell 1

Modell 2

Modell 3

Modell 4

1,1827

1,4938

1,8891

1,4022

1,0745

6. Prognose mit geschtzten Regressionsmodellen

653

Sowohl die Graliken als auch die Fehlermae zeigen zunchst, dass sich die Prognosegte der Modelle mit kontemporren erklrenden Variablen (Modell 1 und 3) kaum voneinander unterscheidet. Eine Verzgerung der erklrenden Variable in Modell 1, die zu
Modell 2 lhrt, bringt eine Verschlechterung der Prognosegte mit sich, wohingegen ein
analoges Vorgehen bei Modell 3, das zu Modell 4 lhrt, die PrognosegOte verbessert. Modell 4 lielert gemessen am RMSE sogar bessere Prognosen als das einlache AR(1 )-Modell
(Modell 0). Interessant ist es auch zu sehen, dass das Modell 1, welches im StlZbereich
den besten "Iit" aufwies, nun als das zweitschlechteste Prognosemodell erscheint.
Die Prognosen aus allen Modellen liegen besonders zwischen 2003 und 2006 deutlich von
den wahren Werten entfernt. Eine mgliche Erklrung dieser starken Verzerrungen lielern
die p-Werte des Breusch-Godlrey LM-Tests auf Autokorrelation erster Ordnung fr die geschtzten Modelle (Modell 0: 0,0260; Modell 1: 0,0009; Modell 2: 0,0007, Modell 3: 0,0003,
Modell 4: 0,0007). Sie geben einen deutlichen Hinweis auf Autokorrelation. Eine Bercksichtung dieser Autokorrelation bei der Prognose knnte daher die Prognosegte verbessern (vgl. AbschnilllV 6.2.3), d.h. der starken systematischen Verzerrung begegnen.

6_2_3

Prognose bel Vorliegen von Autokorrelation

Bisher erstellten wir Prognosen fr lineare Modelle mit Strterrnen, die die Annahmen des klassischen Regressionsmodells erfllten. Sind die stochastischen Strterme eines Modells autokorreliert, so fhrt die Bercksichtigung dieser Effekte oft zu
besseren Prognosen. Betrachten wir dazu das einfache Regressionsmodell

y, = /30 + /3,X, + E,

mit E, = pEH + U, ,
(Iv6: 18)
in dem I pi< 1 und u, - N(O,
gilt. Unter der Annahme, dass /3" 13, und p bekannt sind, kann prinzipiell folgende Prognose abgegeben werden:

a:)

YT+1 = /30 + /3,X T+1 + ET+1

(Iv6: 19)

Da nun E, = PE,_, + u, gilt, ist E[ET+, I ~] = p~ und wir erhalten deshalb


YT+1 = 130 + f3,X T+1 + p~ .
(Iv6: 20)
Der Anteil p des Strterrns wird also in die nchste Periode bertragen. Aufgrund
YT+, = 130 + f3,X T+, + ~+, und (IV6: 20) ergibt sich der Prognosefehler er., damit als
e T+, = YT+, -

YT+, = (/30 + f3,X T+, + ~+,) - (/30 + /3,X T+, + PET)


;;;;;; ET + 1

PE.r ; ; ; UT + 1 "

(Iv6: 21)

Der Prognosefehler ist damit mit einem Erwartungswert von Null und der Varianz

er; = E[(ET+1 - PET)'] = E(E~+1) - 2pE(ET~+1) + p'E(E~)


= E(E~+1) - 2p'E(~) + p'E(E~)

(Iv6: 22)

= (1- p')a,'

norrnalverteilt.1 3 Wie wir hieran erkennen knnen, sind wir also in der Lage, durch
Bercksichtigung der Autokorrelation die Varianz des Prognosefehlers um den Fak-

tor 1- p2 zu verringern.

13 Der bergang von Zeile 1 zu Zeile 2 in (N6: 22) erfolgt, da Em = PE, + um gilt und
und UT+1 unkorreliert sind. Zeile 3 folgt aufgrund von E(~+l) = E(~) = 0:.

e,

IV EinfOhllmg in die Okonomebie

654

In der Praxis sind natrlich IJo. P, und p unbekannt, sodass unsere Prognose YT+1
mittels ihrer Schtzungen generiert werden muss. Setzen wir die entsprechenden
Schtzer in UV6: 20) ein und verwenden wir statt des enthaltenen Strtenns der
Periode T das entsprechende Residuum, so erhalten wir

Es lsst sich zeigen, dass der Etwartungswert des Prognosefehlers, der aus der
Verwendung von UV6: 23) hervorgeht, mit zunehmenden Stichprobenumfang gegen Null geht. Die Vorhersagevarlanzen werden jedoch aufgrund der zustzlichen

Bit

Ungenauigkeit, die durch die Schtzung der Parameter entsteht, grer. Falls Po
und P, geschtzt werden, p jedoch bekannt ist, gilt CN6: 23) als beste lineare Uverzente Vorhersage. Falls p zustzlich geschtzt werden muss, beinhaltet e,. zwar
auch Informationen ber Er.l' aber durch die Schtzung von p ergibt sich eine zustzliche Ungenauigkeit. Deshalb ist insbesondere in kleinen Stichproben nicht
klar, ob UV6: 23) dem einfachen Vorhersagemodell YT+l = () + ~lXT+l berlegen ist.

BeloplellV 6-2

Zinsprognose und Autokorrelation I

In Beispiel IV 6-1 hatten wir bereits den Verdacht geauert, dass die schlechte Prognosegate der von uns geschtzten Modelle auf nicht berucksichtigte Autokorrelation zurckzufhren sein knnte. Schtzen wir unsere Modelle 1 bis 4 unter Verwendung der in Abschnitt IV 4.5.4.1 behandelten FGLS-Methode (p-Werte des Breusch-Godfrey Autokorrelationstests sind nun nicht mehr auffllig) und prognostizieren mit den neuen Schi.tzergebnissen, so erhalten wir folgende Ergebnisse:
~,-~---------------,

..
- y -----'l'F..\A ----'l'F..JlM. ---

RMSE

Modell 1
0,7440

Modell 2
1,2225

'I'F.JIM ---- 'l'FJMA

Modell 3
0,6093

Modell 4
0,8492

Wir erkennen deutlich, dass wir durch Berucksichtigung der Autokorrelation in den Modellschtzungen bessere Prognosen erzielen knnen. Unter unseren Modellen ist nun Modell
3 zu bevorzugen, da dieses den geringsten RMSE aufweist.

Neben der gerade beschriebenen Vorgehensweise zur Bercksichtigung von Autokorrelation bei Prognosemodellen ist in der Pra. vorallem die folgende beliebt:
In Abschnitt rv 4.5.1 haben wir gesehen, dass wir durch Modellierung der dynamisehen Beziehungen zwischen Y und X (Aufnehmen von verzgerten Y und X in

6. Prognose mit geschtzten Regressionsmodellen

655

die Modellgleichung) im Falle von Autokorre1ation ein Modell ohne autokorrelierten Strtenn erhalten knnen. Eine solche Vorgehensweise bietet sich natrlich
auch im Prognosekontext an, um bestehender Autokorrelation zu begegnen (vgl.
Beispiel N 6-3). Der Vorteil dieser alternativen Methodik liegt darin, dass ein derartig spezifiziertes dynamisches Modell weniger restriktiv ist, als ein Modell mit
autokorreliertem Strtenn. 14

BoiopioliV 6-3

Zinsprognose und Autokorrelation 11

Zur Veranschaulichung dynamischer Modellierungen zur Begegnung von Autokorrelation


schtzen wir fUr unser Beispiel IV 6-1 die folgenden drei Spezifikationen. Wir beginnen dabei mit der allgemeinsten Spezlftkatlon 5 und schileBen schr1ttwelse nicht signifikante Variablen aus, bis wir schlielich bei Spezifikation 7 angelangt sind:
Modell 5:

YI - PD+~YI-l +~~1 +~~t_l+P4X2t+P5>4t_l +~

Modell 6:
Modell 7:
YI - PD + ~ Yt - 1+ ~~1 + ~~t-l + EI
Die Modellschtzungen liefern zunchst folgende Ergebnisse, rur die die p-Werte des
Breusch-Godfrey Autokorrelationstests nun nicht mehr auffllig sind:

C
Y(-l)
Xl
Xl (-1)
X2
X2(-1)

R'

R'

AIC

Modell 5
0,8719
(0,9979)
0,5685**
(0,1576)
1,1643**
(0,2657)
-{),7B81(0,2653)
0,1449
(0,1535)
0,0279
(0,1307)
0,6953
0,6505
3,7473

Modell 6
0,9124
(0,9663)
0,5728**
(0,1541)
1,1869**
(0,2403)
-0,8131
(0,2567)
0,1541
(0,1454)

Modell 7
1,7066""
(0,6113)
0,4988**
(0,1376)
1,2810""
(0,2237)
-0,8741
(0,2506)

0,6949
0,8601

0,6851
0,6589
3,6803

3,6987

StandardIehier in Klammem, p < 0,05, P < 0,01

Im Vergleich zu den im Beispiel IV 6-1 geschtzten Modellen fllt zunchst auf, dass wir in
den Modellen 5 bis 7 einen deutlich besseren Stichprobenfit erzielen. Legen wir das in der
Praxis am hufigsten verwendete Ale zugrunde, so kOnnen wir sagen, dass Modell 7 die
Stichprobe sm besten beschreibt.
Betrachten wir nun die Prognosegte unserer drei neuen Modelle: Wieder sehen wir, dass
ein Modell mit gutem Stichprobenfit (Modell 7) eine relativ schlechte Prognosegate aufweist. Im Vergleich zu den Modellen, die Autokorrelation unberiicksichtigt lassen, erkennen

14 Vgl.. dazu z.B. Johnston und Dinardo (1997) sowie Abschnitt N 4.5.1.

IV Einfijhrung in die konometrie

656

wir. dass unsere dynamische Modellierung zu einer Verbesserung der Prognosegte beigetragen hat. Gegeniiber der Korrektur mit der AR(1 )-Methode lsst sich ebenso eine Verbesserung feststellen. Im Vergleich zu Beispiel IV 6-2 kann nun nach RMSE Modell 5 und
nicht lnger das angepasste Modell 3 als bestes Prognosemodell angesehen werden .
5,----------------------,

--v

RMSE

6.2.4

-----VF315 ---VF_OII ---YF_07

Modell 5
0.5852

Modell 6
0.6159

Modell 7
1.0182

Trendprognosen

Wie wir bereits in Abschnitt IV 4.7.2.3 gesehen haben. kann als erklrende Variable
bei Zeitreihenregressionen auch ein linearer detenninistischer Trend vorkommen.
Es ist daher auch relevant, nher zu betrachten, wie mit derartig gestalteten Modellen bei Prognosen vorzugehen ist. Betrachten wir dazu folgendes einfache Modell
mit linearem detenninistischen Trend:

GV6: 24a)
Eine Prognose mit der Schtzung eines derartigen Modells ist denkbar einfach. da
die Variable t bekannt ist. Es gilt

YT+, = o + , (T + 1) .

(IV6: 24b)
Haben wir also unser Modell GV6: 24a) z.B. fr einen Zeitraum von T - 40 Jahren.
d.h. t - 1.2 ... 40. geschtzt. so ist unsere Prognose Y" gleich o + , 41.
Oft verwendet man in der Praxis jedoch logarithmierte Werte von 1'; da konomische Variablen eher mit einer konstanten Rate wachsen, als einen linearen Trend

aufweisen. Wir schtzen also hufig Modelle der Fonm


InY,

=1\0 +I\,t+E,.

GV6: 25a)

Durch Einsetzen von t - T + 1 in die geschtzte Modellgleichung knnen wir dann


jedoch nur In YT+1 prognostizieren. Wir interessieren uns aber fr die Prognose von
Ym . Um diese zu erhalten drfen wir nicht schlicht exp[o + 1\, (T + 1)]. exp(~+1)
mit exp[o + , (T + 1)] schtzen. da wir bei einer derartigen Vorgehensweise Ym
systematisch unterschtzen. Obwohl nmlich der Erwartungswert von E, Null ist. ist
der Erwartungswert von exp(E) aufgrund der Jensenschen Ungleichung (vgl. Ab-

6. Prognose mit geschtzten Regressionsmodellen

657

schnitt TI 2.5) nicht Eins, sondern grer als Eins. Stattdessen empfiehlt sich folgendes Vorgehen: 15 Nachdem in einem ersten Schritt (IV6: 25a) geschtzt wurde, wird
in einem zweiten Schritt Y, (ohne Konstante) auf exp[o + , t] regressiert. Der geschtzte Steigungskoeffizient y dieser Regression wird dann wie folgt bei der
Prognose von YT+l eingesetzt: 16

Y,.. =l'exp[~o +~,(T+l)l


Beispiel IV 6-4

(IV6,25b)
Deterministische Trendmodelle

In diesem Beispiel wollen wir die monatliche Zeitreihe ausstehender Konsumentenkredite


in den USA (Quelle: Board of Govemors des Federal Reserve Systems) von Januar 1943
bis Oktober 2009 (Werte in Milliarden Dollar) nAher untersuchen. Konkret wollen wir den
Wert rur Oktober 2009 prognostizieren und schtzen dazu die deterministischen Trendmodelle (IV6: 24a) und (IV6: 25a) fOr die StOtzper1ode von Januar 1943 bis September 2009
(d.h. T", 801). Wir erhalten die folgenden Sch.tzergebnisse:
Hauptregrassion
Nicht-log-Modell
Log-Modell

-530,5627--

2,8295""

(25,5521)
2,3287**

(0,0553)
0,0074**

(0,0163)

(0,0000)

Hilfsregression

1,000**
(0,000)

Standardlehl.r in Klamlnllm, p < 0,05, P < 0,01

Wir knnen nun damit die ausstehenden Konsumentenkredite (KK) im Oktober 2009 prognostizieren:
Nicht-log-Modell:

KKl0/2OOI -

Log-Modell:

KKlgJ200I

-530,5627 +2,8295 802 - 1.738,70

= 1 exp(2,3287+ 0,0074 802) '" 3.879,65

Ein Vergleich mit den tatschlichen ausstehenden Konsumentenkrediten im Oktober 2009,


also 2.482,90 Milliarden Dollar, zeigt, dass keines der beiden Modelle brauchbare Prognosen liefert. Eine BegrOndung fr diese schlechten Prognoseergebnisse liefem die nachfolgenden Ausffihrungen.
In vielen Fllen gengt es nicht, allein die Trendkomponente zu modellieren. Hu-

fig weisen Zeitreihen neben einem Trend auch noch saisonale oder konjunkturelle
Muster auf. So knnen wir beispielsweise ein lineares Trendmodell mit einem
AR(n-Prozess und Saisondummies kombinieren. In dieser Einfhrung wollen wir
aber nicht weiter darauf eingehen und verweisen fr eine leicht verstndliche Darstellung auf Diebold, F.X. (2004).
Deterministische Trendmodelle sollten bei konomischen Variablen auerdem nur
mit groer Zurckhaltung angewendet werden, insbesondere wenn weit in die Zu15 Vgl. Wooldridge (2006), KapitellS.

16 Eine andere Vorgehensweise besteht darin, den Kotrekturfaktor Y mit exp(cY / 2) zu


schtzen, wobei cY die geschtzte Varian2 von E in crv6: 25a) darstellt. Dies erl'ordert
aber die Annahme der Normalverteilung des Strtenns.

IV Einfijhrung in die konometrie

658

kunft vorausgesagt wird l7 Es bestehen hierbei nmlich generell zwei Gefahren:


Erstens kann eine schlechte Vorhersage resultieren, falls es am Ende des Sttzbereichs oder im Prognosebereich zu einer Vernderung des Trendverhaltens kommt.
Zweitens folgen die meisten konomischen Variablen eher stochastischen als deterministischen Trends. Bei integrierten Variablen mit Drift fhrt die Verwendung
eines deterministischen Trendmodells zu einer starken Erhhung der Varianz des
Vorhersagefehlers (vgl. nachfolgende Ausfhrungen).
Viele konomische Variablen folgen eher stochastischen als deterministischen
Trends. Fr Variablen mit Unit Roots eignet sich die bisher beschriebene Vorgehensweise nicht. Betrachten wir dazu einen einfachen Random Walk mit Drift S
(vgl. Abschnitt N 4.7.2.2). Fr diesen gilt h Perioden in der Zukunft
(N6: 26)

wobei jedes E,> einen bedingten Erwartungswert von Null und eine konstante Varianz 0' besitzt. 18 Der bedingte Erwartungswert von YT>. gegeben den Infonmationen
der Periode T ist daher Y T + S . h und die Varianz des Prognosefehlers 0' . h. Die
Varianz des Vorhersagefehlers bei stochastischen Trends wchst somit proportional
zum Vorhersagehorizont. Gerade daher ist es sehr schwierig, Random Walks mit
(oder ohne) Drift weit in die Zukunft zu prognostizieren.
Verwenden wir zur Prognose eines Random Walks mit Drift ein deterministisches
Trendmodell, so gilt
(Iv6: 27)
YT + h = Yo + S(T + h) + E, + E, + ... + ~+h. '
UT+h

wobei Y, die Rolle des Achsenabschnitts

~,

im linearen Trendmodell einnimmt. Der

Prognosefehler besitzt noch immer einen bedingten Erwartungswert von Null, weist

nun jedoch eine Varianz von 0' . (T + h) auf. Nutzen wir also ein deterministisches
Trendmodell ~o + ~,(T + h) zur Prognose von YT>h' liegt die Varianz des Prognosefehlers bei 0' . (T + h), wohingegen sie mit dem Modell YT + S . h nur bei 0' . h
liegt. Die Varianz des Prognosefehlers kann also bei einem deterministischen
Trendmodell viel grer sein als beim Modell YT + S . h, insbesondere wenn T gro
ist. Deswegen sollten wir keine deterministischen Trendmodelle nutzen, um integrierte Variablen zu prognostizieren.

6.3 Unbedingte Prognosen


Im Rahmen bedingter Prognosen sind wir bisher davon ausgegangen, dass die
Werte der erklrenden Variablen fr die Prognoseperioden bekannt sind. Vorallem
bei ex ante Prognosen ist aber eine solche Annahme uerst unrealistisch. In

einem solchen Fall mssen zunchst die erklrenden Variablen prognostiziert wer-

den, bevor eine Prognose fr die erklrte Variable abgegeben werden kann. Eine
typische Prognose fr die erklrte Variable eines Modells
17 Hier ist in den Prognoseformein (IV6: 24b) bzw. (IV6: 25b) der Tenn T + 1 durch T + h zu
ersetzen, wobei h bestirrunt, wie weit (wie viele Perioden) in die Zukunft prognostiziert
werden soll.
18 Der Drifttenn kann mit dem arithmetischen Mittel der ersten Differenzen von Yt konsistent
geschtzt werden.

659

6. Prognose mit geschtzten Regressionsmodellen

(IV6,28.)

htte also hier die Form

Yr+1 = o + IXT+1 .

(IV6: 28b)
Feldstein, M. (1971) zeigt an einem einfachen Beispiel formal auf, dass bei einem
korrekt spezifizierten Modell auch bei unbedingten Prognosen der Erwartungswert
des Prognosefehlers bei Null liegt, jedoch die Varlanzdes Prognosefehlers im Vergleich ZU bedingten Prognosen hober ist, wenn die Prognose der erklrenden Variable nicht exakt ist. Dies ist aber nicht verwunderlich, da schlielich durch die
Schtzung der erklrenden Variable eine weitere Unsicherheits- und damit Fehlerquelle auftritt. Er zeigt auerdem, dass YT+1 nicbt mehr normalveneilt ist. Dies hat
zur Folge, dass wir keine Prognosekonfidenzintervalle mehr ableiten knnen. 19

BoispioliV 6-

Unbedingte Zinsprognose Q .

Zur Veranschaulichung der GOte unbedingter Prognosen schtzen wir im Folgenden auf
Basis des Datenmaterials aus Beispiel IV 6-1 zunchst ein einfaches AR(1 )-Modell rur die
InflaUonsrate fOr den StOtzberelch von 1960 bis 2000 und prognostizieren damit die Inflationsrate rur die Jahre 2001 bis 2008. Diese PrognoseW8rte verwenden wir dann, um unbedingte Prognosen fOr das Zinsniveau abzugeben. Konkret schAtzen wir also rur den Zeitraum 1960 bis 2000 die Modelle
Inflationsmodell:

x,t = ag +a,X,t_l +ut

Modell 1:

Yt=Po+p,x,t+~

und verwenden dann die Prognosen aus dem Inflationsmodell in der Schtzung von Modell
1 zur Prognose des ZInsnIveaus, d.h. tOr die erste Prognose auerhalb des StOtzberelchs
gilt

YT+l = Po +P,X,T+' +~.


Betrachten wir nun sowohl die Gate des Prognosemodells rur die Inflationsrate als auch
die GOte der unbedingten Prognosen. Wir erhalten folgende Ergebnisse:

u',-------------------,

M',-------------------,

- X I ----XlF

- y ----

YFJNBl

Inflationsmodell

RMSE

0,4317

1.7031

19 Es lsst sich aber eine grobe Schtzung des Konfldenzintervalls generieren, wie z.B.
Pindyck, RS., Rubinfeld, D.L. (1998), KapitelS, zeigen.

IV Einfijhrung in die konometrie

660

Wir erkennen zunchst, dass das autoregressive Modell brauchbare Prognoseeigenschaften aufweist. Vergleichen wir die unbedingte Prognose mit der bedingten aus dem Beispiel
IV 6-t (RMSE"""o" 1 = t ,4938), so hat sich wie erwartet die PrognosegOte durch die Vorhersage der Inflationsrate verschlechtert. Modell 2, welches an Stelle der Schtzung eines
AR{t )-Modells fr die Inflationsrate direkt die um eine Periode verzgerte Inflationsrate als
erklrende Variable verwendet, schneidet nur leicht schlechter ab, als das unbedingte
Prognosemodell.

6.4 Zusammenfassung
Fassen wir zusammen, so hat uns Abschnitt IV 6 gezeigt, dass selbst Regressionsmodelle mit einem guten "fW' und signifikanten Parametern ungenaue Prognosen
liefern knnen. Auch Autokorrelation des Strtenms kann die Prognosegte entscheidend negativ beeinflussen und sollte daher bei der Prognosebildung "bercksichtigt" werden (z.B. mittels FGLS oder dynamischer ModelIierung durch Einbeziehung verzgerter Y und X). Ist eine Prognose der erklrenden Variablen erforderlich, so kann eine Prognose sogar noch unprziser werden. Darber hinaus ist zu
bemerken, dass es durchaus mglich ist, dass ein Modell, welches gute bedingte
Prognosen liefert, sich bei unbedingten Prognosen als mangelhaft erweist. Man
sollte daher ein Modell mit hohen Prognosefehlem nicht generell ablehnen, wenn
dies hauptschlich auf die Prognose der erklrenden Variablen zurckzufhren ist.
Deshalb sind geeignete Modelle zur Untersuchung kausaler Zusammenhnge nicht
notwendigerweise gute Prognosemodelle und umgekehrt. Offensichtlich ist dies bei
reinen Zeitreihenmodellen (sog. ARMA-Modelle), die die Entwicklung einer Variablen nur aus ihrer eigenen Vergangenheit heraus und evtl. weiteren deterministischen Variablen erklren. 20

20 Fr einen tiefergehenden Einblick in diese Modellklasse vgl. z.B. Diebald (2004) oder Tsay
(2005).

Aufgaben

OLS-Methodlk

Aufgabe 01
Welche Transformationen sind erforderlich um die folgenden Funktionen mittels
OLS schtzen zu knnen? Welche Funktionen sind nicht mit DLS schtzbar?

, =e"~x"

a) Y; = Po + :tX: + EI

d)

b) Y; = PoX~ + Ei

e)

InYI=O+Plln~ +E,

YI

c)

y;

= e"'+~x" .....

=R

1-'0

+E

X~e"
I

Aufgabe 02

01

Gegeben seien die folgenden 5 Beobachtungen von Y, - {5, 2, 3, 4, I} und X. - {3, n


2, 1, 3, 2t. Schtzen Sie damit die Parameter der folgenden Regressionsmodelle so- ~
wohl ''von Hand" als auch mit der Hilfe von MS Excel:

a) Y; = Po + :tX1 + EI
b) Y; =)3o+!itlnX, +El
c) "Y;=o+tX:+Ej
BeurteUen Sie auerdem, welches Modell den grten Anteil der Variabilitt von Y
erklren kann!
Aufgabe 03

Nehmen Sie an, Ihnen ist bekannt, dass in einem einfachen linearen Regressionsmodell

Po - 0 und PI '* 0 gilt. Leiten Sie fr diesen Fall den OL&-Schtzer fr l her!
flo durch, wenn PI - 0 und

Fhren Sie die gleiche Herleitung fr den Schtzer von


130 -= 0 gilt!

Anlphc04
Nehmen Sie an, Ihnen liegen aus einer einfachen Regression folgende Werte vor:

L cx. -X)cY, - Y) = 655

L (X, - x)' = 1.305

LX, =475

Lv, =405

n=8

Zeigen Sie mittels dieser Zahlen, dass die sich hier ergebende Regressionsgerade
durch den Punkt
Y) verluft!

ex,

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_20, Springer Fachmedien Wiesbaden 2015

662

IV Einfiihrung in die konometrie

Aufgabe 05
Nehmen Sie an, Sie wollen ein Regressionsmodell Y, = 130 + f3,X, + E, schtzen.
Welche Auswirkung hat
a) bei unvernderten Y-Werten die Multiplikation aller X-Werte mit 10
b) bei unvernderten X-Werten die Multiplikation aller Y-Werte mit 10
auf die Schtzungen

und

, und die Schtzung fr die Varianz des Strterms?

Aufgabe 06
Nehmen Sie an, Ihnen liegen aus einer einfacben Regression n = 50, X = 70,55, die
geschtzte Varianz des Strterms 2,05 und die geschtzte Varianz von
mit 0,001
vor. Wie hocb sind (a) die Residuenquadratesumme, (b) die Summe E(X, - X)'
und Varianz von X sowie (c) die Summe der quadrierten x,?

Aufgabe 07
Gegeben seien die Y-Werte 5, 2, 3, 2, -2 und die korrespondierenden X-Werte 3, 2,
1, -1, O. Die OLS-Schtzung von Y,.= 130 + f3,X, + E, liefert
= p, = 1. Schtzen Sie
die Varianz des Strterms und von f3,!

Aufgabe 08
Bestimmen Sie anhand der im Folgenden gegebenen Werte die jeweils gesuchte
Gre!
a) Gegeben: L(Y, -Y)' =631,63, Le; =182,85
Gesucht:

R'

b) Gegeben: n=20, LY,'=5.930,94, L(Y,-Y)' =788,52, Y=16,035,


ESS = 666,72
Gesucht:

R'

c) Gegeben: R' = 0,7911, TSS = 552,36, n = 20, K = 1


Gesucht:

&2

Aufgabe 09
Nehmen Sie an, eine Regression liefert die folgenden Ergebnisse (Standardfehler in
Klammem):
)T, = 5,83 + 0,869X,
0,23) (0,117)

R' = 0,756

Wie wrden die Regressionsergebnisse aussehen, wenn


a) alle Werte von X vor der Schtzung durch 10 dividiert werden?
b) alle Werte von Y vor der Schtzung durcb 10 dividiert werden?
c) alle Werte von X und Y vor der Schtzung durch 10 Dividiert werden?
Bercksichtigen Sie bei Ihren Antworten auch die Erkenntnisse aus Aufgabe 05!

7. Aufgaben

663

Aufgabe 010

02

Von einer konomischen Variable Y, fr die Jahresdaten von 1950 bis 1997 vorlie-1flI
gen, wird vermutet, dass sie aufgrund technologischen Fortschritts in einer der drei ~
folgenden funktionalen Fannen positiv vom Zeitverlauf t (1, ... , 48) abhngt:

a) Yt=o+,t+E t
b) Yt =

c)

Po + Pt ln(t) +E

Yt=o+tt+~e+et

Schtzen Sie jede der drei Gleichungen mittels des Zahlenmaterials im OnlineService und beurteilen Sie anhand der grafischen Darstellung der geschtzten Funktion und der Residuen sowie mittels eines geeigneten Maes, welche Gleichung zu
prferieren ist!
Aufgabe 011
Es soll das Modell YI = Po + ~Xl! + ~X:IJ. + Ei mittels der Daten der nachfolgenden
Tabelle "von Hand~ geschtzt werden:

x"

Y,

-2

2
-2

-1
0

-I
2
1

1
-1
-1
1
1

-2
0
-1
1

a) Schtzen Sie die Model1parameter


b) Schtzen Sie

x"

o.

0
PI und 3!

cl und den Standardfehler von

I!

c) Wie hoch sind RSS, 1'88, ESS und R1

Aufgabe 012
Aus dem EViews-Output einer Regression mit zwei erklrenden Variablen knnen

Sie die Werte "Included observations" - 40, "S.E. of regression" - 5,146058, "Surn
squared resid" - 979,8306, "Mean dependent var" - 16,97628 und "S.D. dependent
vat' - 13,45222 entnehmen. Wie hoch sind die Varianz von Y, TSS und R~

IV Einfiihrung in die konometrie

664

Hypothesentests, Modellspezifikation und Multikollinearitt


AufgabeIl

a) Ist eine OLS-Schtzung im einfachen Regressionsmodell bei n - 20 (n - 100)


signiftkant von Null verschieden, wenn ihr t-Wert bei 2 liegt und a - 0,05 ist?
b) Wie lauten jeweils die Testentscheidungen auf Basis der p-Werte 0,005 und
0,0108 bei einem zweiseitigen Signifikanztest (a - 0,05 und a - 0,01)?
Aufgabe 12
Hanson, G.H. und Spilimbergo, A. (1999) untersuchten mittels Monatsdaten von
Januar 1968 bis August 1996 den Effekt des mexikanischen Lohnniveaus und von
Grenzkontrollen auf die Anzahl aufgegriffener illegaler Einwanderer an der Grenze
zwischen den USA und Mexiko.
a) Sind A, die Anzahl illegaler Einwanderer, die im Monat t von der US-Grenzkontrolle festgenommen werden, und E, die Personenstunden, die im Monat t
zur Grenzkontrolle aufgewendet werden, so wurde folgendes Schtzergebnis
erzielt, wobei die Schtzung der Konstanten im Papier nicht aufgefhrt wurde:

In(~J=o+o,51O'ln(~J
A
Et-1
t_1

a" =0,126

Interpretieren Sie diese Gleichung und testen Sie die Hypothese H,,: 13, - gebei einer Irrtumswahrscheinlichkeit von 5 %! Konstruieren
genber HA: 13,
Sie auerdem ein 95 %-Konftdenzintervall fr 13, und interpretieren Sie dieses!
b) Bezeichnet man mit 1, das reale Stundenlohnniveau im mexikanischen Manufaktursektor, so ergab die Studie zudem folgendes Ergebnis:

In(~J
= o -0,550 'ln(~J
A
L
_
t 1

_
t 1

a" =0,169

Interpretieren Sie diese Gleichung und testen Sie bei einer Irrtumswahrscheinlichkeit von 5 % die Hypothese Ho: 13, ~ gegenber HA: 13, < O!
AufgabeI3
Eine von Hili, R.C., Grlfftths, W.E. und Judge, G.G. (2001) durchgefhrte Querschnittsregression Y, = 130 + 13,X, + E, mittels derer versucht wird, das durchschnittliche Einkommen Y (in Tsd. Dollar) volljhriger Mnner in den 50 amerikanischen
Staaten und dem District Columbia durch den prozentualen Anteil volljhriger
Mnner (im jew. Staat) mit Hochschulabschluss X zu erklren, lieferte Folgendes:

Dependent Variable: Y
Method: Least Squares
Variable
Coefficient
C

(a)

Std. Error
2,173807

0,180141

(b)

Sampie: 1 51
Included Observations: 51
t-Statistic
Prob.
1,257
(c)
5,754
0,0001

a) Bestimmen Sie die fehlenden Werte (a) bis (c) in obiger bersicht!

7. Aufgaben

665

b) Konstruieren Sie ein 99 %-KonfidenzintervaIl fr den Steigungsparameter!

c) Testen Sie die Hypothese, dass der Steigungsparameter 0,2 ist, gegenber der
Hypothese, dass er von 0,2 verschieden ist Ca - 0,05)! Interpretieren Sie Ihr Ergebnis im Hinblick: auf seine konomische Bedeutung!

AufgabcI4

n.3

Caulkins, J.P. und Padman, R. (1993) untersuchten u.a. die Entwicklung des
Kokainpreises Y (Dollar je Gramm) in Kalifomien von 1984 bis 1991 mittels des ~
einfachen Modells Yt = Po + ,Xlt + 2X2t + 5X 5t + ~, in dem ~ die Granunzahl je
Verkauf, ~ die Qualitt des Kokains (ausgedrckt als prozentuale Reinheit) und
eine Zeitvariable X, mit 1984 - 1, ... 1991 - 8 darstellen.
a) Nutzen Sie die Monatsdaten aus dem Online-Service (Auszug aus dem der Studie zugrunde liegenden Datensatz) zur Schtzung des obigen Modells! Haben
alle KoeffIzienten das erwartete Vorzeichen?
b) Wieviel Prozent der Variation des Kokainpreises wird durch die drei gewhlten
Variablen erklrt?
c) In Anbetracht der Tatsache, dass bei grerer Verkaufshufigkeit das Risiko
steigt, von der Polizei gefasst zu werden, knnte man behaupten, dass die
Verkufer bei greren Mengen niedrigere Preise verlangen. BUden Sie die
Hypothesen, mit denen sich eine derartige Behauptung testen lsst, und fhren
Sie den Test durchl
d) Testen Sie die Hypothese, dass die Kokainqualitt keinen Einfluss auf den Preis
hat, gegenber jener, dass es eine Qualittsprmie auf dem "Markt" gibt!
e) Wie hoch ist die durchschnittliche jhrliche Vernderung des Kokainpreises?
Begrnden Sie die Richtung der Vernderung!

Aufgabe 15
.4
Schtzen Sie mittels des fiktiven Zahlerunaterials im Online-Service die folgende
produktionsfunktion Yt = OXltIl,X2tll,e", in der Y das Bruttosozialprodukt, ~ den ~
Arbeits- und ~ den Kapitaleinsatz darstellen und testen Sie die folgenden Hypothesen bei einem Signifikanzniveau von 1 %:

a) Ho: Pt - 0 gegenber HA: Pt 'Ii= 0


b) Ho: Pt - 0, P1 - 0 gegenber Hol: Pt;#. 0 und/oder P1;#. 0
c) Ho: "Konstante Skalenertrge" gegenber H...: UKeine konstanten Skalenertrge",
d.h. Ho: Pt + pz - 1 gegenber H...: Pt + pz;#. 1
Untersuchen Sie auch den Einfluss von Multikollinearitt in diesem Modell und beurteUen Sie das geschtzte Modell im Hinblick auf Ihre ErgebnisseI

AufgabcI6
In ein Modell YI = Po + PtXU + EI wurde eine berflssige Variable Je, integriert, sodass ein neues Modell YI =J1~ + P~Xu + P;X 21 + E; mit E: =EI - P;X 2I resultiert (vgl.
dazu Abschnitt IV 4.1.2).
Zeigen Sie formal, dass dies keine Verzerrung des OLS-Schtzers des Steigungsparameters von ~ zur Folge hat, d.h. dass E(;) = Pt gilt! Gehen Sie dabei von
(IV1: 18) aus und beachten Sie, dass I:YIXid = I:Ylxid gilt.

IV EinfOhn.mg in die Okonomebie

666

AufpbcrT

Die Schtzung eines Modells Y, = Po + !itXu + ~~Xll + e, mit 20 Beobachtungen ergab neben ~ = 2,5193 und R2 = 0,9466 folgende Parameterschtzungen und geschtze Varianz-Kovarianz-Matrix:

~. 1 [0,0,6991
9659]

[,
~,

1,7769

CoV

. 1 [0, 2181
~ = 0,0192
[, -0,0503

0,0192 -0, 0503]


0,0485 -0,0312
-0,0312 0,0371

a) Bestimmen Sie ein Konfidenzintetvall fr /11 und testen Sie die Nullhypothese
1\: PI - 1 gegenber H...: PI'* 1! Gehen Sie dabei jeweils von einer Irrtumswahrscheinlichkeit von 5 % aus!
b) Testen Sie mittels eines F-Tests die Hypothese H.,: PI - 132 - 0 gegenber HA:
"mindestens ein ist von Null verschieden"!

AufpbcI8

Nelunen Sie an, die Schtzung eines Modells Y1 = Po + !itXu + ~Xli


Beobachtungen liefere folgende Ergebnisse:

+ EI mittels 63

Testen Sie mittels dieser Daten und geeigneter t-Test-Varlationen die folgenden
Nullhypothesen bei a - 0,05:
a)

.5

1 - 0

b)

O+I - 4

c)

1+2/12 - 2

AufpbcI9

Schtzen Sie mittels der ftktiven Daten im Online-Service die folgende einfache
~ Kostenfunktion y; = o + IXi + 2X~ + ,X~ + Ei fr 28 Unternehmen einer Branche, in der Yj die Gesamtk:osten der i-ten Unternehmung und :x,. die gefertigten
Stckzahlen beschreiben.
a) Testen Sie die Hypothese, dass eine lineare Kostenfunktion fr die Beschreibung der Daten ausreichend ist!
b) Testen Sie, ob eine quadratische Kostenfunktion die Daten ausreichend beschreibt!
c) Schtzen Sie die logarithmische Kostenfunktion In Yi = flo + i In ~ + EI! Fhren
Sie fr diese und die Funktion YI = o + IXI + 1X~ + ,X~ + EI RESET-Tests
(Einbeziehung von einer und zwei Proxyvariablen y 2 bzw. Y') durch und beurteilen Sie, ob die logarithmische Funktion der polynomialen vorzuziehen ist!
Ist eine logarithmische Kostenfunktion unter konomischen Gesichtspunkten
sinnvoll?
d) Begrnden Sie, warum im Modell, welches beim RESET-Test geschtzt wird,
nicht auch Y; als Proxyvariable einbezogen wird?

7. Aufgaben

667

Dummy-Variablen

AufgabeDl

da-n

.6
Ein jngst gegrndeter konometrielehrstuhl einer Universitt interessiert sich
fr, ob es den Studenten beim Berufseinstieg einen finanziellen Vorteil bringt, ~

wenn sie das Fach konometrie belegt haben. Mit Datenmaterial zu den letzten 50
Absolventen Cvgl. Online-Service) soll daher ein Modell Y! - Po + ~,~ + PPu + E!
geschtzt werden, wobei Y fr das Einstiegsgehalt in US-Dollar, X fr den Notendurchschnitt auf einer amerikanischen 4,0-5kala (d.h. je hher der Notenwert, desto
besser) und D, fr eine Dununy-Variable steht, die den Wert 1 annimmt, wenn der
Student i konometrle belegt hatte, und andernfalls 0 ist.
a) Nutzen Sie das Daterunaterial des Online-Se1Vices zur Schtzung dieses Modells!
Interpretieren Sie die konomische Bedeutung Ihrer Schtzergebnisse!
b) Nehmen Sie an, es liegt eine Dummy-Variable Da vor, die den Wert 1 annimmt,
wenn der betrachtete Student weiblich ist, und andernfalls 0 ist. Wie wrden
Sie das gegebene Modell modifizieren, wenn Sie untersuchen mchten, ob
Frauen ein niedrigeres Einstiegsgehalt als Mnner aufweisen? Schtzen Sie Ihr
neues Modell und interpretieren Sie die Ergebnisse!

c) Wie ist das Ausgangsmodell zu modifizieren, wenn untersucht werden soll, ob


die Belegung des Fachs konometie fr Mnner und Frauen den gleichen
finanziellen Vorteil bringt? Schtzen und interpretieren Sie Ihr neues Modell!
Aufgabe D2

Ein Modell zur Erklrung der Preise Y von Einfamilienhusern in einer lndlichen
Region im Zeitraum von 2000 bis 2004 liefere folgende Schtzergebnisse:

Y, = 21.456 + 1.900~, -1.000X

21 -

4.393Du -10.435D2I -13.1740" -19.0410.(1

Alle Parameter sind signifikant. ~ und ~ beschreiben die Quadratmeterzahl und


das Alter der Gebude. 0 1 bis D4 sind Jahres-Dwnmies (Verkaufsjahr) fr die Jahre
2001 bis 2004, wobei das Jahr 2000 als Referenzkategorle anzusehen ist.
a) Interpretieren Sie die geschtzten Koeffizienten des Modells!
b) Was passiert bei der Schtzung des Modells, wenn auch fr das Jahr 2000 eine
Dummy-Variable ins Modell integriert wird?

AufgabeD3
.7
Nehmen Sie an, aus einer Datenerhebung in zwei Wohngebieten, von denen eines
in der Nhe einer Universitt und das andere etwas weiter von dieser entfernt liegt, ~
resultieren 1.000 Beobachtungen fr die Variablen Y: Preis der Immobilie in Euro,
Je,.: Wohnflche in m1 , ~: Alter der Immobilie in Jahren und die Ournmyvariablen
D\: Universittsnhe (1 - hoch, 0 gering), 0 1 : Pool (1 - ja, 0 - nein), O~: Kamin
(1 - ja, 0 - nein).
a) Schtzen Sie mittels der ftktiven Oaten im Online-Service das Modell

Yj = Po +PtDll +P2~1 +P~XtlD1! +P4X21 + ~D21 +P6D~1 +Ej


und interpretieren Sie die Ergebnissei

668

IV Einfiihrung in die konometrie

b) In empirischen Studien wird hufig der logarithmierte Immobilienpreis als erklrte Variable verwendet, d.h. linksseitige Semi-Log-Forrnen bei der Modellbildung herangezogen. Schtzen Sie das Modell aus a) mit einer derartigen Modifikation und interpretieren Sie die Schtzungen der Parameter von Je, und Je,!
c) Berechnen Sie die durchschnittliche prozentuale Immobilienpreisnderung, die
durcb die Prsenz eines Pools entsteht!
d) Berechnen Sie die durchschnittliche prozentuale Immobilienpreisnderung von
Husern mit einer Flcbe von 2.500 m', die durch Universittsnhe entsteht!

7. Aufgaben

669

Heteroskedastizitt und AutokorrelatioD

AufgabeHAl
Betrachten Sie ein Modell Y
Po + j}1~ + ~. in dem Y! fr die LebenSmittelaus-i - ,
gaben und ~ fr das Einkommen des i-ten Haushalts stehen.
a) Schtzen Sie dieses Modell mittels des fIktiven Datenmaterials aus dem QnlineService und testen Sie mit Hilfe des White-Tests auf Heteroskedastizitt!
b) Schtzen Sie das Modell unter den Annahmen, dass var(e) gleich
j

er

crX:

JX:

In Xl
)
c:rX,
)
iv) ci
ist, und beurteilen Sie die Sensitivitt der Parameterschtzungen und der 015Standardfehler auf nderungen der Heteroskedastizittsspeziflkatlon! Nutzen Sie
auerdem fr jede Spezifikation den White-Test um zu prfen, ob die Heteroskedastitzitt eliminiert werden konnte!
i)

AufgabeHA2
.9
Dougerty. C. (1992) spezifiziert zur Erklrung der Bildungsausgaben pro Kopf Y
durch das BIP pro Kopf X das einfache Regressionsmodell Y, - Po + IX, + E, und ~
schtzt es mit Daten ZU 34 Lndern aus dem Jahr 1980 CvgL oline-Service).
a) Warum ist hier zu befrchten, dass die Strtennvarianz heteroskedastisch ist?
b) Schtzen Sie das Modell mit OLS und untersuchen Sie eine grafische Darstellung der quadrierten Residuen auf Anzeichen fr Heteroskedastizitt?
c) Testen Sie mittels des Breusch-Pagan LM-Tests auf Heteroskedastizitt!
d) Konstruieren Sie sowohl mit den Standardfehlern aus b) als auch mit den von
White vorgeschlagenen heteroskedastizittsrobusten Standardfehlern ein 95 %Konfidenzintervall fr 1111 Beurteilen Sie das Konfidenzinterva11, welches der
Heteroskedastizitt nicht Rechnung trgt!
e) Schtzen Sie das Modell unter der Annalune Var(e) - ~ und konstruieren Sie
erneut ein 95 %-Konfidenzintervall fr 1l1! Was knnen Sie ber die Intervallbreite im Vergleich zu denen aus d) aussagen?

n,.

Bei einer Erhebung in 38 Haushalten einer Kleinstadt konnten die Lebensmittelausgaben Y (in Tausend Euro), das Haushaltseinkommen ~ (in Tausend Euro) und ~
die Anzahl der im Haushalt lebenden Personen X. festgestellt werden.
a) Schtzen Sie das Modell YI - o + l~l + Il~ + EI mit den fiktiven Zahlen im
Ooline-Service und interpretieren Sie ihre Ergebnisse!
b) Gibt eine grafische Analyse der quadrierten Residuen Hinweise auf Heteroskedastizitt? Untermauern Sie Ihre Ergebnisse durch den White-Test und den
Breusch-Pagan IM-Test!
c) Bestimmen Sie die White-Standardfehler fr die Modellschtzung! Kam es zu
einer Ober- oder Unterschtzung der Przision der OLS-Schtzer?
d) In. Abhngigkeit welcher Variablen wrden Sie Var(e) im Ralunen einer WLSSchtzung des vorliegenden Modells modellieren? Wanun ist es h.uflg besser
die Verwendung von White-Standardfehlern der WLS-Schtzung vorzuziehen?

IV EinfOhn.mg in die Okonomebie

670

AufpbellA4
Betrachten Sie das ModelllnY, - o + tlnXu + ~ + a;. welches das logaritlunierte
Investitionsaufkommen In Y Deutschlands durch das logarithmierte BIP In Xl und
das Zinsniveau ~ in Prozent (jeweils real) zwischen 1955 und 2009 erklren solL

a) Schtzen Sie das Modell mit den im Online-Service zu findenden Daten der
Deutschen Bundesbank und interpretieren Sie die Ergebnisse!
b) Gibt eine grafische Darstellung der Residuen Hinweise auf Autokorrelation?

c) Testen Sie mit dem Dutbin-Watson-Test auf positive Autokorrelation erster


Ordnung

Ca -

0,01)!

d) Beschreiben Sie allgemein, welche Konsequenzen Autokorrelation fr das gegebene Modell nach sich zieht und geben Sie Mglichkeiten an, Autokorre1alion erster und hherer Ordnung Rechnung ZU tragen!
Aufpbc HAS
Das sog. Erfahrungskurvenkonzept besagt, dass Personal im Zeitverlauf Erfahrung
~ sammelt und damit bei der Arbeitserfllung effizienter wird. Unmittelbare Folge
daraus ist, dass immer weniger Arbeitsstunden und damit weniger Kosten erforderlich werden, um ein produkt herzustellen. Zur empirischen berprfung dieses
+ ~ verKonzepts wird in der Praxis meist das einfache Modell ln Y, - Po + ~,ln
wendet (vgL z.B. Bemdt, E. (1991)), in dem Y, die Stckkosten in t und
die
kumulative Produktionsmenge bis t - 1 darstellt.
a) Schtzen Sie dieses Modell mit dem fiktiven Datenmaterial im Online-Service
und interpretieren Sie die Ergebnisse!
b) Gibt die Durbin-Watson-Statisik: Hinweise auf Autokorrelation erster Ordung?
Zu welchem Ergebnis kommt der Breusch-Godfrey LM-Tests beim Test auf
Autokorrelation erster Ordnung? Verwenden Sie jeweils er; - 0,05!
c) Fluen Sie eine GLS-Schtzung durch, welche Autokonelatlon erster Ordnung
Rechnung trgt, und interpretieren Sie die Ergebnisse! Wiederholen Sie Ihre Betrachtung aus b) fr die Ergebnisse der GLS-Schtzungl
d) Vergleichen Sie die 95 %-Konfidenzintervalle, die
1)
aus den Standard-OLS-Ergebnissen,
) unter Verwendung von Newey-West-Standardfehlem und
ill) einer GLS-Schtzung zur Bercksichtigung eines AR(1)-Strtenns
12

x...,

x...,

fr ~, resultieren!
e) Nehmen Sie die vorliegenden Zeitreihen aus dem Online-8ervice nher in
Augenschein und beurteUen Sie ihre bisherigen Schtzergebnisse im Hinblick
auf den vorliegenden Stichprobenumfang!

Bei kritischer Betrachtung der hier verwendeten Regressionsfunktlon ist es


schwer vorstellbar, dass diese fr eine Erklrung von Stckkosten wirklich geeignet ist. vielmehr ist es wahrscheinlich, dass eine Fehlspezifikatlon vorliegt.
Beurteilen Sie Ihre bisherigen Schtzergebnisse vor dem Hintergrund dieses
Arguments und geben Sie beispielhaft an, wie sich das vorliegende Modell verbessern liee!

7. Aufgaben

671

Instrumentenvariablenschtzung

AufgabelVl

Mittels der Ergebnisse einer Befragung von 50 zufllig ausgewhlten Arbeitnehmem n


soll ein Modell Yi - pg + ~,x. + 10, geschtzt werden, das die Ersparnisse Y in einem ~
bestimmten Jahr durch das Einkommen X in diesem Jahr erklren soll.

a) Schtzen Sie dieses Modell mittels der fiktiven Daten des Online-Services mit
OLS und interpretieren Sie die Ergebnisse?
b) Die Variable Z beschreibt das durchschnittliche Einkommen einer jeden befragten Person ber die letzten 10 Jahre (ohne das aktuelle Jahr) und kann im Zuge
einer N-Schtzung als Instrument herangezogen werden. Nehmen Sie an, die
Variable X wurde bei der Stichprobenerhebung z.T. fehlerhaft erfasst! Wie
lauten die Ergebnisse einer N-Sch.tzung unter Verwendung des Instruments Z?
Interpretieren Sie die Ergebnisse!

c) Beurteilen Sie mittels des Hausman-Tests, ob die erklrende Variable und der
Strtenn des betrachteten Modells korreliert sind und damit die OLS-Schtzung
unter a) verzerrt war!

"

Ein ntzliches Hilfsmittel in der konometrie ist die Monte Carlo Simulation. Bei n
ihr werden aus einem bekannten Modell knstliche Daten erzeugt, die es erlauben, ~
alternative Schtzverfahren unter verschiedenen Bedingungen zu vergleichen.
Spezifizieren wir ein einfaches Regressionsmodell mit Po - 3 und Pt - 1, so gilt fr
seine systematische Komponente E(Y, IX) - 3 + 1 . J\. Nehmen wir nun an, X ist
mit einem Erwartungswert von Null und einer Varianz von 2 nonnalverteilt, der
Strterm E ist standardnonnalverteilt und die Kovarianz zwischen X und E sei 0,9.
Wir knnen auf Basis dieser Annahmen zunchst zufallige Werte fr X und E erzeugen und ber Y, - 3 + 1 . ~ + t; Stichprobenbeobachtungen von Y erzeugen.
Im Online-Service Hnden Sie 500 Beobachtungen zu den Variablen X und Y, die
auf diese Weise knstlich generiert wurden.
a) Stellen Sie die 500 Beobachtungen inkl. der Regressionsfunktion der Grundgesamtheit graflSch dar! Was stellen Sie fest?
b) Schtzen Sie das Modell YI - Po + P,~ + E, bei den Stichprobenumfangen T - 10,
T - 20, T - 100 und T - 500 Beobachtungen Cd.h. den ersten 10, 20, ... Beobachtungen) mittels OLSI Was stellen Sie im Hinblick auf die Vernderung der
Parameterschtzungen fest?
c) Die im Online-Service zu findenden Variablen Z, und Z2 wurden unter den Bedingungen, dass sie jeweils standardnonnalverteilt, mit X korreliert (konkret
Cov(X.Z,) - 0,9 und CovCX,Z.) - 0,4) und mit E unkorreliert sind, ebenfalls zufallig erzeugt. Fhren Sie eine N-Schtzung des Modells YI - pg + P,~ + EI unter
alleiniger Nutzung von Z" alleiniger Nutzung von Zl und gemeinsamer Nutzung
von Z, und Z~ als Instrumente fr T - 10, T - 20, T - 100 und T - 500 durch!
Was knnen Sie nun zu den Vernderungen der Parameterschtzungen aussagen? welche Instrumentenkonstellation ist zu bevorzugen?

IV EinfOhn.mg in die Okonomebie

672

n15

AufpbeIV'
Ein Beratungsuntemehmen wurde damit betraut, die Effizienz von 75 Brauereien in
einem bestimmten Jahr zu untersuchen. Dazu schtzt es ein Modell Y, - Po + Pl~ +
P:X:.. + ~;x,. + E" in dem Y fr einen Bieroutputindex steht, der sowohl Produktionsmenge als auch -qualitt bercksichtigt. Y wird durch die Berufserfahrung ~ des
Braumeisters (in Jahren), einen Index fr Kapitaleinsatz X. und einen Index fr Arbeitseinsatz X, erklrt.
a) Schtzen Sie das Modell mittels des fiktiven Datenmaterials im Dnline-Service
und beurteilen Sie die Ergebnisse! Nutzen Sie die Ergebnisse fr eine Prognose
des Outputs Y einer neu gegrndeten Brauerei, die den Stichprobendurchschnitt des Kapital- und Arbeitseinsatzes aufweist sowie von einem Braumeister
gefhrt wird, der 10 Jahre Berufserfahrung besitzt!
b) Das Beratungsuntemehmen befrchtet, dass die Variable ~ mit dem Stttenn
des Modells korreliert ist und fhrt daher einen Hausman-Test mit der Variable
Z (Alter des Braumeisters) als Instrument fr ~ durch. Die brigen Variablen
werden als exogen angenommen. Zu welchem Resultat kommt der Test?

,.
n

c) Fhren Sie eine N-Schtzung mit dem Instrument Z durch und geben Sie unter
Verwendung der neuen Schtzergebnisse eine korrigierte Version der Prognose
aus a) an!

AufpbeIV4
Im Online-Service finden Sie Daten zum realen Pro-Kopf-Konsum Y und zum realen Pro-Kopf-Einkommen X der USA vom 1. Quartal 1947 bis zum 4. Quartal 1980.
Zur Erklrung des Pro-Kopf-Konsums durch das Pro-Kopf-Einkommen in der aktuellen Periode und in weiter zurckliegenden Perioden liee sich ein distributives
Lag-Modell der Form Yt = Po + ~1~ + 1 Xt_ 1 + ~3Xt_l + ... + ~ spezifizieren. Aufgrund
der Probleme dieser Modellklasse empfiehlt sich jedoch die Schtzung eines durch
Koyck-Transfonnation resultierenden ARDL-Modells Yt = 10 + o~ + 11Yt - 1 + ~ .
a) Schtzen Sie das genannte ARDL-Modell mit OLS und testen Sie mit einem geeigneten Testverfahren auf Autokorrelation erster Ordnung! Begrnden Sie die
Wahl des Testverfahrens und beschreiben Sie die Folgen des Testergebnisses
fr die OLS-Schtzung!
b) Fhren Sie eine N-Schtzung des ARDL-Modells mit dem um eine Periode verzgerten Pro-Kopf-Einkommen als Instrument fr Y1-1 durch! Wiederholen Sie
die N-Schtzung und verwenden Sie nun als Instrumente fr Y'.l sowohl das
um eine als auch das um zwei Perioden verzgerte Pro-Kopf-Einkommen! X. instrumentiert sich in beiden Fllen selbst. Vergleichen Sie die Ergebnisse!
c) Begrnden Sie, warum die unter b) vorgenommene Instrumentierung problematisch fr die Konsistenz der N-Schtzer sein knnte!

673

7. Aufgaben

Regression mit Zeitreihendaten


AufpbeZRl

17

Nach Frenkel, Funke und Koske (2003) empfiehlt sich zur Begrenzung des Risikos
einer falschen Spezifikation der Testgleichung beim Dickey-Fuller Stationarittstest ~

ein sequenzielles Vorgehen, bei dem zunchst mit der allgemeinsten Spezifikation
begonnen und anschlieend auf Basis der Testergebnisse eine sukzessive Modelleinschrnkung erfolgt. Diese Methodik ist durch folgendes Schema beschrieben:
AY, =B+yt+tJ.Y'_l + t"'iAY'-1 +u,
~,

..In
-----'='----__;,.

Y ist stationr.

_ _ _-'n~'~In'__ __;). Y ist nicht stationr.

A.Y, = B+ "Yt - 1 +

t.-,~AYI_l +

U,

_ _ _ _~n~'~In'__ __;.

Y ist stationr.

_ _ _ _~n~'~In'__ __;.

Y ist nicht stationr.

AY, = "Yt - t +

t.-.

'P,AYH + U,
_ _ _ _~"'~In'__ __;.
)

j.

Y ist stationr.
Y ist nicht stationr.

Im Online-Service fmden Sie einen Datensatz mit wesentlichen Kenngren zur


wirtschaftlichen Entwicklung der USA (Quellen: US Department of Commerce,
Bureau of Economic Analysis sowie Homepage von R. Shiller). Zu diesen zhlen
die realen Konsumausgaben (Y\) und das reale verfO.gbare Einkonunen (Y;> von

Privatpersonen fr die Jahre 1950 bis 2008 sowie die realen Dividenden (Y,) und
der reale Gewinn (Y) der Unternehmen des S&P 500 fr die Jahre 1900 bis 2008.

Nutzen Sie das beschriebene sequenzielle Vorgehen um die Reihen auf Stationaritt
zu testen! Geben Sie auerdem den Integrationsgrad der einzelnen Reihen an!

IV EinfOhn.mg in die Okonomebie

67.

17

AufpbeZR2
Betrachten Sie erneut den Datensatz aus Aufgabe ZRl! Es soll damit ein einfaches
Pa + P1Y.jt + e. geschtzt werden, welches die Dividenden
01;> durch die Gewinne 01,) erklrt.

~ Regressionsmodell Y" -

a} Schtzen Sie das Modell! Kann es dabei zu einer typischen Scheinregression


konunen? Begrnden Sie Ihre Aussagen durch Rckgriff auf Ihre Ergebnisse bei
Aufgabe ZRI und die nachfolgende Grafik!

m',-------------------,

m
~

DNdIrdIn --- GM...

b) Sind Dividenden und Gewinne bei Zulassen einer Irrtumswahrscheinlichkeit


von 10 % kointegriert? Wie ist das geschtzte Modelle aus a) ZU interpretieren,
wenn Sie beim Test eine Kointegrationsbeziehung feststellen?
c) Schtzen Sie (sofern mglich) zur Beurteilung der Kurz- und Langfnstbeziehung
zwischen Dividenden und Gewinnen ein Fehlerkorrekturmodell! Interpretieren
Sie Ihre Ergebnissei

7. Aufgaben

675

ARCH- und GARCH-Modelle

Aufpbe ARCHI
Manchmal wird das ARCH(1)-Modell auch in der folgenden multiplikativen Form
prsentiert:

Yt=o+1;

=z,A

mit Zt - Neo, I)

h, = cto + ~e:_l

/.Jh:

Damit ist der standardisierte Sttterm EI


standardnormalverteilt. Zeigen Sie in
den Teilaufgaben a) - c), dass sich dadurch die Eigenschaften von nicht ndern.
1..-, beinhaltet die relevanten Informationen zum Zeitpunkt t-1, also auch E.-,. (Hinweis: Gerade daher ist h. zum Zeitpunkt t bekannt und kann in der Beweisfhrung
als Konstante aufgefasst werden.)

e.

a) Zeigen Sie, dass der bedingte Erwartungswert BeEt 11,_1 ) = 0 ist!

b) Zeigen Sie, dass die bedingte Varianz E(~ 111_1 ) = h t ist!


c) Erklren Sie, warum

e.:

IIt-1 -N(O,h,)!

Aufpbe ARCH2
Bemchen Sie folgendes T-ARCH-Modell:

h, = 0,05 + 0, 25E:_t + 'Yl~-ldl-1


d

= {I
'-I

e.:-l :!: 0

~l

<0

(positive Nachrichten)
(negative Nachrichten)

a) Angenommen 1, - O. Wie gro ist dann jeweils die bedingte Varianz, falls der
Schock. in der Periode t-l genau -2, 0 oder 2 betrgt?
b) Wie gro ist im Fall a) die 1angfristige Varianz?
c) Angenommen 11 - -0,10. Wie gro ist dann jeweils die bedingte Varianz, falls
der Schock in der Periode t-l genau -2, 0 oder 2 betrgt? Vergleichen Sie Ihre
Ergebnisse mit denen aus Teilaufgabe a) und interpretieren Sie ggf. auftretende
Unterschiede!
d) Wie gro ist im Fall c) die langfristige Varianz, falls Sie davon ausgehen, dass
positive und negative Schocks mit der gleichen Wahrscheinlichkeit auftreten?

,.

Analysieren Sie die tglichen Renditen des Goldpreises durch Bearbeitung der n
nachfolgenden Fragestellungen! Verwenden Sie dazu die entsprechende Datendatei ~
im Online-Service!
a) Untersuchen Sie, ob die quadrierten Renditen Autokorrelation aufweisenl
b) Gibt es Hinweise darauf, dass die Renditen nicht normalverteilt sind?

IV EinfOhn.mg in die Okonomebie

676

c) Schtzen Sie ein GARCH(l,l)-Modell fr die Goldrenditen! Beantworten Sie


dann auf Basis der Schtzergebnisse folgende Fragen:

50-

i.

Sind die Nichtnegativitts- und die Stationanttsbedigung etfllt?

Sind die geschtzten ARCH- und GARCH-Effekte jeweils auf dem 5% Niveau
signifikan~

ili. Wie gro ist die langfristig prognostizierte Varianz? Welche jhrliche Volatili-

tt ergibt sich damit langfristig?


d) Berechnen Sie standardisierte Residuen und berprfen Sie damit die geschtzte Spezifikation des GARCH-Modells! Zu welchen Schlufolgerungen kommen
Sie dabei?

1.

AuJlIabe ARCH4

Gegenstand dieser Aufgabe ist eine detaillierte empirische Analyse der Renditen

des S&P 500 Aktienindex. Verwenden sie dazu die entsprechende Datendatei im
Online-Service.

a) Untersuchen Sie, ob die quadrierten Renditen Autokorrelation aufweisen!


b) Sind die Renditen nonnalverteilt?
c) Schtzen Sie die Regressionsgleichung Yt2 = Po + litYt - 1 + EI! Wie interpretieren
Sie die Schtzung fr den Steigungsparameter in Hinblick auf den LeverageEffekt! welches Vorzeichen wrden Sie erwarten, falls der Leverage-Effekt auf
diesem Aktienmarkt existiert?
d) Schtzen Sie ein T-GARCH(1,l)-Modell! berprfen Sie, ob es die Nichtnegativitts- und die Stationarittsbedigungen erfllt! Gehen Sie dabei davon aus, dass
positive und negative Schocks mit der gleichen Wahrscheinlichkeit auftreten!
e) Weist das geschtzte asymmetrische GARCH-Modell bei einer Irrtumswahrscheinlichkeit von 5% signifikante Leverage-Effekte auf? Begrnden Sie kurz
Ihre Entscheidung!

Wie gro ist unter den Annalunen aus d) die langfristig prognostizierte Varianz?

LSUNGEN

1.

Kapitel I - Deskriptive Statistik

Aufgabe GI
a)

Bewegungsmasse

d)

Bestandsmasse

b)

Bewegungsmasse

e)

Bewegungsmasse

c)

Bestandsmasse

AufgabeG3
a) Verhltnisskala

d)

Nominalskala

b)

Intervallskala

e)

Ordinalskala

c)

Ordinalskala

Ordinalskala

AufgabeEHl
r;----,--::-:----,-~--;---:-:-___,__::-::-7

8<0

-7

=, (1 + 160 -100). (1 + 80 -160) = 'lI, 6.0 5 = 0 8944


100
160
v
,
,

Wachstumsrate = 0,8944 -1 = -0,1056 = -10,56 %

AufgabeEH3
Arbeitslosenquote......, = 7,806 0,174+ 32,5050,078
7,806+32,505

0,0966 = 9,66 %

AufgabeEH5
Verteilung A:

x. = ~.(14.10) = 14, s~ = ~.(14' 10)-14' = 0 --> s. = 0,


10

10

SP. = 14-14 = 0

Verteilung B:

x =~.(12.1+132+14.4+15.2+16.1) = 14 0
B

10

'

si =~.
(12' 1+13' 2+14'4 + 15'2+16' 1)-14,0' = 1,20 --> SB = 1,095
10
SPB = 16-12 =4

Verteilung C:
Xc = ~(9 2+ 122 +131+151+ 161+ 17 1+ 181+ 191) = 14

10

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_21, Springer Fachmedien Wiesbaden 2015

V LOsungen

680

s~ = ~. (9 2 .2 + 122 .2+ 132 .1 +15 2 1 + 162 .1 +172 1 + 182 .1 +1~ 1) _14 2 = 11,40
10

-+ Sc = 3,38
SPc = 19-9 = 10

Da Verteilung A nur die Beobachtung 14 mit Hufigkeit 10 besitzt, ist sie naturgem symmetrisch. Fr Verteilung B treten die Merkmalsausprgungen, die sich jeweils nur um 1 unterschieden, mit den Hufigkeiten 1, 2, 4, 2, 1 auf, die ein klar
synunetrisches Muster um das aritlunetische Mittel 14 zeigen. Verteilung eweist
eine rechtsschiefe (bzw. linkssteile) Tendenz auf, da im rechten Bereich der Verteilung (rechts vom arithmetischen Mittel) die Merkmalsausprgungen strker streuen
und die jeweiligen Hufigkeiten kleiner sind als im linken Bereich der Verteilung.

AuIpbeEH7

xM
SM

=.!. (0,082+ 0,091+0,079+0,070+ 0,084 + 0,092+ 0,089) "" 0,0839


7

!. (0,0822 +0,0912 +O,07!f +O,07<t +0,0842 +O,09~ + 0,0892 ) -O,083!f = 0,0067


7

Vc = 0,0067 = 0 0799
111
0,0839
'
Xl

1
= -. (0,052+0,049+0,032+0,041 + 0,052+ 0,061 +0,059) = 0,0494
7

Sl

! .(0,05? + 0,049~ +0,03? + 0,041 + 0,052~ +0,061~ +0,05!i)-0,0494


1

= 0,0095

Vc, = 0,0095 = 01923


0,0494
'
Anhand der Standardabweichungen und VariationskoeffIzienten kann ausgesagt
werden, dass die Alkoholkonzentration bei den Frauen sowohl absolut (s) als auch
relativ (VC) strker streut als bei den Mnnem.

Q.

AuIpbeEH9
Mittels der folgenden Tabelle lassen sich der gesuchte Mittelwert 37,50, Varianz
468,75, Standardabweichung 21,65 und der VariationskoefflZient 0,58 bestimmen:
a'
I
1
2

4
5
6
7
1:

10
20
30
40
50
60
70

h,
20
10
30
5
5

10
20
100

r,
0,20
0,10
0,30
0,05
0,05
0,10
0!20
1,00

~ .a~

2,00
2,00
9,00
2,00
2,50
6,00
14,00
37,50

fI (a"'Y
I

20,00
40,00
270,00
SO,OO
125,00
360,00
980!00
1.875,00

1. Kapitel I - Deskriptive Statistik

681

Aufgabe EHll

f;

1
2
3
4
5
6

uj

0,26
0,49
0,17
0,06
0,02
0,01

0,06
0,29
0,25
0,18
0,16
0,07

vj

0,26
0,75
0,91
0,97
0,99
1,00

0,06
0,35
0,59
0,77
0,93
1,00

Mit diesen Werten knnen wir die auf der Folgeseite abgebildete Lorenz-Kurve
skizzieren. Der Grafik ist zu entnehmen, dass ber 55 % der Gesamtbeschaffungskosten auf die jenigen 20 % der Rechnungen mit den grten Betrgen entfallen.
A-Gter machen also 55 % der Gesamtbeschaffungskosten aus. Aufgrund dieses
hohen Kostenanteils ist ihnen bei der Planung zuknftiger Beschaffungsmanahmen besondere Aufmerksamkeit zu schenken.
1.0

,--------------,0

0,8
0,6
0,4

0,2
0,0 Io;;;,,~:::::::_...::..__l..._~___.:..__...:.:....J

0,0

0,2

0,4

0,6

0,8

1,0

AufgabeMHl

Die drei gesuchten bedingten Verteilungen (Zeilen) haben folgendes Aussehen:


y

Bedin

BWL
VWL

Mathematik

gelegentlich

regelmig

~=011

~=015

200 = 0 74
270
'

20 = 0 22

50 = 0 56
90
'

20 =022
90
'

~=057

~=029

~=014

nie

270

90
140

'

'

'

270

140

'

'

140

'

Die bedingten Verteilungen geben hier an, welcher Anteil unter den Studenten der
einzelnen Studiengnge nie, gelegentlich und hufig Sport treibt. So gibt uns etwa
der Wert 0,11 an, dass sich 11 % der BWL-Studenten nie sportlich bettigen, wohingegen dieser Wert bei Mathematikstudenten 57 % betrgt.

682

V Lsungen
AufgabeMH3
1
2

1
2

h,

a,m

127
271
102
500

20
60
100

h,

bm

163
217
48
72
500

3
4

hj

150
450
750
1.050

sx

Sy

=
=

i=l

h,b~

h (bm ) '

L
n

(a;")' . h, -

x'

i=l

~t(b~)"h,-y'
n

Y=L
n

500

j=l

i,j

1,1
1,2
1,3
1,4
2,1
2,2
2,3
2,4
3,1
3,2
3,3
3,4
E

(a;ni

50.800
975.600
1.020.000
2.046.400

Daraus ergibt sich:


n

2.540
16.260
10.200
29.000

24.450
97.650
36.000
75.600
233.700

x = Li), a;" =_1_,29.000 =58

hj

a~

, ,

3.667.500
43.942.500
27.000.000
79.380.000
153.990.000

i), b~ =_1_,233.700 =467,40


i=l

500

1
1_
_. 2.046.400 - 58' = 27,00
VSOO

= _1_ .153.990.000 - 467,40' = 299,19


500

h"

a,m

b,m

84
43
0
0
76
160
23
12
3
14
25
60
500

20
20
20
20
60
60
60
60
100
100
100
100

150
450
750
1.050
150
450
750
1.050
150
450
750
1.050

hlj

a:n b~

252.000
387.000
0
0
684.000
4.320.000
1.035.000
756.000
45.000
630.000
1.875.000
6.300.000
16.284.000

Daraus ergibt sich:


1

Covxy =-. L~)ij a;" bj -xy =-16.284.000-58467,40 =5.458,80


n

r
xy

cavxy =
sx'Sy

500

i"'l j_ I

5.458,80
27,00.299,19

068
'

Anmerkung: Beide Variablen weisen ein metrisches Skalenniveau auf. Deswegen


knnen wir den Korrelationskoeffizienten berechnen.

1. Kapitel I - Deskriptive Statistik

683

AufgabeMH5
a) dichotome Merkmale
b) Bei stat. Unabhngigkeit, sind folgende absolute Hufigkeiten Zu erwarten:
Erwerbspersonen
19.578,8
20.467,2
40.046

Mnnlich
Weiblich
1:

Nichterwerbspersonen
20.751,2
21.692,8
42.444

1:
40.330
42.160
82.490

Hiermit folgt:
, (22.232 -19.578,8)' (18.098 - 20.751, 2)' (17.814 - 20.467, 2)'
X =
+
+ -'--'--'---~-'-'--'-19.578,8
20.751,2
20.467,2

+ (24.346 - 21.692,8)' = 1.367,22


21.692,8
KXY --

1.367,22

0 13

82.490+1.367,22 - ,

0,13

-----r

min(2;2)-1

= 0,13 =0 18
f1
'

min(2j2)

"

Es besteht ein schwach ausgeprgter Zusammenhang zwischen den Variablen.


c)

Mnnlich
Weiblich
1:

Erwerbspersonen
40.330
0
40.330

Damit ist X' - 82.490 und Kxy =

Jz

Nichterwerbspersonen
0
42.160
42.160

---+

1:
40.330
42.160
82.490

K~ = ~ = 1 .

Es liegt maximale Abhngigkeit vor.


Aufgabe PI
Kommt es zwischen Basis- und Berichtsperiode ZU keiner Vernderung der Ver-

brauchsmengen sind die Preisindizes nach Laspeyres und Paasche identisch. Begrndung: Beide verwenden in diesem Fall die gleichen Gewichte.
AufgabeP3

1,15400 + 1,10700 + 1,01 350


0,96400 + 0,90 700 + 0,87' 350

1.583,50 = 1 2010
1.318,50
'

1,15700 + 1, 10600 + 1,01 250


0,96 700 + 0,90600 + 0,87250

1.717,50 = 1,2015
1.429,50

V Lsungen

684

b)

1.717,50
1.318,50

UA,B

1,3026

AufgabeP5
Ein Vergleich ist nur mglich, wenn beide Indexreihen dieselbe Basis besitzen,
Eine Umbasierung von Index B auf das neue Basisjahr 2003 ist daber sinnvoll:
A

2003

100

I~"" '100= 140 '100=100 00

2004

104

2005

115

2006

120

I~""

140

'

I~OO4 .100 = 150. 100 = 107 14

1B2003

I~oo5

1B2003

140

'

,100 = 155 ,100 = 110 71


'
140

I~oo6 '100 = 157 '100 = 112 14


I~OO3

140

2.

Kapitel 11-

Wahrscheinlichkeitsrechnung

AufgabeWl
Die Ortskennbuchstaben sind als fix zu betrachten und bei der Berechnung der
Mglichkeiten mit dem Faktor 1 anzusetzen. Was die Buchstabengruppen anbelangt, verbleiben naeb Zeugenaussage nur 3 mgliche Ausprgungen. Zu den Zahlenkombinationen ist folgendes auszusagen:

Variante A

Variante B

Stelle 1
1
1

Stelle 2
Ziffern von 0 bis 9
2

Stelle 3
2

Ziffern von 0 bis 9

Hierbei ist aber zu beachten, dass die Kombination 122 nicht doppelt erfasst werden darf. Letztendlich sind es also lediglich 19 Kombinationen. Fr die Anzahl der
Kfz-Kennzeieben gilt daher 1 3 19 = 57.
Gesuebte Wahrsebeinliebkeiten:
b)

1 3 10 -30 -10
=
=
57
57 19

131 3
1
c) P = - - = - = 57
57 19

d)

1 3 10
57

132 6
2
e) P = - - = - = 57
57 19

f)

1-3-9 27 9
P=--=-=57
57 19

a) P=

1119 -1
=
57
3

30 -10
=
57 19

AufgabeW3
P(A) = 18 P(B) = 19 P(C) = 20
37'
37'
37
AufgabeW5
Da kein Bewerber zweimal tlgezogentl werden kann (Ziehen ohne Zurcklegen)
und die Reihenfolge bei der Auswahl keine Rolle spielt, ergibt sich die Anzahl der
mglichen Bewerber- bzw. Stellenbesetzungskombinationen wie folgt:
=6
(4)2 =-l
21

Die beiden besten Bewerber stellen nun nur eine dieser 6 Kombinationen dar. Die
gesuchte Wahrscheinlichkeit liegt daher bei P - 1/6.

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_22, Springer Fachmedien Wiesbaden 2015

686

V Lsungen
AufgabeW7

a) P = 2/5
b) Ziehen mit Zurcklegen:

Ziehen ohne Zurcklegen:


P

P= 3-3-3 =0 216
555
'

J~L
5J
[3

_1_ =
= 010
543 543
'
321

AufgabeW9
10
6
4
a) P(A,) = - , P(A,) = - , P(A, n A,) = - , P(A, I A,)
36
36
36

P(A,nA,)
P(A,)

-'-"-

,.

4
6

~=-

b) Nach dem Satz von Bayes ergibt sich die gesuchte Wahrscheinlichkeit als
P(A IA) = P(A, I A,)' P(A,)
"
P(A,)

t~ = ~
~

Veranschaulichung:
0,1)
(2,1)
(3,1)
(4,1)
(5,1)

I (6,1)

0,2)
(2,2)
(3,2)
(4,2)
(5,2)
(6,2)

0,3)
(2,3)
(3,3)
(4,3)
(5,3)

I(6,3)

0,4) 0,5)
(2,4) (2,5)
(3,4) __
(4,4) i (4,5)
["-(5;4)- (5,5)
(6,4)

%.2?J

0,6)
(2,6)
(3,6)
(4,6)
(5,6)

(6,5)

(6,6)

i
i
I

Augensumme ~ 9
erster Wrfel zeilrt 6
relevant fr gesuchte
Wahrscheinlichkeit

AufgabeWll
Es sei A: tiErster Student findet die Lsung", B: "Zweiter Student fmdet die Lsung"
und C: "Wenigstens einer der beiden Studenten findet die Lsung". Fr die gesuchte Wahrscheinlichkeit gilt dann
P(C) = P(A u B)= P(A) +P(B) - P(A n B) = 0,70 + 0, 70 - 0, 700,70 = 0,91
oder alternativ
P(C) = P(A u B)= 1-P( n 13) = 1- 0,300,30 = 0,91.

AufgabeW13
P(X u Y) = P(X) + P(Y) -P(X n Y) = 0,40 + 0,70 - 0,20 = 0,90
AufgabeW1S
a) P(A) = .Z..-.!..-.!. = ..2.- = 0,0204
777 343

c)

P(C) = .!.-..!..-.!. = _1_ = 0, 0029


777 343

b) P(B) = 7 6 . 5 = 210 = 0,6122


777 343

d)

P(D) = 7163
777

126 =0,3673
343

687

2. Kapitel 11 - Wahrscheinlichkeitsrechnung

Zur Erklrung von P(D):

Erster Student hat an einem beliebigen Tag Geburtstag: 7 Mglichkeiten

Zweiter Student hat genau am gleichen Tag Geburtstag: 1 Mglichkeit

Dritter Student hat an einem anderen Tag Geburtstag: 6 Mglichkeiten

Daraus ergeben sich insgesamt 7 1 6 = 42 Mglichkeiten. Diese beschreiben allerdings nur eine der drei mglichen Anordnungen von GLEICH, GLEICH, ANDERS. Daher ist der Wert 42 noch mit 3 zu multiplizieren, um die Gesamtmglichkeiten zur Berechnung der Wahrscheinlichkeit zu erhalten.
AufgabeW17

Es sei A,: "Fehler bei Arbeitsgang i" mit i = 1, 2. Da die beiden Ereignisse voneinander unabhngig sind, gilt
P(A I u A,) = P(AI ) + P(A,) -P(AI n A,) = P(AI ) + P(A,) - P(AI ) P(A,) ,
P(A )=P(AI uA,)-P(AI )
,
I-P(AI )

0,06-0,04
1-0,04

0,0208.

AufgabeW19

a) 25 Spieler gesamt - 3 Torhter - 3 Verletzte - 1 Gesperrter


18 Verbleibende - 5 Strmer - 7 Mittelfeldspieler

18 Verbleibende

6 Verteidiger

b) Mgliche Aufstellungen:
54 76543654 3 =18.144.000
AufgabeW21

(~~)

P = (100) = 0,0044
10
AufgabeW23

a) P(A) = 0,50' = 0,0625


b) P(B) =

(~} 0,50' = 60,0625 = 0,375

c) P(C) = 0,50' = 0,0625

,,
,:

Hier wird das Umenmodell des


" Ziehens mit Zutcklegen
: zugrunde gelegt.

-'

AufgabeW25

a) P(A) = ~, P(B) =
1
10
1098

1
1
0,001389, P(C)=-(
)=-=0,0083
10
120

688

V Lsungen

b) Unter Bercksichtigung des Wetttipps:


P(A)=l, P(B) =-1_=0,01389, p(C)=(l)= 1 =0,0278
198
9
36
2

AufgabeZl
Realisation
ZV
x,

Elementarereignis
Cl

Wahrscheinlichkeit
P(Cl)

Wahrscheinlichkeilsfunktion
f(y,)

Verteilungsfunktion

F(y)

P(ro,) = 0,125
=ZZZ
Xl =0
0,125
0,125
---_._
.._..ro,
_.._.._.._.. _.. _.. _._--------------------_..__ .__ .__ .__ .__ .__ .__ .__ .__ .__ .__.. _.. _.. _.. _.. _.. _.. -.. _.. _.. _.. _.

x, = 1

m, =ZZK

P(m,) = 0,125

co, = ZKZ

P(co,) = 0,125

0,375

0,500

P(Cl,) = 0,125
- - _ . _.._..Cl,_.._..=_..KZZ
_.. _.. _.. _._--------------------_..-_._ .._.._.._..__ .__ .__ .__ .__ .__.. _.. _.. _.. _.. _.. _.. _.. _.. _.. _.. _.
x, =2

co, = ZKK

P(co,) = 0,125

Cl, = KZK

P(Cl,) = 0,125

0,375

0,875

P(co,) = 0,125
---_._.._..co,_.._=.._..KKZ
_.. _.. _.. _._--------------------_..__ .__ .__ .__ .__ .__ .__ .__ .__ .__ .__.. _.. _.. _.. _.. _.. _.. -.. _.. _.. _.. _.
P(co,) = 0,125

x, =3

0,125

1,000

AufgabeZ3
E(X) = 1 0,2+ 20,8 = 1,8

AufgabeZ5
Die Werte f(x) zeigen deutlich, dass es sich hier um eine symmetrische Verteilung
handelt. Der Erwartungswert muss also E(X) - 5 sein.

AufgabeZ7
Kursnderung

Gewinn

g,
-{J,30
-{J,10
0,00
+0,20
+0,40

-300
-100
0
+200
+400

Wahrscheinlichkeit
f(g.)
0,1
0,1
0,4
0,2
0,2
1,0

gi . f(g.)

[gi - E(G)]' . f(g.)

-30
-10
0
+40
+80
E(G) - +80

14.440
3.240
2.560
2.880
20.480
var(G) - 43.600

Aus der Spekulation ist also ein Gewinn von 80 Euro bei einer Varianz von 43.600
Euro' bzw. Standardabweichung von 208,81 Euro zu erwarten.

689

2. Kapitel 11 - Wahrscheinlichkeitsrechnung

..J

AufgabeZ9
a) 1.

f(xOfrOSxSl

fr

b) F(x) = x'
{1

fr
fr

2.

...

x<O

fex) dx = 2x dx = [x'li = 1

S x S 1
x>l

J2x dx = [x']::: = 0,49 - 0,09 = 0,4

0,7

c) P(O, 3 S; X S; 0,7) =
P(X > 0,8) =

0,'

J2x dx = [x']
0,8

,
0,8

= 1-0,64 = 0,36

oder: P(X > 0,8) = 1-P(X S 0,8) = 1-

J2x dx = 1-[x'];

0,8

08

= 1-0,64 = 0,36

AufgabeZll
1

a) Allgemein gilt p(l1x -k O"x < X < l1x + k O"x);': 1- --,.


k
Hier ist I1x - k o"x = 4 --+ 8 - 2k = 4 --+ k = 2 bzw. I1x + k o"x = 12 --+ 8 + 2k = 12
--+ k = 2, sodass sieb fr die gesuchte wahrscheinlichkeit p(4 < X < 12) ;,: 3/4
ergibt.
b) Allgemein gilt P(IX-l1xl;':kO"x)S:,.
Es ist P(X S 2 u X;': 14) = P(X - 8 S 2 - 8 u X - 8;': 14 - 8) = P( I X - 81;,: 6), woraus k - 6/ O"x - 6/2 - 3 und damit P(X S 2 u X;,: 14) S 1/9 folgt.
AufgabeZ13
Es sei

XI:

"Augenzahl beim i-ten Wurf't. Damit gilt X =

y=XtXzXn

Xl

+ X2 + ... + Xn sowie

Da E(Xi ) = i .(1 + 2 + 3 + 4 + 5 + 6) = 3,5 gilt, kann E(X) wie folgt bestimmt werden:
E(X)= E(X, +X, + ... +Xn )=E(X,)+E(X,)+ ... +E(Xn )=n3,5
Da die einzelnen ~ unabhngig sind, darf auch folgendes gereebnet werden:
E(Y) = E(X, . X, ..... Xn ) = E(X,)' E(X,) ... E(Xn ) = 3,5n
AufgabeZ15
i

r,A

0,385

0,140

--{),105

A
A

fl

_E(R A )

Ir: - ECRA)]'

,B
,

0,245

0,060

--{),225

--{),245

0,060

0,020
0,265

B
flB _

ECRB )

--{),245

0,245

[r,B _ ECRB)]'
0,060

0,060

690

V Lsungen
E(R)

1/3 (0,385 + 0,140 - 0,105) = 0,14

VarCR)

1/3' (0,060 + + 0,060) = 0,04


0,20

1/3 H>,225 + 0,020 + 0,265) = 0,02


1/3, (0,060 +0 +0,060) = 0,04

oCR)

0,20

Ir: -E(RA)J.[r,B _E(RB)]

1
2

...;),060

...;),060

Cov(RA,RB)
p(RA,RB)

1/3' (...;),060 +
0,060) = -0,04
...;),04/(0,200,20) =-1

Der Korrelationskoeffizient von -1 bedeutet, dass wenn die Rendite einer der beiden Aktien steigt (fllt), die Rendite der anderen Aktie in gleichem Ausma fallt
(steigt). Ein Portfolio, das 50-50 in A und B investiert, liefert die erwartete Rendite
E(RP ) = 0,5 E(RA ) + 0,5 E(RB ) = 0,50,14 + 0,50,02 = 0,08.
Da die Korrelation bei -1 liegt und die Varianzen der beiden Aktien gleich sind,
besteht fr den Anleger bei Investition in ein solches Portfolio keinerlei Risiko. Jede Renditenderung eines Papiers wird durch die gegenlufige Entwicklung des
anderen Papiers sofort wieder ausgeglichen. Es gilt daher fr die Varianz der Rendite des Portfolios
Var(RP ) = 0,5' 0,04 + 0,5' 0,04 + 20,50,50,20,2 (-1) = 0.

AufgabeZ17
Y
x
1
2
fiY)

fx(x)

0,45
0,15
0,60

0,20
0,10
0,30

0,05
0,05
0,10

0,70
0,30
1,00

a) f(I;1) = 0,45
Der Doktorand schtzt die Wahrscheinlichkeit, dass er sowohl fr formale Korrektheit als auch fr praktische Verwendbarkeit in Klasse 1 fallt, recht hoch ein.
b) fy (1) = 0, 60
Mit dieser Wahrscheinlichkeit geht der Doktorand davon aus, fr praktische
Verwendbarkeit (ungeachtet formaler Korrektheit) mit 1 beurteilt zu werden.
c) feX = 2 I Y = 3) = f(2,3) = 0,05 = 0,50
fy (3) 0,10
Hat der Doktorand bereits fr praktische Verwendbarkeit eine 3 erhalten, so
stehen seiner Ansicht nach die Chancen fr eine 2 bei formaler Korrektheit bei
50 %.

2. Kapitel 11 - Wahrscheinlichkeitsrechnung

69t

LX,
, fx(x)=10,7+20,3=I,3
Var(X) = LX; .fx(x,) - [E(X)]' = I' 0,7 + 2' 0,3 -1,3' = 0,21

d) E(X) =

E(Y) = LYj . fY(Yj) = 1,5


J

Var(Y) = LY~ fY(Yj) - [E(Y)]' = 2,7 -1,5' = 0,45


J

Wie wir an den Erwartungswerten erkennen, vermutet der Doktorand eine sehr

gute Bewertung seiner Arbeit bei beiden Beurteilungskriterien. So erwartet er


z.B. in fonnaler Korrektheit eine Bewertung von 1,3 bei einer Standardabweichung von 0x = 0,46. Da die Standardabweichung bei prakrischer Verwertbarkeit mit Oy = 0,67 deutlich hher ist, erkennen wir, dass der Doktorand das
ItRisiko" einer Abweichung von der erwarteten Bewertung hier als grer einschtzt.
e)

0,45/0,60

0,75

0,15/0,60

0,25

LX,'
, fex, 11) = 10,75 +20,25 =1,25
Var(X 11) = LX; .fex, 11) - [E(X 11)]' = I' 0,75 + 2' 0,25 -1,25' = 0,1875
,

E(X 11) =

Betrachten wir den Erwartungswert, so knnen wir sagen, dass wenn bereits
bei praktischer Verwendbarkeit eine 1 erreicht wurde, fr fonnale Korrektheit
eine 1,25 Zu erwarten ist.
f)

E(XY) =

PXY

LLx, .Yj . f(x" Yj) = 2


,

E(XY) - E(X) . E(Y)


-- -r.~=-~~~
,jVar(X). Var(Y)

2-1,31,5

,jO,21. 0,45

0,16

Die Korrelation zwischen beiden Beurteilungskriterien ist zwar positiv, doch als
relativ gering anzusehen. Eine bessere (schlechtere) Beurteilung bei X bedeutet
also nur geringfgig auch eine bessere (schlechtere) bei Y und umgekehrt.
g) X und Y sind stochastisch abhngig, da z.B. [fx(1) fy(1) = 0,700,60 = 0,421"
[f(I,1) = 0,451 gilt, was fr alle i, j nachweisbar ist. Auerdem ist PXY ,. 0 .

Aufgabe VI
X: "Anzahl verstorbener Personen" ist B(20; O,1)-verteilt.
a) P(20 -X;:' 18) = P(X

2) = FB(2) = fB(O) + fB(1)+ fB(2)

=(20)'0 1'.0920 +(20)'0 1' ,0 919 +(20)'0 1'.0918


o "
1"
2"
= 0,1216 + 0,2702 + 0, 2852 = 0,6769

V Lsungen

692

b) P(20-X ~ 1) =P(X ~ 19)= 1-P(X =20) = 1-fB (20)


=1_(20).01".09' =1-0=1
20

'

AufgabeV3

Da n ~ O,1N gilt, kann die hypergeometrisch verteilte Zufallsvariable X: "Anzahl BWhler" durch eine B(1O; 0,45)-Verteilung approximiert werden. Eine Nherung
durch die Normalverteilung ist nicht mglich, da np(1-p) ~ 9 nicht gilt. Die Verteilungstabellen liefern daher P(X > 5) = 1- P(X ~ 5) = 1- FB (5) = 1- 0, 7384 = 0,2616.
AufgabeV5

X: "Anzahl der Strungen pro Tag" ist binomialverteilt, jedoch aufgrund von n > 50
und p < 0,1 approximativ Po(1O.OOO 0,0005 = 5:>-verteilt.

5'

a) P(X = 5) = fp ,(5) = - . e-' = 0,1755


5!

Die Verteilungstabellen liefern folgende Ergebnisse:


b) P(X~ 10) =1-P(X ~ 9) = 1-Fp ,(9) = 1-0,9682 = 0,0318
c) P(X ~ 20) = Fp , (20) = 1
AufgabeV7

X: "Anzahl ablehnender Brger" ist H(1O.OOO; 500; 50) verteilt. Es empfiehlt sich jedoch eine Approximation durch die Po(50 500/10.000 = 2,5)-Verteilung, da n ~ 50,
M/N ~ 0,1 und n S O,1N erfllt ist. Durch Nachschlagen erhalten wir damit
P(? ~ X ~ 10) = Fp,(10) - Fp,(6) = 0,9999 - 0, 9858 = 0,0141.
AufgabeV9

Die Wahrscheinlichkeit, dass die Abfertigung x Minuten lnger dauert, nachdem


man bereits w Minuten gewartet hat, betrgt nach der Definition der bedingten
Wahrscheinlichkeit
P(X ~w+xIX > w) = P[(X Sw+x)n(X > w)] = P(w < X S w+x)
P(X>w)
I-P(X~w)
1e-)..(w+x) - (1- e-).W)
= F.. (w+x)-F.. (w)
l-(1-e h)
I-F,,,/w)

Die Wartezeit ist somit vllig unabhngig davon, wie viel Wartezeit w schon ver-

strichen ist. Fr die Werte der Dichtefunktion gilt daher


f (w + x) A.. e-'{w+,)
f.. (w + x I X > w) = ..
A.. e-' = fEx (x).
1-FEx (w)
e 1-w

2. Kapitel 11 - Wahrscheinlichkeitsrechnung

693

AufgabeVll

"

a) P(X;:" 1.200) = 1- cP (1.200 - 900) = 1- cp(3) = 1- 9987 =

100

0013

b) p(X S 650) = cp(650 - 900) = cp(-2,5) = 1- cp(2,5) = 1- 0,9938 = 0,0062


100

c) P(750 S X S 1.050) = CP(1,5) - cp(-1,5) = 2 CP(1,5) -1 = 20,9332 -1 = 0,8664


AugabeV13

P(I1-c S X SI1+ c) =

2'CP(~)-1 ~

0,98

=2'CP(~)-1

Nachscblagen in der Verteilungstabelle liefert z


~

-=2,33

cp(~) = 0,99

2,33.

0=0,4292

AufgabeV15

Die Wartezeit ist stetig G(O; 10)-verteilt mit folgender Dichtefunktion:


fG(x) = {

0,1 OSxSW

sonst

Fr die gesuchte Wahrscheinlichkeit gilt daher


P(X > 5) =P(5 < X S 10) = fG(x) (10-5) = 0,1'5 = 0,5.
AufgabeV17

W: "Anteil fehlerhafter Belege in der Sticbprobe", X: "Anzahl fehlerhafter Belege in


der Stichprobe"
Es besteht hier die Mglichkeit die vorliegende Hypergeometriscbe Verteilung
durch eine Poissonverteilung mit A = np = 3.000 0,005 = 15 zu approximieren, da
n;:" 50, M!N S 0,1 und n S O,lN erfllt ist. Es gilt daher
P(W > 0,01) = P(X > 30) =l-P(X S 30) = l-Fpo (30) = 1-0,9998 = 0,0002.
Da np(1-p) ;:., 9 und n S O,lN, kann alternativ auch unter Vernachlssigung des
Korrekturfaktors (N-n)/(N-l) durch eine Norrna1verteilung mit 11 = np = 15 und
ci = np(1-p) = 14,93 approximiert werden. Es gilt dann
P(W > 0,01) = P(X > 30) = l-P(X S 30) = 1- FN (30 + 0,5)
= 1- cp(30,5 -15J = 1- cp(4,0l) = 0,0000
,/14,93

3.

Kapitel 111 - Induktive Statistik

Aufgabe PSI

Beim Ziehen mit Zurcklegen sind die


E(') = E[_l_:t(Xi
n-1'''1

=n

-x)']

(i

= _l_ E[:t (Xi


n-1

1_ 1

1,2, ... ,n) unabhngig, sodass

-x)']

~ 1 E[t,[(XI -11) - (X -11)]']

= _1_ E[:t [(XI -11)' - 2(X, -11)(X -11) + (X -11)' J]


n-1

= - 1 E[
n-1

1=1

L (Xi -11)' - 2(X -11) L (Xi -11)+ n(X -11)'


n

1_ 1

1_ 1

= _l_ E[:t(XI -11)' - 2n(X -11)' +n(X -11)']


n-1

i_ I

da :t(X, -J1l =nli:-nJ1


i_I

= _1_ E[:t (XI - 11)' - n(X - 11)']


n-1

i_ I

n~l[t,E[(X'-I1)'J-nE[(X-I1)'Jl

Da gerade E[(X , -11)'] = (J' und E[(X -11)'] = (J~ = (J' / n, ergibt sich

rf]

- , - n - =--(J
1 ,(n-1)=o.
-'
E(J_, ) = -1 - [no
n-l
n
n-l

AufgabePS3

p : "Anteil der optimistischen Unternehmer in der Stichprobe"


Da npCl-p) ~ 9 und n S O,lN etfllt sind, kann die vorliegende Hypergeometrische
Verteilung unter Vernachlssigung des Endlichkeitskorrekrurfaktors durch folgende
Nonnalverteilung approximiert werden:
N ( p,

PCl-P))
.
M
n
wobei p= N

--+

N(04. 0,4.0,6)=N(0 4
"200

Vernachlssigt man die Stetigkeitskorrekrur, erhlt man

pep S b) = FN(b) = 4> [~J = 0,8.


0,0012

Die tabellierte Standardnonnalverteilung liefert z,.,

0,84, sodass

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_23, Springer Fachmedien Wiesbaden 2015

0012)

' , ,

696

V Lsungen

b-O,4=084
,JO,0012
'

b = 0,4291.

AufgabePS5
1 N
1
a) 1-1==-(2+4+6)=4 g
3
N '-1

LX,

c;'

EC) =1-1 =4 g

1 N
56
=- LX~ -1-1' = __ 4' =2,67 g'
N i=l
3

Var = c;' = 2,67 = 1 33 g'


n

'

Der Vollstndigkeit halber sei erwhnt, dass sich die Werte ECK) und VarC)
auch aus der Verteilung in Teilaufgabe b) ber folgende bekannten Fonneln
berechnen lieen:
EC) =

LX' wo,

Var =

LX' .fex) - [E]'

b)
Stichprobe
1
2
3
4
5
6
7
8
9

Stichprobeneinzelwerte
xp
3,
2
2
2
4
2
6
2
4
4
4
4
6
2
6
6
4
6
6

Sichprobenmittel
xi

2
3
4
3
4
5
4
5
6

Es ergibt sich damit die Wahrscheinlichkeitsverteilung:

4
3/9

3
2/9

2/9

1/9

AufgabePS7

P: "Anteil Koalitionswhler in Stichprobe"


a) Da npO- p) '" 9 und n
p

O,lN erfllt sind, gilt

~ N(E(p), Var(f) = N(P, PO: P)) = N(O, 52; 0,0005) .

Fr die gesuchte Wahrscheinlichkeit gilt daher


P(p< 0,5)

~ FN(O, 5) = <I>(~2)
= <I>(--{l,89) = 1- <1>(0,89) = 0,1867.
0,0005

3. Kapitel 111- Induktive Statistik

b) PCp< 0,5) = 0, 0367

697

-+

<1>(0,5 - 0'52J = 00367


~ 0,52~O,48

'

Nachschlagen in der Verteilungstabelle liefert


0,5 - 0,52 = -1,79

-+

~O,52~O,'(s

J',,,:,.. = 0,0112
0,52-0,48
n

-1,79.

ZO,036, -

= 0, 0001

-+

n =2.496

AufgabePS9

Gegeben sei eine konkrete Stichprobe x" ... ,X. vom Umfang n aus einer normalverteilten Grundgesamtheit X - NCI1,a') mit der Dichte
1
_ 1 (X-ILf
fNCx) = - - e ,0'
cr.fiii

Die Likelihood-Funktion LCIl,a') " LCI1,cr' I x" .. , ,x,,) der konkreten Stichprobe ist
LCIl,a') =

I1 f,CX i I !1.cr') = I1--'


e ,0'
cr.fiii
n

1=1

1=1

.e-'~C"-"
-U(_1_)'
a
,

_ 1 (Ij-lLi

2 Z'1t

.e""t;c,,-.,

_(_1_)~

(J2 Z7t

Wegen

ln(_l_)~ = 11 In (_1_) = _11 InCcr' 211:) = -l1lna' -l1ln211:


cr'211:

a'211:

besitzt die Log-Likelihood-Funktion die Form

1)~

lnLCIJ.,cr')=ln - a' 211:

--~c,,-.f

+Ine ,0',_,

=--Ina' --ln211:--, LCxl -I1)'.


2
2
2cr 1=1

Die partiellen Ableitungen erster Ordnung der Funktion bezglich 11 und


illnLCIl,a')
il 11

=~ tCxl
2cr

-l1)

und

1=1

illnLCI1,cr')
il a'

cr' sind

=_I1.J,+~ tCxl -I1/.


2 cr

2cr

1=1

Notwendige Bedingung fr ein Maximum der Log-Likelihood-Funktion ist, dass


beide partiellen Ableitungen gleich Null sind. Es muss das Gleichungssystem
2

zrl

1=1

-LCx -Jl)=O
n

...

2 !

--+-LCX -11) =0
2er 20-' 1_1 '
gelst werden. Fr die erste Gleichung gilt
2

~LCXi-Jl)=O
Zer 1=-1

tCxi -Jl) = tXi -nJl = O.


1...1

1...1

698

V Lsungen

Dies ist fr 11 = x erfllt. Einsetzen von x in die zweite Gleichung und Auflsen
nach ' liefert
.,

1 ~(

_)'

0' =-L..,. Xi-X

=8.

1_ 1

Auf die Prfung der hinreichenden Bedingung fr ein Maximum soll verzichtet
werden. Das arithmetische Mittel x ist die ML-Schtzung fr 11 und die mittlere
quadratische Abweichung bezglich x, d.h. s', die ML-Schtzung fr 0'. Die zugehrigen ML-Schtzer sind also Je und S'.

AufgabelSt
a) Intervallschtzung fr 11 bei nonnalverteilter GG und bekannter Varianz 0':
Bentigte Werte:

z=z oos =Z097'


=1,96
,

1-~

x = ~(20,1 + ... + 19,9) = 20,31


10

0"-

=....IJ...=0,66 =020

Fn .Jl

'

Intervall:
x - zo". S 11 S x + zo".

--+

20,31-1,960,20 S 11 S 20,31 + 1,960,20


19,92 S 11 S 20,70

b) Intervallschtzung fr 11 bei nonnalverteilter GG und unbekannter Varianz 0':


Neu bentigte Werte:
t=t 005
=to975 - 9 =2,26
1-~;10-1

"

= _1_((20,1-20,31)' + ... +09,9-20,31)') =,JO,l1 =0,33


10-1
- = ~ = 0,33 =
x

Fn .Jl

'10

Intervall:
x-t. SI1Sx+t.

--+

20,31- 2,260,10 S 11 S 20,31 + 2,260,10


20,08 S 11 S 20,54

Anmerkung: In der Regel fhrt die Intervallschtzung bei unbekannter Varianz zu


greren Intervallen. Es kann aber aufgrund der Schtzung der Standardabweichung auch zum umgekehrten Fall kommen, falls die Standardabweichung auf
Grundlage der Stichprobe zu gering eingeschtzt wird.

AufgabelS3
a) Intervallschtzung fr 11 bei beliebig verteilter GG und unbekannter Varianz 0':
n > 30 --+ Anwendbarkeit des zentralen Grenzwertsatzes

25
Z = Z1_ 0 ,05 = ZO,975 = ~ 96
0". = Fn = .J6 = 3,23

3. Kapitel 111- Induktive Statistik

699

Intervall:
550 -1,96 3,23 '" 11 '" 550 + 1,96 3,23

X-ZG" "'1l"'X+ZG"

543,67 '" 11 '" 556,33


Der tatschliche Mittelwert 11 der Grundgesamtheit liegt also mit 95 % Wahrscheinlichkeit zwischen 543,67 km und 556,33 km.
b) Da die Varianz cl der Grundgesamtheit nicht bekannt ist, ist die Lnge L des
Konfidenzintervalls zufallsabhngig. Es kann somit kein exakter Mindeststichprobenumfang n berecbnet, jedoch unter Nutzung von a' abgeschtzt werden.
AufgabeIS5

Intervallschtzung fr den Anteilswert p:


= 50 =025
p 200
'

npC1- p);;., 9? --- 2000,250,75 = 37,5

G. =lO-p) = 0,250,75 =00306


P
n
200
'

z = Z1 00455
--'-

= Z09773 = 2
'

Intervall:
~

p - ZGp '" p '" p + ZGp

0,25 - 20,0306", p '" 0,25 + 20,0306


0,1888'" p '" 0,3112

AufgabeIS7

a) Intervallschtzung fr den Anteilswert p:


P = ~ = 008
1.000
'
G.

=~PO-jJ)
=
n

np'C1-p');;" 9? -- 1.000 0,080,92 = 73,6


0,080,92 =0 0086
1.000
'

Intervall:
p-ZGp "'P"'P+ZGp

Z = Z 001 = Z0995
= 2,58
,

1-~

0,08 - 2,58 0,0086 '" p '" 0,08 + 2,58 0,0086

0, 0578 '" P '" 0,1022


Mit 99 %iger Wahrscheinlichkeit kann man also davon ausgehen, dass der tatschliche Anteil der Whler der Partei A zwischen 5,78% und 10,22% liegt.
b) Wenn p '" 0,1 ist, gilt sicher JpC1- p) '" 0,3. Damit die Lnge L kleiner oder
gleich 1 % bzw. 0,01 ist, muss n grer oder gleich folgendem Wert sein:
n = (2Z JpO- P )]' = (2,2,576, 0,3)' = 23.888 79
L
Q01
'

Aufgabe Tl

a) Einstichprobentest fr den Anteilswert:


0) Ho: P '" 0,05

HA: p > 0,05

a - 0,02

n = 23.889

V Lsungen

700

(2) Konkrete Ausprgung der Teststatistik V:

t.foo - 0,05

= 0, 07 - 0,05

0, 05 . 0, 95
1.500

3,57

0,0056

Verteilung von V (falls Ho richtig):


nPo(1-p,) ~ 9? hier: 1.500 0,05' 0,95 = 71,25 --+ V = N(O;1)
(3) Entscheidungsregel:
Ho ablehnen gegenber HA' wenn v >

zl_a'

wobei

z1_a = ZO,98 =

2,05.

(4) Entscheidung:
(v = 3,57) > (Z'_0 = 2,05) --+ Ho kann abgelehnt werden.
b) Besttigung von H.. wenn
P-Po
>z
--+ p-O,05 >2 05
Jpo(1:Po)
1-0
0,0056'

p>0,0615.

Aufgaben
Approximativer Zweistichproben-Gautest:

HA: 11, > 11,


(1) Ho: 11, S 11,
(2) Konkrete Ausprgung der Teststatistik V:
x,

v=

52+ ... +341


2+ ... +1
Xl -X 2

~ + "~
fi 1

n2

0,01

a: = _1_[2,
(5 - 21,55)' + ... + 1 (34 - 21,55)'J = 40,87
40 -1

21,55

25 - 21,55 = 3,45 = 3,32


7
40,87 1,04
-+-100
40

Verteilung von V (falls Ho richtig):


GG beliebig verteilt, Varianzen a~ und
(3) Entscheidungsregel:
Ho ablehnen gegenber

HAI

wenn v >

er,

z1_a'

unbekannt, n" n, > 30 --+ V = N(O; 1)


wobei

Z1-cl = 2 0,99 =

2,33.

(4) Entscheidung:
(v = 3,32) > (Z'_0 = 2,33) --+ Ho kann abgelehnt werden.
Damit ist statistisch besttigt, dass das Verkehrsaufkommen vor Bau der Umgehungsstrae grer war. Die neue Verkehrsfhrung hat also ihren Zweck erfllt
und die Kreuzung entlastet.

AufgabeT5
Differenzentest (approximativer Gautest):

HA: 11 ..
(1) Ho: 11 =
(2) Konkrete Ausprgung der Teststatistik V:

a = 0,01

3. Kapitel 111- Induktive Statistik

701

=~.;n = 20 Fa = 1768

an

'

Verteilung von V (falls Ho richtig):


Standardnonnalverteilung, da GG beliebig verteilt und n > 30.
(3) Entscheidungsregel:
Ho ablehnen gegenber HA' wenn I v I >

2 1--a/2'

wobei

Zl_(l/2

= ZO.995 = 2,58.

(4) Entscheidung:

(I v I

17,68) > (ZI_O/2 = 2,58) -+ H, kann deutlich abgelehnt werden.

Die mittleren Pulsfrequenzen in der Grundgesamtheit unterscheiden sich also


signifikant.
Der Vorteil einer verbundenen Stichprobe ist hier, dass individuelle Unterschiede
der Merkmalstrger (natrliche unterschiedliche Pulsfrequenzen der einzelnen
Mnner) eliminiert werden.
AufgabeT7

a) Korrelationstest:

(1) Ho: P ,;; 0

0,05

(2) Konkrete Ausprgung der Teststatistik V:

v=r~

0,08,../98 =079
'

~1- 0,08'

,)1- r'

Verteilung von V (falls Ho richtig):


t-Verteilung mit n - 2 Freiheitsgraden
(3) Entscheidungsregel:

Ho ablehnen gegenber HAt wenn v > t 1_a,n_2' wobei t 1_ a ,n_2

= ta,95;9a =

1,66.

(4) Entscheidung:
(v = 0,79) < (t l _ o o _, = 1,66) -+ Ho kann nicht abgelehnt werden.
HA kann somit nicht angenommen und p > 0 nicht bewiesen werden.
b) Damit der Korrelationskoeffizient r signifikant ist, muss ein groer Stichprobenumfang n vorliegen. Gerade daher ist das Fraktil der t-Verteilung ungefhr
gleich dem entsprechenden Fraktil der Standardnormalverteilung. Ho wird also
abgelehnt, wenn

r~

r:--; > Zo 9S ~

",1- r 2

'

0,08~
~1-0,08'

>1,64 -+ n - 2> 417,56 -+ n > 419,56 = 420.

AufgabeT9

Chi-Quadrat-Anpassungstest:
(1) Ho:

X ist wie X' verteilt.

H.: X ist nicht wie X' verteilt.

0,05

V Lsungen

702

(2) Konkrete Ausprgung der Teststatistik V:


Klasse A

h,

11

28

33

18

10

100

p,
h.',

0,15

0,20

0,30

0,20

0,15

1,00

15

20

30

20

15

100

16

64

25

1,067

3,200

0,300

0,200

1,667

, ,

(h - h'Y
(h,-h~Y /h~

Verteilung von V (falls Ho richtig):


Chi-Quadrat-Verteilung mit k - 1 Freiheitsgraden, da
Schtzung von Funktionalparametem erforderlich.
(3) Entscheidungsregel:

h~;>:

6,43

5 fr alle j und keine

Ho ablehnen gegenber HA' wenn v > X~-II.,k-l' wobei X~-a,k-l = X~,95;4 = 9,49.
(4) Entscheidung:

(v - 6,43) < C:I(La.k-1 - 9,49) --7 Ho kann nicht abgelehnt werden.


Es lsst sich also nicht nachweisen, dass der neue Werkstoff die Verteilung der
Anzahl der Strf:ille verndert hat.

AufgabeTll
Chi-Quadrat-Homogenittstest:
0) Ho: Die QualifIkation der beiden Gruppen stimmt berein.

a - 0,05

HA: Die Qualiftkation der beiden Gruppen stimmt nicht berein.


(2) Konkrete Ausprgung der Teststatistik V:
Note
1
2

Mnner

15

15

3333
3

50

60

667

1333
35

4667
4667

40

Frauen
5

1667

20

2333
10

23,33
50

60
200

v=:t:t(hq-,h;)'
1-1 '_1
hq

30
100

20
50
70
70
90
300

05-13,33)' +(5-6,67)' + ... +(50-30)' =3301


13,33
6,67
30'

Verteilung von V (falls Ho richtig):


Chi-Quadrat-Verteilung mit (k - l)(m - 1) Freiheitsgraden, da h; ;>: 5 fr alle i
und j.

3. Kapitel 111- Induktive Statistik

703

(3) Entscheidungsregel:
Ho ablehnen gegenber HAt wenn v > X~-Il, (k-lXm-l) ,

wobei X~-a,(k-lxm-1) = X~,95;4 = 9,49.


(4) Entscheidung:
(v - 33,01) > (lCLa.(k-l)(m-l)- 9,49) -7 Ho kann abgelehnt werden.

Man kann also davon ausgehen, dass die Qualifikation der beiden Gruppen
nicht bereinstimmt, d.h. nicht homogen ist.
AufgabeT13

Chi-Quadrat-Unabhngigkeitstest:
(1) Ho:
HA:

Berufsausbildung und Prfungsergebnis sind unabhngig.

a - 0,05

Berufsausbildung und Prfungsergebnis sind abhngig.

(2) Konkrete Ausprgung der Teststatistik V:

geeignet
nicht geeignet
1:
v=

Ausbildung
20
40
60

keine Ausbildung
10
30
40

n(hllh" - h 12 h 21 )' 100 (3020 - 40 10)'


;;;;;;
h,h,.h,h,
70306040

1:

30
70
100

0,79

Verteilung von V (falls Ho richtig):


Chi-Quadrat-Verteilung mit Ck - 1)(m - 1) Freiheitsgraden, da h;:!: 5 fr alle i
und j (h;t

42, h~2

12, h;2

28, h~l

18).

(3) Entscheidungsregel:
Ho ablehnen gegenber HAt wenn v > X~-Il, (k-lXm-l) ,

wobei X~-Il, (k-lXm-l) = X~,95; 1 = 3,84.


(4) Entscheidung:

(v - 0,79) < (X:-a. (k-'Xm-l) - 3,84) -7 Ho kann nicht abgelehnt werden.


Man kann also nicht statistisch nachweisen, dass die Berufsausbildung und die
Prfungsergebnisse voneinander abhngen.
AufgabeT15

Einfache Varianzanalyse:
(1) Ho:

IL, - IL, - IL,

a - 0,05

Mindestens zwei der Il, sind verschieden.


(2) Konkrete Ausprgung der Teststatistik V:
HA:

Aus der nachfolgenden Tabelle lassen sich die Werte q, und q, und damit die
Realisation v berechnen:

V Lsungen

704

Feld (i)
Weizen Cf)

12
9
10

13
11
9

10
10

9
11
13

11
13
10

Stichprobensumme

W,
W,
W,
Stichprobengesamtsumme
Stichprobengesamtmittel

11

12
9

55
66
70

Stichprobenmittel
11
11
10

191
10,61

q, = ~>jx: -nX~=(511' +611' +710')-(5+6+7)10,61'


1_1

L ~>~ -Lnlx: = (12' + 13' + 10' + ... + 8') - 2.031 = 2.067 - 2.031 = 36
,~

q, =

= 2.031- 2.026, 30 = 4,70

1=1 1=1

(n -r)q,

v=~~~

(r -1)q,

)=1

((5+6+7)-3)4,70
(3-1),36

70,5 =0 98
72'

Verteilung von V (falls Ho richtig):


F-Verteilung mit r - 1 und n - r Freiheitsgraden, da GG normalverteilt.
(3) Entscheidungsregei:
Ho ablehnen gegenber HA' wenn v>

f1-IX,r-l,n-r),

wobei f1_a., r-l, n-r = fO,95; 2; 15 = 3,68.


(4) Entscheidung:

(v - 0,98) < (f,_a, ,-1, n-, - 3,68) --7 Ho kann nicht abgelehnt werden.
Es lsst sich also nicht statistisch nachweisen, dass die drei Weizensorten im
Mittel unterschiedliche Ertrge liefern.

4.

Kapitel IV - Okonometrie

Aufgabe 01
a) Y, = o + ,Z, + E,

z,

c) Z, = o + ,X, + E,
e) Z1\ = o + ,Z2I + E,

Z, =lnY,

Z1\ = Cl + ,Z2I + E,
Nicht schtzbar: b), d)

f)

=X~

Z1\ = In Y" Z2I = InX,


Z1\ =lnY" Z2I =lnX"

Cl

= Ino

Aufgabe 05
a) Definieren wir das neue Modell Y, = ; + ;X; + E, mit X; = lOX" so wird die
Schtzung des Steigungsparameters lO-rnal kleiner und die der Konstanten
bleibt unverndert. Es gilt nmlich

_. L{X;-X)y,
,= L{X;-X.)'

L(lOX i -lOX)Yi

lOL(Xi -X)Yi

L(lOX, -laX)'

100L(X, -X)'

10'

a =1'-X =1'_, .1OX= .


o

10

Alternative Begrndung: Da Y sich nicht ndern darf, muss ; = o und auch


; = fo- , gelten, da fo- , lOXi = , Xi
Da e, = Y; - ; - ;X; = Y, - o - a,X, unverndert ist, bleibt auch die Schtzung der Varianz des Strtenns unverndert.

b) Defmieren wir das neue Modell Y; = ; + ;X, + E; mit Y;. = 1Oy;, so wird sowohl die Schtzung des Steigungsparameters als auch die der Konstanten 10mal grer. Es gilt nmlich
_

~x.{Y_1')

:="'"

'L' ,
Xi

~x,.{lOY,. -101')

"'"

LX:

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_24, Springer Fachmedien Wiesbaden 2015

706

V Lsungen

; = y' - ;X = lOY -lO,X = lOo


Alternative Begrndung: Multiplikation beider Seiten von Y, = [30 + [3,X, + E,
mit 10 liefert 10Y; = 10[30 + 10[3,X, + 10E, und somit [3; = 10[30 und [3; = 10[3,.
""--"'"
""'-wo--'
'---v---'
""---"
y;
~
~Xj
r;
Die Schtzung fr die Varianz des Strterms wird 100-mal grer, da
e;' = (y;' - ; - ;X,)' = (10Y, -lOo - lO, X,)' = 100(Y, - o - , X,)' = 100e: .
Aufgabe 07

Die Residuen ergeben sich zu I, -I, I, 2 und -3, was folgendes Ergebnis liefert:

~>:
16
'
er = - = - ' Var([3 ) = ~---=-~~
n-2 3'
' L ( X -X)'
A

'6

,- =05333
10
'

Aufgabe 09
a)

Yi = 5,83+ 8,69X;

b)

Y; = 0,583 + O,0869Xi

c)

Y; = 0,583 + O,869X;

(1,23) (1,17)

mit X;= X, /10

(0,123) (0,0117)
(0,123) (0,117)

mit
mit

Y; = Yi /10
Y; = Yi ! 10

und X; = Xi /10

Die Werte von R' bleiben in allen drei Fllen unverndert.


Aufgabe 011

a) Y=l, X, =0, X, =0
LYiXU =13,

LX: =16, LYiXZi =4, LX~i =10, Lxtix


i

= (Ly,xlI)(Lx;,)-(Ly,x,,)(LxlIx,,)
(L x~,)(L x;) - (L XliX,,)'

= (LYi X,,)(Lx;i)-(LYtXli)(Lx,h)
,

(LX~i)(LX;i)-(LXliXS

Zi

=0

0,8125

0,4

o =y-,X, -,X, =1
b) e = Hl,4; 0,9875; -0,025; -0,375; -1,4125; 0,025; 0,6; 0,4125; 0,18751

cl

L"'-e'-:_

= _____

n-K-1

3,8375 = 0,6396
9-2-1

4. Kapitel IV - konometrie

707

,)16 10
c) RSS =

L e; = 3,8375

ESS = TSS - RSS = 12,1625

=0

TSS =

L (Y

1 -

1')'

R' = ESS = 12,1625


TSS
16

= 16
0,7602

AufgabeIl
a) Fr n - 20 gilt I t I < t,-012.n-K-, bzw. 2 < (1",975; I' - 2,10), d.h. keine Signifikanz. Fr n - 100 erhalten wir 2 > (Z,,975 - 1,96), d.h. Signifikanz.
b) Fr p - 0,005 wird Ho sowohl bei einer Irrtumswahrscheinlichkeit von 5 % als
auch bei 1 % abgelehnt. Fr p - 0,0108 wird Ho nur bei einer Irrtumswahrscheinlichkeit von 5 %, jedoch nicht bei 1 % abgelehnt.
Aufgabea
a) (a)

o = t o .0-" = 1,2572,1738 - 2,732

(b)

0-"

(c)

p-Wert = 2 (1- PC! < 1,257)) = 2 (1- 0,8926) = 0,2148

= I / t l = 0,1801 / 5, 754 = 0, 0313

b) , t l _ a/2,n_K_I'o-" =O,18012,580,0313 ~ O,099~~, ~O,261


c) Da der Absolutbetrag von t, = (0,1801-0,2)/0,0313 =-{),636 kleiner ist als
der kritische Wert eines zweiseitigen Tests mit 5 % Irrtumswahrscheinlichkeit
und 49 Freiheitsgraden, also 2,01, kann H, nicht abgelehnt werden. Man htte
hier auf Grund des zentralen Grenzwertsatzes auch das 97,5 %-Fraktil der Standardnomtalverteilung 0,96) als zweiseitige Testschranke verwenden knnen.
Die Nullhypothese unterstellt, dass eine Erhhung des Anteils volljhriger
mnnlicher Hochschulabsolventen um einen Prozentpunkt zu einer Erhhung
des durchschnittlichen Einkommens um 200 Dollar fhrt. Eine Nicht-Ablehnung
emtglicht aber bekannterweise keinen Beweis.

Aufgabe 15
Zum Test der gegebenen Hypothesen muss das Modell zunchst geschtzt werden.
Dazu ist es erforderlich die Modellgleichung zu logarithmieren, da andernfalls OLS
nicht angewendet werden kann. Wir sind in der Lage die Steigungsparameter als
partielle Elastizitten aufzufassen. Die Ergebnisse der Tests fr a) bis c) sind in der
nachfolgenden Tabelle dargestellt. In allen Fllen kann Ho bei einem Signifikanzniveau von 1 % abgelehnt werden. [Hinweis: Die Werte von a) und b) erhalten wir
direkt aus dem Regressionsoutput. Der Test c) ist in EViews nach Eingabe von c(1)
+ c(2) - 1 bei View / Coefficient Tests / Wald Coefficient Restrictions zu finden.]

a)
b)
c)

Hp
~I - 0
~,-P,-O
~,+P,-l

t-Wert
3,05

F-Wert
2.810,68
276,51

p-Wert
0,0045
0,0000
0,0000

V Lsungen

708

Der Korrelationskoeffizient zwischen Je, und Je, liegt bei 0,9151. Eine Regression
von X, auf Je, oder umgekehrt wrde daher ein Bestimmtheitsma von 0,9151' 0,8374 liefern. Dies deutet evtl. auf einen gewissen Grad an Multikollinearitt hin.
Werfen wir jedoch einen Blick auf das Regressionsgebnis mit seinen relativ hohen
t-Werten und einem sehr hohen Bestimmtheitsma, so zeigt sich ein anderes Bild:

In(Y,) = 0,0015

+O,1391ln(X,,) +O,6484In(X,,) R' = 0,9943

0,8034
3,0525
27,4196
Das klassische Symptom von Multikollinearitt sind sehr niedrige t-Werte bei einem
hohen Bestimmtheitsma. Multikollinearitt fhrt also i.d.R. zwar zu einem Modell
mit guter Erklrung der Variabilitt von Y, jedoch sind wir nicht in der Lage die
Einflsse der einzelnen erklrenden Variablen mit einem vernnftigen Grad an Przision zu schtzen. Hier liegt dieses Symptom allerdings nicht vor. Unsere Steigungsparameter sind hoch signifikant und auch das R' ist sehr hoch. Es besteht also
keine Veranlassung fr weiteres Handeln. Ein Ausschluss einer Variable kme au-

erdem sowieso nicht in Frage, da beide fr die Produktionsfunktion relevant sind.

AufgabeI7
a) Konfldenzintervall:

, t'_O/2'\ =

0,6991 2, 11 ,,10,0485 = [0,2344; 1, 1638]

Hypothesentest:
Ho kann nicht abgelehnt werden, da der hypothetische Parameterwert im Konfidenzintervallliegt.
b)

0,9466/2
(1- 0,9466) / (20 -2-1)

R' /K

F = -c-~~-'-----C""
(1-R')/(n-K-1)

150,6760

Damit lsst sich Ho bei einem Signiftkanzniveau von 5 % ablehnen, da der vor-

liegende F-Wert deutlich grer als der kritische F-Wert der F(2;17)Verteilung, d.h. 3,59, ist.
Aufgabe 19
Die Schtzung der polynomialen Funktion liefert (Standardfehler in Klammem):

Y; =134,66 +57,97X, +11,03X, +1, 14X,


(44,80) (29,97)
(5,76) (0,34)

etforderlich, sodass wir die


a) Fr eine lineare Kostenfunktion wre ~, - ~, gegenber HA: "mindestens ein ~ ist von Null verHypothese Ho: ~, - ~, schieden" testen mssen. Da F - 62,10 grer als der kritische F-Wert 3,40 ist,
der sich bei einem Signifikanzniveau von 5 % und Freiheitsgraden von (2; 24)
ergibt, knnen wir Ho ablehnen und folgern, dass die vorliegenden Daten keine
lineare Kostenfunktion untersttzen.

b) In diesem Fall ist Ho: ~, - gegenber HA: ~,


zu testen. Da der t-Wert 3,40
hier grer ist als der kritische t-Wert 2,06, der sich bei einem Signifikanzniveau
von 5 % und 24 Freiheitsgraden ergibt, knnen wir H, ablehnen. Die Daten untersttzen demnach auch keine quadratische Kostenfunktion.

4. Kapitel IV - konometrie

709

c) Die Schtzung der logarithmischen Kostenfunktion liefert (Standardfehler in


Klammem):
In Y, = 4,84 +0,62InX,
0,09

0,05

Die RESET-Ergebnisse sind in folgender Tabelle dargestellt:


Ramsey RESET-Test: Polynomiales Model
F-Statistik (1 Proxy)
0,9874
F-Statistik (2 Proxies)
0,5456
Ramsey RESET-Test: Logarithmisches Model
F-Statistik (1 Proxy)
26,229
F-Statistik (2 Proxies)
32,753

p-Wert
p-Wert

0,3307
0,5871

p-Wert
p-Wert

0,000027
0,000000

Der Test des polynomialen Modells liefert p-Werte, die beide ber einem Signiftkanzniveau von 5 % liegen und damit nicht gegen das Modell sprechen. Das
logarithmische Modell hingegen fhrt zu zwei sehr niedrigen p-Werten, die es
als nicht adquat einstufen lassen. Auf Basis der RESET-Ergebnisse wrde man
also das polynomiale Modell vorziehen.
Je nachdem ob ~, < 1 oder p, > 1 gilt, ist die Grenzkostenfunktion im logarithmischen Modell entweder inuner fallend oder inuner steigend. Sie kann also
anders als das polynomiale Modell keine Segmente steigender und fallender
Grenzkosten haben, ist daher weniger flexibel und damit auch weniger realis-

tisch als die polynomiale.


d) Betrachtet man z.B. ein einfaches Modell Y; = ~o + ~,X" + P"X" + E" so wrde
eine Modifikation in der Form Y; = ~o + ~,X" + p,X" + "(Y, + E" in welcher
Y, = +
+
gilt, dazu fhren, dass die modifizierte Modellgleichung
nicht schtzbar ist. Y wre nmlich perfekt mit X, und Je, korreliert.

o ,x" ,x",

AufgabeDl
a) Gerundet erhlt man folgende Schtzergebnisse (Standardfehler in Klammem):

y. = 24200 +1643X, +50330"


(1078)

(352)

(456)

Interpretation: Wird der Notendurchschnitt C.p. um eine Einheit erhht (verbessert), ninunt das durchschnittliche Einstiegsgehalt um 1.643 US-Dollar zu. Studenten, die konometrie belegt haben weisen im Durschnitt ein um 5.033 USDollar hheres Einstiegsgehalt auf, als solche, die das Fach nicht belegt haben.
b) Hinzufgen der Dummy-Variable 0, liefert (Standardfehler in Klammem):

Y,

= 24.242+1.658X, +5.0240" -2050"

(1.091)

(356)

(460)

(420)

Interpretation: Diese Ergebnisse weisen darauf hin, dass das Einstiegsgehalt bei
Frauen im Durchschnitt 205 US-Dollar niedriger ist als bei Mnnem. Aufgrund
der Tatsache, dass der t-Wert des geschtzten Koeffizienten der zweiten Dum-

710

V Lsungen

my-Variable jedoch sehr klein ist, kann die Hypothese, dass Mnner und Frauen im Durchschnitt das gleiche Einstiegsgehalt aufweisen, nicht verworfen werden.
c) Hinzufgen der Interaktionsvariable 0,0, liefert (Standardfehler in Klammem):

Y, = 24.222+ 1.675X, +4.9240" -2800"


(1.104)

(365)

(582)

(500)

+2740"0,,
(966)

Interpretation: Die Belegung des Fachs konometrie scheint fr Frauen einen


hheren Wert als fr Mnner (Wert fr Mnner = 4.924, Wert fr Frauen = 4.924
+ 274 = 5.198) zu haben. Der geschtzte Koeffizient der Interaktionsvariablen ist
jedoch nicht signiftkant von Null verschieden. Die Hypothese, dass das Fach fr
beide Geschlechter gleich wertvoll ist, kann nicht abgelehnt werden.

AufgabeD3
a) Die Parameterschtzungen auf der Folgeseite weisen die konomisch erwarte-

ten Vorzeichen auf und sind auf Basis einseitiger t-Tests fr die erwarteten Vorzeichen auf einem 5 %-Niveau signiftkant. Die Schtzung weist ein R' von
0,8706 bei einer F-Statistik von 1.113,02 auf, was auf eine gute Erklrungskraft
des Modells hindeutet.

0,
X,
X,O,
X,
0,
0,

Koeffizient

Std.-Fehler

t-Statistik

97.840,97
109.851,30
608,98
103,90
-760,92
17.512,06
6.610,86

24.776,04
33.699,85
19,62
26,57
204,83
4.787,07
3.888,06

3,95
3,26
31,04
3,91
-3,71
3,66
1,70

p-Wert

0,0001
0,0012
0,0000
0,0001
0,0002
0,0003
0,0894

Fr Huser in Universittsnhe ergibt sich die Schtzgleichung


~ = ,207.692,27 + 712,88 Xli -760,92X" +17.512,060" +6.610,860"
'~

97.840,97';109.851,30

608,98+103,90

fr weiter entfernt liegende Huser

~ = 97.840,97+608,98X" -760,92X" +17.512,060" +6.610,860"


Wir knnen also insgesamt folgern:
- Unabhngig von der Gre ist der Preis fr in Universittsnhe liegende
Immobilien durchschnittlich 109.851,30 Euro hher. Zustzlich steigt der m'Preis bei Universittsnhe von 608,98 Euro auf 712,88 Euro.
- Immobilien verlieren durchschnittlich 760,92 Euro pro Jahr an Wert.
- Ein Pool erhht den Immobilienpreis durchschnittlich um 17.512,06 Euro.
- Ein Kamin erhht den Immobilienpreis durchschnittlich um 6.610,86 Euro.

4. Kapitel IV - konometrie

7tt

b) Die Schtzung der linksseitigen Semi-Log-Fonn liefert folgende Ergebnisse:


KoeffIZient

Std.-Fehler

t-Statistik

12,7577
0,3335
0,0007
-6,86E-05
-0,0009
0,0190
0,0066

0,0264
0,0359
2,09E-05
2,83E-05
0,0002
0,0051
0,0041

483,50
9,29
34,42
-2,43
-4,15
3,73
1,59

C
D,
Je,
Je,D,
Je,
D,
D,

p-Wert
0,0000
0,0000
0,0000
0,0155
0,0000
0,0002
0,1129

Ein zustzlicher Quadratmeter erhht den Preis im Durchschnitt um ungefhr


0,07 %. Eine Erhhung des Gebudealters um ein Jahr fhrt zu einer Reduzierung des Gebudepreises um ca. 0,09 %. (Fr eine exakte Berechnung vgl. die
Ausfhrungen der nachfolgende Seite.)
Man beachte: D, ist im neuen Modell bei a - 0,05 nicht mehr signifikant.
c) Die Differenz der logarithmierten Preise von Husern mit und ohne Pool entspricht dem Parameter p, der Dummy-Variablen D,. Daraus ergibt sich
In Ypool -In

Y""mP~1 = p,

In(

Yp~l

YKeinPool

J= p, .

Dies bedeutet, dass der Preis ungefhr um 1,90 % steigt. Exakter gilt
Ypool
YKelnPool

Ypool

YKeln Pool

YKeln Pool

e~ -1,

d.h. die gesuchte Preisnderung ergibt sich zu (eO.0190 -1) 100 = 1,92 %.
d) In diesem Fall ergibt sich die Differenz der logarithmierten Preise als
InY""""Blm..... -lnY"",~ = 0,3335-0,00006862.500 = 0,162,
d.h. die ungefhre Preissteigerung zu 16,2 %. Exakt ergibt sich die gesuchte
Preisnderung als (eO.16' -1) 100 = 17,59 %.
Aufgabe HAI
Die OLS-Schtzung und die WLS-Schtzungen liefern (inkl. der p-Werte des WhiteTests in seinen EViews-Standardeinstellungen) die auf der Folgeseite zu findenden
Ergebnisse. Jede Spezifikation sieht eine andere Heteroskedastizittsstruktur vor,
wobei davon ausgegangen werden kann, dass bei cr'1nX, die Heteroskedastizit am
geringsten und bei (J'X; am strksten ausgeprgt ist. Insgesamt reagieren die
Schtzungen der Steigungsparameter und die geschtzten Standardfehler nicht allzu
sensibel auf die Heteroskedastizittsspeziflkation. Geben wir eine Irrtumswahrscheinlichkeit von 5 % vor, so kann nur bei den Spezifikationen (H) und (ili) die
Nullhypothese der Homoskedastizitt nicht mehr abgelehnt werden. Bei einer Irrtumswahrscheinlichkeit von 10 % erscheint (ili) als zu favorisierende Spezifikation.
Hinweis: Bei Var(e) - cr'lnX, ist empirisch natrlich darauf zu achten, dass die Beobachtungen X, natrlich grer als 1 sein mssen.

V Lsungen

712

WLSGewichte

Var(e)

Schtzung
aLS
WLS (i)

cr'J.nX,

WLS ()

a'x,

1/ ,jX.

WLS (i)

a2 x:

l/X,

WLS (iv)

cf,jX.

1/ ,jlnX,

1/X~,25

p-Wert

40,768
(22,139)
39,550
(21,469)
31,924
(17,986)
21,286
(14,038)
36,753
(20,052)

0,128
(0,031)
0,130
(0,030)
0,141
(0,027)
0,158
(0,023)
0,134
(0,029)

(White-Test)

0,0007
0,0038
0,0710
0,4300
0,0136

AufgabeHA3

a) Die aLS-Schtzung liefert folgende Ergebnisse:


Koeffizient

Std.-Fehler

t-Statistik

2,2432
0,1645
1,1451

2,6688
0,0354
0,4144

0,8405
4,6454
2,7630

C
X,
X,

p-Wert
0,4063
0,0000
0,0091

Die Schtzungen der Steigungskoeffizienten sind signifikant von Null verschieden. Eine Erhhung des Einkonunens um 1.000 Euro fhrt C.p. durchschnittlich
zu einer Erhhung der Lebensmittelausgaben um 164,50 Euro; eine zustzliche
Person im Haushalt ZU einer Erhhung um 1.145,10 Euro.
b) Trgt man die quadrierten Residuen (proxies fr die Strtennvarianzen) gegenber Xt und
in einem Koordinatensystem ab, steigen diese mit ~ und Xl' Die
Strtennvarianz scheint also sowohl von X, als auch von X, abzuhngen.

x.:

'Z1',-------~-___,

'Z1',-----~---___,

'00

'00

.,

.,

Z1

,.

o,+-+-+-+--+-'~-.--I

Die Nullhypothese der Homoskedastizitt kann beim White-Test (p-Wert


0,0347) und beim Breuseh-Pagan 1M-Test ep-Wert 0,0104) bei einer Irrtumswahrseheittlichkeit von 5 % abgelehnt werden. Da die erklrenden Variablen X,
und X, der Testregression des Breuseh-Pagan LM-Tests signifikanten Erklrungsgehalt besitzen, hngt die Strtennvarianz in der Tat von X, und X, ab.

4. Kapitel IV - konometrie

7t3

c) Unter Verwendung von White-Standardfehlem ergibt sich folgendes Ergebnis:

c
X,

Je,

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

2,2432
0,1645
1,1451

2,3653
0,0299
0,4540

0,9484
5,5039
2,5224

0,3494
0,0000
0,0164

Die White-Standardfehler geben Hinweise darauf, dass die Standardfehler aus a)


unter-, die von
berschtzen.
die Przision von

d) Nach den Ergebnissen aus Teilaufgabe b) wrde sich eine ModelIierung in Abhngigkeit der Variablen X, und Je, anbieten. Da Var(e) jedoch auch von anderen (uns unbekannten) Variablen abhngen kann, besteht das Risiko einer falschen Spezifikation der Heteroskedastizittsstruktur und damit auch in groen
Stichproben die Gefahr nicht effizienter Schtzungen. Gerade daher empfiehlt
sich ein Ausweichen auf White-Standardfehler.
AufgabeHA5

a) Die OLS-Schtzung des Erfahrungskurvenmodells liefert:

C
In x,.,

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

5,8256
-0,3595

0,2762
0,0364

21,091
-9,8884

0,0000
0,0000

Die Parameter des Modells sind bei jeder Irrtumswahrscheinlichkeit signifikant


von Null verschieden. Eine Erhhung der kumulierten Produktion um 1 % fhrt
zu einer Senkung der Stckkosten um 0,36 %.
b) Die Durbin-Watson-Statistik nimmt einen Wert von d - 0,8244 an und besttigt
positive Autokorrelation erster Ordnung, da H,: p :0; 0 gegenber HA: P > 0 aufgrund von 0 < d < 1,08 (vgl. Tabellenwerk bei n - 15 und K - 1) abgelehnt
werden kann. Der p-Wert des Breusch-Godfrey LM-Tests ist 0,1283. Mit diesem
Test kann bei (l - 0,05 also keine Autokorrelation erster Ordnung festgestellt
werden.
c) Die GLS-Schtzung liefert:

C
In x,.,
AR(1)

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

7,0419
-0,5161
0,5947

1,1933
0,1522
0,2599

5,9011
-3,3907
2,2880

0,0001
0,0060
0,0429

Die neue Schtzung liefert neben einem deutlich vernderten Steigungsparameter auch einen hheren Standardfehler und damit einen niedrigeren t-Wert.
Dennoch bleibt der Einfluss von In X auf einem Niveau von 1 % signifikant.

V Lsungen

714

Eine erneute Betrachtung der Durbin-Watson Statistik liefert d - 1,3660, was


nun in den Nichtablehoungsbereich d > 1,36 fallt, sodass positive Autokorrelation nicht mehr besttigt werden kann. Der Breusch-Godfrey LM-Test weist
nun mit einem p-Wert von 0,3802 noch deutlicher auf nicht vorliegende Autokorrelation hin.
d) Unter Verwendung von Newey-West-Standardfehlern ergibt sich:

In

x,.,

Koeffizient

Std.-Fehler

t-Statistik

5,8256
-0,3595

0,3981
0,0521

14,632
-6,9021

p-Wert
0,0000
0,0000

Mit einem kritischen t-Wert von 2,14 bei 14 Freiheitsgraden ergibt sich:

aLS:
Newey-West:

O GLS:

-0,4374 S

~,

S -0,2816

-0,4710 S

~,

S -0,2480

-0,8418 S

~,

S -0,1904

Aufgrund der geringeren lntervallbreite erscheinen die lntervallschtzungen bei


aLS prziser als sie wirklich sind. Erst die Bercksichtigung der Autokorrelation
fhrt zur Verbreiterung des Intervalls. Diese fallt im GLS-Fall erheblich strker
aus als bei Newey-West-Standardfehlern.
d) Der sehr geringe Stichprobenumfang von n - 15 ist in mehrerlei Hinsicht problematisch. Erstens ist der Breusch-Godfrey LM-Test ein asymptotischer Test,
der daher fr kleine Stichproben schlecht geeignet ist. Dies erklrt, warum er
unter b) nicht in der Lage war, die Autokorrelation aufzudecken. Zweitens sind
sowohl Newey-West-Standardfehler als auch eine GLS-Schtzung nur fr groe
Stichproben vorgesehen und in kleinen Stichproben unprzise. Die Ergebnisse
aus d) sind daher mit Vorsicht zu betrachten.
Hinweis: Analog zu Aufgabe HA4 besteht darber hinaus das Problem, dass die
verwendeten Variablen nicht stationr sind, sodass die Schtzungen mglicherweise weniger signifikant sind, als sie hier erscheinen. Zunchst msste daher

dem Problem der Nicht-Stationaritt begegnet werden (vgl. dazu Abschnitt IV


4.7) und erst im Anschluss daran noch auftretende Autokorrelation bekmpft
werden. Der Stichprobenumfang ist im hier allerdings so gering, dass die dafr
ntigen Methoden nicht anwendbar sind. Es ist also im gegebenen Beispiel einfach nicht mglich aussagekrftige Schlsse aus dem Datenmaterial Zu ziehen.
e) Im Falle einer Fehlspezifikation in Form von vernachlssigten Variablen sind
aLS-Schtzer verzerrt und inkonsistent. Festgestellte Autokorrelation ist ein
deutlicher Hinweis auf eine derartige Problematik. Autokorrelation, die aus der
Vernachlssigung von Variablen reduziert, darf nicht durch GLS-Schtzung oder
Newey-West-Standardfehler begegnet werden. Ihre Bekmpfung muss durch
Modellmodifikation erfolgen.
Bei der Erklrung von Stckkosten sind nicht nur Lerneffekte sondern ggf. auch
Skaleneffekte oder Faktorpreise relevant. Es empfiehlt sich also zur Beseitigung
der Fehlspezifikation (und damit der Autokorrelation) beispielsweise eine Spezifikation, die zustzlich die kontemporre Produktionsmenge bercksichtigt.

4. Kapitel IV - konometrie

7t5

AufgabeIVl
a) Die OLS-Schtzung des Modells liefert:

c
X

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

6,3019
0,0207

1,7457
0,0222

3,6099
0,9286

0,0007
0,3578

Der geschtzte Steigungsparameters ist wie erwartet positiv, jedoch sehr niedrig.
Es zeigt sich auerdem, dass der Einfluss des Einkommens auf die Ersparnisse
nicht signifikant ist. Wir knnen ausschlieen, dass aufgrund von Autokorrelation oder Heteroskedastizitt verzerrte Standardfehler fr dieses Ergebnis verantwortlich sind, da entsprechende Tests keine Anzeichen fr diese Annahmenverletzungen liefern.
b) Die IV- bzw. TSLS-Schtzung mit Instrument Z liefert:

c
X

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

2,2748
0,0727

2,6343
0,0338

0,8635
2,1498

0,3921
0,0366

Der geschtzte Steigungsparameter ist wieder positiv, jedoch nun deutlich hher. Ho: p, ~ kann auerdem bei a - 0,05 aufgrund von p - 0,0366/2 < 0,05
gegenber HA: p, > abgelehnt werden.
c) In einem ersten Schritt wird die potenziell endogene Variable X auf das Instrument Z regressiert und die Residuen dieser Regression festgehalten. Diese werden als zustzliche Variable V in das Ursprungsmodell aufgenommen:

c
X
V

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

2,2748
0,0727
-0,1005

2,3848
0,0306
0,0425

0,9539
2,3748
-2,3627

0,3450
0,0217
0,0223

Der geschtzte Koeffizient der Residuenvariable ist bei a - 0,05 signifikant von
Null verschieden. Wir knnen daher die Nullhypothese, dass X und E nicht korreliert sind, ablehnen. Dieses Ergebnis spricht gegen die OLS-Schtzung aus a).
AufgabeIV3
a) Die OLS-Schtzung liefert:

C
X,

Je,
X,

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

1,7623
0,1468
0,4380
0,2392

1,0553
0,0634
0,1176
0,0998

1,6698
2,3149
3,7253
2,3964

0,0994
0,0235
0,0004
0,0192

Alle Parameterschtzungen weisen das erwartete Vorzeichen auf und sind auf
einem Niveau a - 0,05 signifikant von Null verschieden.

V Lsungen

716

Die Stichprobenmittelwerte fr X, und X, sind 7,8347 und 10,0467. Wir erhalten


daraus die Punktprognose (NB - neue Brauerei)

YNB

+ P,X ,.NB + 'X2NB + 'X'.NB


= 1,7623 + 0,1468 10 + 0,4380 . 7,8347 + 0, 2392 . 10,0467 = 9,0647.
= Po

b) In einem ersten Schritt wird die potenziell endogene Variable X, auf das Instrument Z und die exogenen Variablen X, und X, regressiert und die Residuen
dieser Regression festgehalten. Diese werden als zustzliche Variable V in das
Ursprungsmodell aufgenommen:

C
X,

X,
X,

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

-2,4867
0,5121
0,3321
0,2400
-0,4158

2,1896
0,1773
0,1242
0,0972
0,1892

-1,1357
2,8882
2,6737
2,4685
-2,1978

0,2600
0,0052
0,0093
0,0160
0,0313

Der Hausman-Test auf Korrelation zwischen

und

entspricht einem Signifi-

kanztest fr die Residuenvariable V. Da der p-Wert 0,0313 unter


kann gefolgert werden, dass X, und E korreliert sind.

(l -

0,05 liegt,

c) Die IV- bzw. TSLS-Schtzung liefert folgendes Ergebnis:

C
X,
X,
X,

Koeffizient

Std.-Fehler

t-Statistik

p-Wert

-2,4867
0,5121
0,3321
0,2400

2,7226
0,2205
0,1545
0,1209

-0,9133
2,3227
2,1502
1,9852

0,3642
0,0231
0,0349
0,0510

Wie bei a) haben die Schtzungen das erwartete Vorzeichen. Im Vergleich zu


den OLS-Ergebnissen haben sich die geschtzten Parameter der Variablen X,
und X, deutlich verndert, whrend der von X, fast gleich geblieben ist. Alle
Schtzungen sind auf einem 10 %-Niveau signifikant (bzw. auf einem 5 %Niveau, wenn nur ein einseitiger t-Test verwendet wird).

Unsere neue Prognose ist nun

'"
RIV A.IV
RN
R.IV
YNB = >'0 + >'1 X,.NB + >'2 X 2,NB + >', X'.NB
= 1, 7623 + 0,146810 + 0,4380 7,8347 + 0,2392 10,0467 = 7,6475.

Dies zeigt, dass ein Ignorieren der Korrelation zwischen X, und


Fall zu einer berschtzung des Bieroutputs fhrt.

in unserem

AufgabeZRl
Die Dickey-Fuller Stationarittstests liefern folgende Ergebnisse, wobei aus Grnden der bersichtlichkeit auf die Abbildung der Zusatzterrne zur Bercksichtigung
von Autokorrelation verzichtet wird. Wir schlieen Variablen nach dem sequenziel-

len Schema aus, wenn sie nicht mind. bei einem Niveau von 10 % signifikant sind.

4. Kapitel IV - konometrie

7t7
Y, (Stufe 1)
Koeffizient p-Wert
24,1291
4,3766
-0,0205

C
@TREND(1950)
Y(-1)

p-Wert (DF)
Akaike-Lal(-Zahl

Y, (Stufe 1)

0,2047
0,0737
0,2540

65,1034
9,6978
-0,0566

0,9103
1

C
@TREND(1900)
Y(-1)

p-Wert

p-Wert (DF)
Akaike-Lall-Zahl

Y. (Stufe 1)

p-Wert

KoeffIzient

0,1424
0,0083
0,0255

0,3993
0,0152
-0,0867

0,6012
0,0446
0,0993

0,7483
1

Y, (Stufe 1)

KoeffIzient

p-Wert

Koefftzient

0,4470
3

-0,4730
0,1022
-0,1910

0,6892
0,0165
0,0730

0,6895
11

Zum Test 1'} = 0 darr nicht der individuelle p-Wert verwendet werden. Stattdessen
ist der p-Wert des Dickey-Fuller Stationarittstests heranzuziehen, der bereits die
speziellen kritischen Werte bercksichtigt. Bei allen Variablen ist lediglich die
Schtzung der Stufe 1 des Prfungsschemas errorderlich, um eine Nicht-Stationaritt
aufzuzeigen. Zur Bestimmung des Integrationsgrades prfen wir die ersten Differenzen der Zeitreihen auf Stationaritt. Wir erhalten die folgenden Ergebnisse, die
uns zeigen, dass die ersten Differenzen aller Reihen stationr und damit alle Reihen
1(1) sind. Abgesehen von Variable Y, ist dafr nur Stufe 1 zu schtzen.
AY, (Stufe 1)
Koefftzient p-Wert
C
@TREND(1950)
D(Y(-l))

p-Wert (DF)
Akaike-Lag-Zahl

C
@TREND(1900)
D(Y(-l))

p-Wert (DF)
Akaike-Lag-Zahl

AY, (Stufe 1)
Koefftzient p-Wert

22,3596
1,7780

0,2391
0,0355

41,4173
1,9773

0,1939
0,0630

-0,5427

0,0005

-0,7294

0,0000

0,0283
0

0,0008
0

AY, (Stufe 1)
Koefftzient p-Wert

AY, (Stufe 2)
KoeffIzient p-Wert

0,7454

-0,0533
0,0034

0,1967

-0,7340

0,0000

0,0001
3

AY. (Stufe 1)
Koefftzient p-Wert

0,1327

0,0986

-1,1355
0,0441

0,2814
0,0126

-0,7017

0,0000

-3,4067

0,0000

0,0000
3

0,0000
7

V Lsungen

718

Aufgabe ARCHI

a) E(E, I I H ) = E(Z,.Jh, II H ) = E(Z,) . .Jh, = 0.Jh, =


b) Da E(E, I I H ) = gilt, entspricht die Varianz E(E: II H ) . Fr diese lsst sich
dann E(E: I I H ) = E(z:h, II H ) = E(z:) h, = 1 h, = h, festhalten.
c) Da gegeben 1.-, der Ausdruck h, in E, = z,.Jh, als Konstante interpretiert werden kann, entspricht die Verteilung von E, IIH der von z, gestaucht/gestreckt
um den Faktor .Jh, . z, ist nonnalverteilt mit Erwartungswert und Varianz 1.
E, II H ist damit normalverteilt mit Erwartungswert
und Varianz h, (siehe
Teilaufgaben a) und b)).

Aufgabe ARCH3
a) Wie das folgende Autokorrelogramm der quadrierten Goldrenditen zeigr, liegen
fast alle Autokorrelationskoeffizienten auerhalb des 95% Konfidenzbandes, sodass von signifikanter Autokorrelation und damit von bedingter Heteroskedastizitt bei den Goldrenditen auszugehen ist.
Aulokorreiation quadrierter Goldrendilen

rl 111

111111
I

10

20
Log

30

b) whrend die Schiefe der Goldrenditen mit --{),311 nur wenig vom Schiefewert
der Normalverteilung abweicht, zeigr sich bei der Wlbung mit 9,743 ein deutlicher Unterschied zum Nonnalverteilungswert 3, sodass davon ausgegangen
werden kann, dass die Goldrenditen keiner Nonnalverteilung folgen.
c) Die Schtzung des GARCH(1,1)-Modells fr die Goldrenditen liefert die auf der
Folgeseite dargestellten Ergebnisse. Fr die gestellten Fragen gilt damit:
i. Die Nichtnegativitts- und die Stationarittsbedingung sind jeweils erfllt, da
0:0 ~ 0, 0:, ~ 0, ~,~ und 0:, +~, < 1 bzw. konkret 0,027 > 0, 0,090 > 0,
0,899 > und 0,090 + 0,899 = 0,989 < 1.
ii. Die ARCH- und GARCH-Parameter sind auf einem 5% Niveau signiftkant, da
ihre t-Werte von 8,34 und 88,37 deutlich grer als 1,96 sind.
iii. Als Schtzung fr die langfristige Varianz erhlt man

fi'

0:0
1-0:, -,
A

0,027
= 2, 455
1-0,090-0,899

und damit die langfristige geschtzte Volatilitt p.a. 2,455" . 250"

24,77%.

4. Kapitel IV - konometrie

7t9

GARCH 11
gold
_cons

0.038
(1.51)

ARCH
L.arch

0.090"
(8.34)
0.899
(88.37)
0.027"
(5.62)
1560
-2394.721

L.garch

_cons
N

11

t-Wert in Klammem, p < 0.10, P < 0.05


d) Im Folgenden sind die Autokorrelograrnme der standardisierten und der quadrierten standardisierten Residuen aufgefhrt. Abgesehen von einem Ausreier
bei den standardisierten Residuen, ist keine signifikante Autokorrelation zu beobachten. Es kann daher davon ausgegangen werden, dass das geschtzte
GARCH-Mode11 die Dynamik der vorliegenden Daten adquat beschreibt.
Aulokarrelation standardisierter Residuen

j
o

II
5

I I'
....
10

11)l jl i
I
15

20

Autokorrelation quadrierter standardisierter Residuen

~s---~~~~~~~~~~~~~~----,

9~------~------~-------r------~

10

L..

15

20

VI ANHANG

Hier im Anhang finden sich in der Statistik bedeutende Tafeln. Dazu gehren
neben ausgewhlten Binomialkoeffizienten (nicht jeder Taschenrechner
unterstOtzt deren automatische Berechnung) vor allem Wahrscheinlichkeitsverteilungen bzw. konkret die

Binomialverteilung (Verteilungsfunktion),

Poissonverteilung (Verteilungsfunktion),

Standardnormalverteilung (Verteilungsfunktion, Quantile),

t-Verteilung (Quantile),

Chi-Quadrat-Verteilung (Quantile) und

F-Verteilung (Quantile).

Darber hinaus sind die wichtigsten konometrischen Tabellen enthalten.


Konkret liefern wir kritische Werte zum

Durbin-Watson-Autokorrelationstest und

Dickey-Fuller-Stationarittstest.

Smtliche Tabellen stellen wir zum besseren Einsatz in der Lehre auch in
unserem Online-Service in digitaler Form zur Verfgung. Dort finden Sie
auch Verteilungen (z.B. die Hypergeometrische Verteilung), die aus Platzgrnden nicht im Buch abgedruckt wurden.

1
1.1

Statistische Tafeln

Binomialkoeffizienten

Definition fr N ,n

N und N ~ n:

N)=( N )=N.(N-l) ..... (N-n+l)=


N!
(n
N-n
n!
n! '(N-n)!
Sonderfalle:

n
N

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

1
3
6
10
15
21
28
36
45
55
66
78

91
105
120
136
153
171
190
210
231
253
276
300
325
351
378
406
435

1
4
10
20
35
56
84
120
165
220
286
384
455
560
680
816
969
1140
1330
1540
1771
2024
2300
2600
2925
3276
3654
4060

1
5
15
35
70
126
210
330
495
715
1001
1365
1820
2380
3080
3876
4845
5985
7315
8855
10626
12650
14950
17550
20475
23751
27405

1
6
21
56

126
252
462
792
1287
2002
3003
4368
6168
8568
11628
15504
20349
26334
33849
42504
53130
65780
80730
98280
118755
142506

1
7
28
84
210
462
924
1716
3003
5005
8008
12376
18584
27132
38760
54284
74813
100947
134596
177100
230230
296010
376740
475020
593775

1
8

36

120
330
792
1716
3432
6435
11440
19448
31824
50388
77520
116280
170544
245157
346104
480700
657800
888030
1184040
1560780
2035800

10

1
1
9
10
1
45
165
11
65
495
220
68
1287
715
288
3003
2002
1001
8435
5005
3003
12870
11440
8008
24310
24310
19448
43758
48620
43758
75582
92378
92378
125970
167980
184756
203490
293930
352716
319770
497420
648846
490314
817190 1144068
735471
1307504 1961256
1081575 2042975 3268760
1562275 3124550 5311735
2220075 4686825 8436285
3108105 6906900 13123110
4292145 10015005 20030010
5852925 14307150 30045015

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_25, Springer Fachmedien Wiesbaden 2015

724

VI Anhang

1.2 Binomialverteilung - Verteilungsfunktion


Ablesebeisspiel:
Nehmen wir an, wir interessieren uns fr die Wahrscheinlichkeit, dass eine B(7;0,1)verteilte Zufallsvariable X einen Wert von hchstens 2 annnimmt, so erhalten wir diesen
S 2) - 0,9743. Die Wahrscheinlichkeit
2)
aus der untenstehenden Tabelle zu
erhalten wir ber P(X - 2) - P(X S 2) - P(X S 1) - 0,9743 - 0,8503 - 0,1240.

pex

pex -

Hinweis:

Fr p > 0,5 kann der gesuchte Wert ber F"",.p,cx) - 1 - F.",,-.,cn-x-1) bestimmt werden.
n

1
2

1
2

1
2
3

1
2
3
4

P
0,05

0,10

0,15

0,20

0,25

0,30

0,35

0,40

0,45

0,50

0,9500

0,9000

0,8500

0,8000

0,7500

0,7000

0,8500

0,6000

0,5500

0,5000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,9025
0,9975

0,8100
0,9900

0,7225
0,9775

0,6400
0,9600

0,5625
0,9375

0,4900
0,9100

0,4225
0,8775

0,3600
0,8400

0,3025
0,7975

0,2500
0,7500

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,8574
0,9928
0,9999

0,7290
0,9720
0,9990

0,6141
0,9393
0,9966

0,5120
0,8960

0,4219
0,8438

0,3430
0,7840

0,2746
0,7183

1,0000

1,0000

1,0000

0,9844
1,0000

0,9730
1,0000

0,9571
1,0000

0,1664
0,5748
0,9089

0,1250
0,5000

0,9920
1,0000

0,2160
0,6480
0,9360
1,0000

1,0000

0,8750
1,0000

0,8145
0,9860
0,9995
1,0000
1,0000

0,6561

0,5220
0,8905
0,9880
0,9995
1,0000

0,4096

0,3164

0,2401

0,0915

0,0625

0,7383
0,9492

0,6517
0,9163

0,1785
0,5630

0,1296

0,8192
0,9728

0,4752

0,8735

0,3125
0,6875

0,9984
1,0000

0,9961
1,0000

0,9919
1,0000

0,8208
0,9744
1,0000

0,3910
0,7585

0,9590
1,0000

0,9375
1,0000

0,0503
0,2562
0,5931
0,8688

0,1875
0,5000

0,7738

0,3277

0,2373

0,1681

0,1160

0,0778

0,7373
0,9421
0,9933

0,6328
0,8985

0,5282
0,8369

0,3370
0,6826

0,9844

0,9997

0,9815

1,0000

0,9990
1,0000

0,9947

1,0000

0,9999
1,0000

0,9692
0,9976

0,4284
0,7648
0,9460

1,0000

0,9688
1,0000

0,7351
0,9672

0,5314
0,8857

0,3771
0,7765

0,2621

0,1780

0,9978
0,9999

0,9842
0,9987
0,9999

0,9527
0,9941
0,9996

1,0000

1,0000

1,0000

1,0000

1,0000

0,6554
0,9011
0,9830
0,9984
0,9999
1,0000

0,5339
0,8306
0,9624
0,9954
0,9998
1,0000

0,6983
0,9556
0,9962
0,9998
1,0000

0,4783
0,8503
0,9743
0,9973
0,9998

0,3206

0,2097

0,1335

0,7166

0,5767

0,4449

0,9262
0,9879
0,9988
0,9999
1,0000
1,0000

0,8520
0,9667
0,9953
0,9996
1,0000
1,0000

0,7564
0,9294
0,9871

1,0000

1
2
3
4
5
6
7

0,5905
0,9185
0,9914
0,9995

0,9850
1,0000

0,4437

0,9774
0,9988

0,9963
0,9999
1,0000

0,8352
0,9734

1
2
3
4
5

1
2
3
4
5
6

0,9477

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

1,0000

1,0000
1,0000

1,0000
1,0000

0,9978

0,9987

0,9999
1,0000

0,9130

0,0313

0,8125

1,0000

1,0000

0,9698
1,0000

0,1176
0,4202

0,0754
0,3191

0,0467
0,2333

0,0277
0,1636

0,0156
0,1094

0,7443
0,9295

0,6471
0,8826

0,9891

0,9777
0,9982

0,4415
0,7447
0,9308

1,0000

0,5443
0,8208
0,9590
0,9959
1,0000

0,3438
0,6563
0,8906
0,9844
1,0000

0,0824

0,0490

0,0280

0,0152

0,3294-

0,2338

0,1586

0,1024

0,6471
0,8740
0,9712
0,9982
0,9998
1,0000

0,5323
0,8002
0,9444

0,4199
0,7102
0,9037

0,3164
0,6083
0,8471
0,9843
0,9963
1,0000

0,9993
1,0000

0,9910

0,9812

0,9994
1,0000

0,9984
1,0000

0,9917

1,0000

0,0078
0,0625
0,2266
0,5000
0,7734
0,9375

0,9922
1,0000

1. Statistische Tafeln
n

1
2
3
4
5
6
7
8

1
2
3
4
5
6
7
8
9

10

11

P
0.05

0.10

0.15

0.20

0.25

0.30

0.35

0.40

0.45

0.50

0.6634
0,9428
0,9942
0,9996

0.4305
0,8131
0,9619
0,9950
0,9996

0.2725
0,6572
0,8948
0,9786

0,1001
0,3671
0,6785
0,8862

0,0576
0,2553
0,5518
0,8059

0,0039
0,0352
0,1445
0,3633

0,9747

0,9502

0,7396
0,9115

0,6367

0,9958
0,9996
1,0000

0,9420
0,9887

0,0168
0,1064
0,3154
0,5941
0,8263

0,0084
0,0632
0,2201
0,4770

0,9727

0,0319
0,1691
0,4278
0,7064
0,8939

1,0000

0,1678
0,5033
0,7969
0,9437
0,9896
0,9988
0,9999
1,0000

0,9987
0,9999

0,9964
0,9998

0,9915
0,9993

0,9819
0,9983

0,8555
0,9648
0,9961

1,0000
1,0000

0,9971

1,0000
1,0000

1,0000
1,0000

0,9998
1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,6302
0,9288

0,3874
0,7748

0,2316
0,5995

0,1342
0.4362

0,0751
0,3003

0,0404
0,1960

0,0207
0,1211

0,0101
0,0705

0,0046
0,0385

0,9916
0,9994

0,9470
0,9917

0,8591
0,9661

0,7382
0,9144

0,6007

0,4628
0,7297

0,1495
0,3614

0,0020
0,0195
0,0898

1,0000
1,0000

0,9991
0,9999

0,9944
0,9994

0,9804
0,9969

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9997
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,8343
0,9511
0,9900

0,9012
0,9747

0,9987

0,9957

0,9999
1,0000
1,0000

0,9996
1,0000
1,0000

0,3373

0,2318

0,6089
0,8283
0,9464
0,9888
0,9986
0,9999
1,0000

0,4826
0,7334
0,9006

0,0060
0,0464
0,1673
0,3823

0,9750
0,9962

0,9997
1,0000

0,6214
0,8342
0,9502

0,9102

0,9805
0,9980
1,0000

0,5987

0,3487

0,1969

0,1074

0,0135

0,7361
0,9298

0,5443
0,8202
0,9500

0,3758
0,6778

0,0563
0,2440
0,5256

0,0282

0,9139
0,9885
0,9990
0,9999
1,0000
1,0000

0,1493
0,3828

0,0880
0,2616

0,8791
0,9672

0,7759
0,9219

0,6496
0,8497

0,5138
0,7515

0,9999
1,0000

0,9986
0,9999

1,0000
1,0000

1,0000
1,0000

0,9803
0,9965
0,9996

0,9952

0,9877

0,9726

1,0000

1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9527
0,9894
0,9984
0,9999
1,0000
1,0000

0,9051
0,9740

1,0000
1,0000

0,9936
0,9991
0,9999

0,9995
1,0000
1,0000

0,9983
0,9999
1,0000

0,9955
0,9997
1,0000

0,5688

0,3138
0,6974

0,1673
0,4922

0,0859

0,0422
0,1971

0,0198
0,1130

0,0036
0,0302

0,0014
0,0139

0,9104
0,9815

0,7788
0,9306

0,6174
0,8389

0,4552
0,7133
0,8854

0,3127
0,5698

0,0088
0,0606
0,2001
0,4256
0,6683

0,1189
0,2963

0,0652
0,1911

0,5328
0,7535

0,3971
0,6331

0,9006
0,9707

0,8262
0,9390

0,9941

0,9852
0,9978

1
2
3
4
5
6
7

0,8981

0,9948
0,9984
0,9999

0,9872
0,9984

1,0000

0,9972
0,9997

1,0000
1,0000

0,9901

0,3221

0,9841

0,9496

1,0000
1,0000

0,9973
0,9997
1,0000

0,9883
0,9980
0,9998

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9657

0,7897
0,9218

0,9924
0,9988
0,9999

0,9794
0,9957
0,9994

1,0000

1,0000

1,0000
1,0000

1,0000
1,0000

0,8513

0,9499
0,9878
0,9980
0,9998
1,0000
1,0000

0,6331

0,8338
0,9452

0,9993
1,0000
1,0000

0,5404

0,2824

0,1422

0,0687

0,0317

0,0138

0,0057

0,0022

0,8816
0,9804
0,9978
0,9998
1,0000
1,0000
1,0000

0,6590
0,8891
0,9744

0,4435
0,7358
0,9078

0,2749
0,5583
0,7948

0,1594
0,3907
0,6488

0,0850
0,2528
0,4925

0,0424
0,1513
0,3467
0,5833
0,7873
0,9154
0,9745

0,0196
0,0834
0,2253

0,9957

0,9761

0,9274

0,8424

0,7237

0,9995
0,9999
1,0000

0,9954
0,9993
0,9999

0,9806
0,9961
0,9994

0,9456
0,9857
0,9972

0,8822
0,9614
0,9905

0,4382

0,6652
0,8418
0,9427

0,2539

0,5000
0,7461

0,9909
0,9992
1,0000

1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
11
12

725

0,0025

0,0010

0,0233
0,0996

0,0107
0,0547

0,2660

0,1719
0,3770

0,5044
0,7364
0,8980

0,9998
1,0000
0,0008
0,0083
0,0421
0,1345
0,3044
0,5269
0,7393
0,8883

0,6230
0,8281
0,9453
0,9893
0,9990
1,0000
0,0005
0,0059
0,0327
0,1133
0,2744

0,5000
0,7256
0,8887
0,9673
0,9941

0,9995
1,0000
0,0002

0,0032
0,0193
0,0730
0,1938

0,3872
0,6128
0,8082

VI Anhang

726
n

12

13

14

15

8
9
10
11
12
0
1
2
3
4
5
6
7
8
9
10
11
12
13
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

P
0,05

0,10

0,15

0,20

0,25

0,30

0,35

0,40

0,45

0,50

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9999

0,9996
1,0000

0,9944
0,9992

0,9847
0,9972

0,9921

0,9270
0,9807

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9983
0,9998
1,0000
1,0000

0,9644

1,0000

0,9999
1,0000

0,9997
1,0000

0,9989
0,9999

0,9968
0,9996

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,5133
0,8848

0,2542
0,6213

0,0550
0,2336

0,0239
0,1267

0,0097
0,0637

0,0037
0,0296

0,0013
0,0126

0,0004
0,0049

0,0001
0,0017

0,9755

0,8661

0,3326

0,0269

0,9969
0,9997
1,0000

0,9658
0,9935
0,9991
0,9999

0,1209
0,3983
0,6920
0,8820
0,9658
0,9925

0,0112
0,0461

1,0000
1,0000

0,9987

0,5017
0,7473

0,5843
0,7940
0,9198

0,2025
0,4206

0,1132
0,2783

0,0579
0,1686

0,6543
0,8346

0,5005
0,7159

0,3530
0,5744

0,0929
0,2279
0,4268

0,8705

0,7712
0,9023

0,6437
0,8212

0,9679
0,9922

0,9302
0,9797
0,9959
0,9995
1,0000
1,0000

0,9009
0,9700
0,9930
0,9988
0,9998
1,0000

0,9757
0,9944

0,9376
0,9818

0,9990
0,9999

0,9960
0,9993
0,9999

1,0000
1,0000

1,0000
1,0000

0,9998
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

0,9997
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,0068
0,0475
0,1608
0,3552

0,0205
0,0839

0,0008
0,0081
0,0398

0,2205
0,4227

0,1243
0,2793

0,6405
0,8164

0,4859
0,6925
0,8499

0,4877

0,2288

0,1028

0,0440

0,0178

0,8470
0,9699
0,9956
0,9996
1,0000
1,0000

0,5848
0,8416
0,9559
0,9908
0,9985
0,9998

0,3567
0,6479
0,8535
0,9533
0,9865
0,9978

0,1979
0,4481
0,6982

0,1010
0,2811

1,0000
1,0000

1,0000
1,0000

0,9997
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000

0,8702

0,5213
0,7415

0,9561
0,9884

0,8883
0,9617

0,9976

0,9897
0,9978

0,5842

0,7805
0,9067
0,9685

0,0024

0,9987

0,9999
1,0000
1,0000

0,0002

0,0001

0,0009
0,0065

0,1672

0,3373
0,5461

0,0698
0,2120
0,3953

0,7414
0,8811

0,6047
0,7880

0,9574
0,9886
0,9978

0,9102
0,9713
0,9935

0,9997
1,0000

0,9991

1,0000

0,9247
0,9757

0,9997
1,0000
1,0000

0,9983
0,9998
1,0000

0,9940
0,9989
0,9999

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,2059
0,5490

0,0874
0,3186

0,0352

0,01340,0802

0,0047

0,0016
0,0142

0,0005

0,1671

0,0052

0,0001
0,0017

0,8159
0,9444
0,9873
0,9978
0,9997
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,6042
0,8227
0,9393
0,9832
0,9964
0,9994
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,3980
0,6482
0,8358
0,9389
0,9819
0,9958
0,9992
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,2361
0,4613
0,6865
0,8516
0,9434
0,9827
0,9958
0,9992
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

0,0617
0,1727
0,3519
0,5843
0,7548
0,8868
0,9578
0,9876
0,9972
0,9995
0,9999
1,0000
1,0000
1,0000

0,0271
0,0905
0,2173
0,4032
0,6098
0,7869
0,9050
0,9662
0,9907
0,9981
0,9997
1,0000
1,0000
1,0000

0,0107
0,0424
0,1204
0,2608
0,4522
0,6535
0,8182
0,9231
0,9745
0,9937
0,9989
0,9999
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

0,4633

0,0353
0,1268
0,2969
0,5155
0,7216
0,8689
0,9500
0,9848
0,9963
0,9993
0,9999
1,0000
1,0000
1,0000
1,0000

0,7095

0,8666
0,9539
0,9888
0,9983
0,9999
1,0000

0,0029
0,0170
0,0632

0,9917

0,9996
1,0000
1,0000
1,0000

0,8290
0,9638
0,9945
0,9994
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,9538
0,9874
0,9975

0,1334
0,2905
0,5000

0,9417

0,9825
0,9961
0,9994
0,9999

0,0287

0,9999
1,0000
0,0000
0,0005
0,0037
0,0176
0,0592
0,1509
0,3036
0,5000
0,6984
0,8491
0,9408
0,9824
0,9963
0,9995
1,0000
1,0000

1. Statistische Tafeln
n

16

17

18

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

727

P
0.25

0.30

0.35

0.40

Q.45

0.50

0,0100

0.0033

0,0010

0,0261

0.0098
0,0451
0,1339

0.0003
0.0033
0,0183
0,0851

0,0001
0,0010

0,3518
0,5981

0.0635
0,1971
0,4050

0,7982
0,9183

0,6302
0,8103

0.0000
0.0003
0,0021
0,0108
0,0384

0,9204
0,9729
0,9925
0,9984
0,9997
1,0000

0.05

0.10

0.15

0.20

0,4401
0,8108

0,1853
0,5147

0,0743
0,2839

0,0281
0,1407

0.9571
0,9930

0.7892
0,9316
0,9830

0.5614
0,7899
0,9209

0,9991

0,0994
0,2459
0,4499

0,2892

0,6598
0,8247
0,9258

0,4900
0,6881
0,8406

0,1976

0,1051

0,5272
0,7161

0,3660
0,5629

0,9743

0,9329
0,9771

0,8577
0,9417

0,7441
0,8759

0,2272
0,4018
0,5982

0,9938
0,9987
0,9998

0,9809
0,9951

0,9514
0,9851
0,9985

0,8949
0,9616

1,0000

0,9994

1,0000
1,0000

0,9999
1,0000
1,0000

0,9999
1,0000

0,9979
0,9997
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,0075
0,0501

0,0023
0,0193

0,0007
0,0067

0,0002
0,0021

0,0000
0,0006

0,0000
0,0001

0,1637

0,0774
0,2019

0,0327
0,1028

0,0123
0,0464

0,0041
0,0184

0,3887
0,5968

0,2348
0,4197

0,1260
0,2839

0,0596
0,1471

0,0064
0,0245
0,0717

0,7752

0,6188
0,7872

0,4478

0,2902
0,4743

0,1662
0,3145

0,6626
0,8168

0,5000
0,6855
0,8338
0,9283
0,9755
0,9936
0,9988
0,9999
1,0000
1,0000
0,0000
0,0001
0,0007
0,0038
0,0154
0,0481
0,1169

0,9999
1,0000
1,0000

0,9967

0,9765

0,9995
0,9999

1,0000
1,0000

1,0000
1,0000

0,9944
0,9989
0,9998

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9733
0,9930
0,9985
0,9998
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,4181
0,7922

0,1668
0,4818

0,0631
0,2525

0,9497
0,9912

0,7618
0,9174

0,5198
0,7556

0,0225
0,1182
0,3096
0,5489

0,9988
0,9999

0,9779
0,9953

0,9013
0,9681

1,0000

0,9992

0,9917

1,0000
1,0000

0,9999
1,0000
1,0000

0,9983
0,9997
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,3530
0,5739
0,7653
0,8929
0,9598
0,9876
0,9969
0,9994
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,3972
0,7735
0,9419
0,9891
0,9985
0,9998
1,0000

0,0536
0,2241
0,4797
0,7202
0,8794
0,9581
0,9882
0,9973
0,9995
0,9999

0,0180
0,0991
0,2713
0,5010
0,7164
0,8671
0,9487

0,0058
0,0395
0,1353
0,3057
0,5187
0,7175
0,8610

1,0000
1,0000

0,1501
0,4503
0,7338
0,9018
0,9718
0,9936
0,9988
0,9998
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

1,0000
1,0000

1,0000

0,7582
0,8943
0,9623
0,9891

0,9974
0,9995
0,9999
1,0000

0,9929
0,9984
0,9997

0,8954
0,9597
0,9873
0,9968
0,9993
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

0,9006
0,9817
0,9680

0,1666
0,3288

0,9991

0,6405
0,8011
0,9081

0,9970

0,9652
0,9894

0,9994
0,9999
1,0000
1,0000
1,0000
1,0000

0,9975
0,9995
0,9999
1,0000
1,0000
1,0000

0,9699
0,9914
0,9981
0,9997
1,0000
1,0000
1,0000

0,0004
0,0046
0,0236
0,0783
0,1886
0,3550
0,5491

0,0001
0,0013
0,0082
0,0328
0,0942
0,2088
0,3743

0,0000
0,0003
0,0025
0,0120
0,0411
0,1077
0,2258

0,9837

0,9431

0,9957
0,9991
0,9998
1,0000
1,0000

0,9807
0,9946
0,9968
0,9998
1,0000
1,0000

0.0016
0,0142
0,0600
0,1848
0,3327
0,5344
0,7217
0,8593
0,9404
0,9790
0,9939
0,9986
0,9997
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,0066
0,0281
0,0853

0,9174

0,7728

0,9894

0,0012

0,7283

0,5634

0,3915

0,2403

0,8609
0,9403

0,7368
0,8853

0,5778
0,7473

0,4073
0,5927

0,9788

0,9424
0,9797

0,8720

0,7597
0,8811

0,9938
0,9986
0,9997

0,9942
0,9987
0,9998
1,0000

1,0000

0,9463
0,9817
0,9951
0,9990
0,9999
1,0000

0,9519
0,9848
0,9962
0,9993
0,9999

VI Anhang

728
n

P
0,05

0,10

0,15

0,20

0,25

0,30

0,35

0,40

0,45

0,50

18

17
18

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

19

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

0,3774
0,7547
0,9335
0,9868
0,9980
0,9998
1,0000

0,1351
0,4203
0,7054
0,8850
0,9648
0,9914
0,9963

0,0456
0,1985
0,4413

0,0144
0,0829
0,2369

0,0042
0,0310
0,1113

0,0011
0,0104
0,0462

0,0003
0,0031
0,0170

0,0001
0,0008
0,0055
0,0230
0,0696
0,1629
0,3081

0,0000
0,0002
0,0015

0,0000
0,0000
0,0004

1,0000

0,9997

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

20

25

0,6841

0,4551

0,2631

0,1332

0,0591

0,8558
0,9463
0,9637
0,9959
0,9992
0,9999
1,0000

0,6733
0,8369
0,9324

0,4654
0,6678
0,8251

0,2822
0,4739
0,6655

0,9767

0,9225

0,8180

0,9933
0,9984
0,9997

0,9713
0,9911
0,9977
0,9995
0,9999
1,0000
1,0000

0,9161
0,9674
0,9895

0,1500
0,2968
0,4812
0,6656
0,8145
0,9125
0,9653
0,9886
0,9969
0,9993
0,9999

0,0077

0,0022

0,0290

0,0096
0,0318
0,0635

0,07n

0,1727

0,4878

0,3169

0,1796

0,4940
0,6710
0,8159

0,3238
0,5000
0,6762

0,9129

0,8204

0,9658
0,9891
0,9972
0,9995
0,9999
1,0000
1,0000

0,9165
0,9882
0,9904

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,6675
0,8139
0,9115
0,9648
0,9884
0,9969
0,9994
0,9999
1,0000
1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,3585
0,7358

0,1216
0,3917

0,0388
0,1756

0,0115
0,0692

0,6769

0,4049

0,9841
0,9974
0,9997

0,8670
0,9568
0,9887

0,8298
0,9327

0,4114
0,6296
0,8042

0,2252
0,4148
0,6172

0,0444
0,1182
0,2454

0,0000
0,0005
0,0036
0,0160
0,0510
0,1256

0,0000
0,0001
0,0009
0,0049
0,0189
0,0553

0,0000
0,0000
0,0002
0,0013
0,0059
0,0207

1,0000
1,0000

0,9976

0,9133
0,9679

0,7858

0,0008
0,0076
0,0355
0,1071
0,2375
0,4184
0,6080

0,0002
0,0021

0,9245

0,2061

0,0032
0,0243

0,1316

1,0000

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,9781
0,9941

0,9987
0,9998
1,0000

0,0121

0,0577

0,8982
0,9591
0,9861
0,9961

0,7723

0,4166
0,6010

0,2500
0,4159

0,1299
0,2520

0,8867
0,9520
0,9829

0,7624
0,8782
0,9488

0,9949

0,9804

0,9998
1,0000
1,0000

0,9987
0,9997
1,0000

0,9940
0,9985
0,9997

0,5956
0,7553
0,8725
0,9435
0,9790
0,9935
0,9984

0,8684
0,9423
0,9793

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,9997

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,2774

0,0718

0,0172

0,0008

0,0001

0,2712

0,0274

0,0070

0,0016

0,0000
0,0003

0,0000

0,6424
0,8729

0,0931

0,0038

0,0000
0,0000

0,5371

0,2537

0,7636
0,9020
0,9666
0,9905

0,4711
0,6821
0,8385
0,9305
0,9745

0,0982
0,2340
0,4207

0,0321

0,9659
0,9928
0,9988
0,9998
1,0000

0,0090
0,0332
0,0905

0,0000
0,0000
0,0000
0,0001
0,0005
0,0020
0,0073
0,0216

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,99n

0,9900
0,9974
0,9994
0,9999
1,0000
1,0000
1,0000

0,0913

0,9978

0,9996
1,0000
1,0000

0,4143
0,5914
0,7507
0,8692
0,9420
0,9788
0,9936
0,9985
0,9997
1,0000
1,0000

2
3
4
5
6
7

1,0000
1,0000
1,0000

0,9996
0,9999
1,0000
1,0000

0,64n

0,9972

0,9994
0,9999
1,0000

0,9991

0,0962
0,2137

0,6167
0,7800

0,3783

0,5611

0,1935
0,3407

0,8909

0,7265

0,5118

0,0001

0,0021

0,0004

0,0001

0,0097
0,0320
0,0826

0,0024
0,0095
0,0294

0,0005
0,0023
0,0086

0,1734

0,0736
0,1536

0,0639

0,3061

0,0258

0,2517
0,4119
0,5881
0,7483

0,9941

0,9987
0,9998
1,0000

1. Statistische Tafeln
n

25

30

50

8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
0
1
2
3
4
5
6
7
8
9

729

P
0.05

0,10

0,15

0,20

0,25

0.30

0.35

0,40

0.45

0.50

1.0000
1.0000

0.9995
0.9999

0.9920
0.9979
0.9995
0.9999
1,0000
1,0000

0.9532
0.9827
0.9944
0,9985
0,9996
0,9999

0.8506
0.9287

0.6789
0.8106

Q.4e68
0.6303

0.0539
0.1148

0,9703

0,9022

0,7712

0,9893
0,9966
0,9991
0,9998
1,0000
1,0000
1,0000

0,9558
0,9825
0,9940
0,9982
0,9995
0,9999
1,0000

0,8746
0,9396
0,9745

0.2735
0.4246
0.5858
0,7323
0,8482
0,9222
0,9656
0,9e68
0,9957
0,9988

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,9997

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,9999
1,0000
1,0000

0.1340
0.2424
0.3843
0,5426
0,6937
0,8173
0,9040
0,9560
0,9828
0,9942
0,9984
0,9996
0,9999
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

0,2146
0,5535

0,0424
0,1837

0,0076
0,0480

0,0012
0,0105

0,0002
0,0020

0,0000
0,0003

0,0000
0,0000
0,0003
0,0019
0,0075
0,0233
0,0586
0,1238
0,2247
0,3575

0,0000
0,0000
0,0000
0,0003
0,0015
0,0057

0,0000
0,0000
0,0000
0,0000
0,0002
0,0011
0,0040
0,0121
0,0312
0,0894

0,0000
0,0000
0,0000
0,0000
0,0000
0,0002

1,0000

1,0000

1.0000
1,0000
1,0000

1.0000
1,0000
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,8122

0,4114

0,1514

0,0442

0,0106

0,0021

0,9392
0,9844
0,9967

0,6474
0,8245
0,9268

0,3217
0,5245
0,7106
0,8474
0,9302
0,9722
0,9903

0,1227
0,2552
0,4275

0,0374
0,0979
0,2026

0,0093
0,0302
0,0766

0,6070

0,3481

0,1595

0,7608
0,8713
0,9389

0,5143
0,6736
0,8034
0,8943
0,9493
0,9784
0,9918

0,2814
0,4315
0,5888

0,9994

0,9742

0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

0,9922
0,9980
0,9995
0,9999
1,0000
1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000

0,9971

0,9744

0,9992
0,9998
1,0000

0,9905
0,9989
0,9991
0,9998
0,9999
1,0000
1,0000
1,0000

0,9973
0,9992

0,9998
0,9999
1,0000

0,9907

0,9971
0,9992
0,9998

0,0172

0,0435
0,0940
0,1763

0,2122

0,3450
0,5000
0,6550
0,7878

0,8852
0,9461
0,9784
0,9927

0,9980
0,9995
0,9999

0,0007

0,0026
0,0081
0,0214

0,7304

0,5078

0,2915

0,1350

0,0494

0,8407
0,9155
0,9599

0,6548
0,7802
0,8737

0,4311
0,5785
0,7145

0,1002
0,1808
0,2923

0,9831

0,9348

0,9936
0,9979
0,9994
0,9998

0,9699
0,9876
0,9955
0,9986
0,9996
0,9999
1,0000
1,0000

0,8246
0,9029

0,2327
0,3592
0,5025
0,6448

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,9519
0,9788
0,9917
0,9971

0,9991
0,9998
1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,0769

0,0052

0,2794
0,5405

0,0338
0,1117

0,0000
0,0002
0,0013

0,7604
0,8964

0,2503
0,4312

0,0003
0,0029
0,0142
0,0460

0,0000
0,0000
0,0001
0,0005

0,0000
0,0000
0,0000
0,0000

0,9622
0,9882
0,9968

0,6161
0,7702
0,8n9

0,0000
0,0000
0,0000
0,0000
0,0000
0,0001
0,0002
0,0008

0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000

0,9992

0,9998

0,1121

0,0057
0,0185

0,0021

0,0002

0,2194
0,3613

0,0480
0,1034

0,0070
0,0194

0,0007
0,0025

0,9421

0,5188
0,6681

0,1904
0,3073

0,0453
0,0916

0,0073
0,0183

0,9755

0,7911

0,4437

0,1637

0,0402

0,0025

0,0001
0,0002

0,0067

0,0008

0,7691

0,4278
0,5722

0,8644
0,9288
0,9666
0,9862
0,9950
0,9984
0,9996
0,9999
1,0000
1,0000
1,0000

0,70n
0,8192
0,8998
0,9506
0,9786
0,9919
0,9974
0,9993
0,9998
1,0000
1,0000

0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0001

0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000

VI Anhang

730
n

50

10
11
12
13
14
15
16
17

18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39

P
0,05

0,10

0,15

0,20

0,25

0,30

0,35

0,40

0,45

0,50

1,0000
1,0000

0,9906
0,9968
0,9990
0,9997
0,9999

0,8801
0,9372

0,5836

0,2622
0,3816

0,0789
0,1390

0,0160
0,0342

0,0022
0,0057

0,0002

0,7107

0,8139
0,8694
0,9393

0,5110
0,6370

0,2229
0,3279

0,0661
0,1163

0,0133
0,0280

0,0000
0,0000
0,0002
0,0005

0,7481

0,1878
0,2801

0,9856
0,9937

0,6369
0,9017
0,9449

0,4468
0,5692

0,0540

0,9692

0,3889
0,5060

1,0000

0,9975
0,9991

0,9713
0,9861

0,6839
0,7822
0,8594

0,9937
0,9974
0,9990
0,9996
0,9999
1,0000

1,0000
1,0000
1,0000
1,0000

1,0000

0,9699
0,9868
0,9947
0,9981

1,0000
1,0000

1,0000
1,0000

0,9993
0,9998
0,9999

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9997
0,9999

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

0,9152

0,6216
0,7264

0,9522
0,9749
0,9877
0,9944

0,9976
0,9991

1,0000

1,0000

1,0000

1,0000

1,0000

0,9997

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,0955
0,1561
0,2369
0,3356

0,0006
0,0018
0,0045
0,0104
0,0220

0,0427
0,0785

0,4465

0,1273
0,1974

0,8139
0,8813

0,5610
0,6701

0,2862
0,3900

0,9290

0,7660
0,8438

0,5019
0,6134

0,9022
0,9427
0,9686
0,9840
0,9924
0,9966
0,9986
0,9995
0,9998
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,7160
0,8034

0,9604
0,9793
0,9900
0,9955
0,9981
0,9993
0,9997
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,0013

0,0033

o,oon

0,0164
0,0325
0,0595
0,1013
0,1611

0,2399

0,3359
0,4439
0,5561

0,8721

0,6641

0,9220
0,9556
0,9785
0,9864
0,9947
0,9978
0,9991
0,9997
0,9999
1,0000
1,0000
1,0000
1,0000

0,7601
0,8389
0,8987
0,9405
0,9675
0,9836
0,9923
0,9967
0,9987
0,9995
0,9998
1,0000
1,0000

731

1. Statistische Tafeln

1.3 Poissonverteilung - Verteilungsfunktion


Ablesebeispiel:
Interessieren wir uns fr die Wahrscheinlichkeit, dass eine Po(1)-verteilte Zufallsvarialbe
X einen Wert von hchstens 3 anninunt, so erhalten wir diese als
~ 3) - 0,9810. Die
Wahrscheinlichkeit
3) erhalten wir als
3) ~ 3) ~ 2) - 0,9810 0,9197 - 0,0613.

pex -

l.
0,005

0,01

0,02

0
1
2
3

0,9950
1,0000
1,0000
1,0000

l.
0,09

0
1
2
3
4
5
6

0,9139
0,9962
0,9999
1,0000
1,0000
1,0000
1,0000

0,9048
0,9953
0,9998
1,0000
1,0000
1,0000
1,0000

0,8607
0,9898
0,9995
1,0000
1,0000
1,0000
1,0000

l.
08

09

0
1
2
3
4
5
6
7
8

0,4493
0,8066
0,9526
0,9909
0,9966
0,9998
1,0000
1,0000
1,0000

0,4066
0,7725
0,9371
0,9665
0,9977
0,9997
1,0000
1,0000
1,0000

0,3679
0,7358
0,9197
0,9810
0,9963
0,9994
0,9999
1,0000
1,0000

l.
17

18

19

0
1
2
3
4
5
6
7
8
9
10
11

0,9900
1,0000
1,0000
1,0000

pex -

0,1

0,9802
0,9998
1,0000
1,0000

0,15

0,03

0,9704
0,9996
1,0000
1,0000

0,2

11

0,3

12

21

0,4

0,6703
0,9384
0,9921
0,9992
0,9999
1,0000
1,0000

0,3012
0,6626
0,8795
0,9662
0,9923
0,9985
0,9997
1,0000
1,0000

0,05
0,9512
0,9988
1,0000
1,0000

0,7408
0,9631
0,9964
0,9997
1,0000
1,0000
1,0000

0,3329
0,6990
0,9004
0,9743
0,9946
0,9990
0,9999
1,0000
1,0000

0,9608
0,9992
1,0000
1,0000

0,8187
0,9825
0,9989
0,9999
1,0000
1,0000
1,0000

0,04

pex

13

22

0,06

0,07

0,08

0,9418
0,9983
1,0000
1,0000

0,9324
0,9977
0,9999
1,0000

0,9231
0,9970
0,9999
1,0000

0,5

0,6065
0,9098
0,9856
0,9982
0,9998
1,0000
1,0000

0,2725
0,6266
0,8571
0,9569
0,9893
0,9978
0,9996
0,9999
1,0000

pex
pex

14

0,2466
0,5918
0,8335
0,9483
0,9857
0,9966
0,9994
0,9999
1,0000

23

0,6

0,5488
0,8781
0,9769
0,9966
0,9996
1,0000
1,0000

15

0,2231
0,5578
0,8068
0,9344
0,9814
0,9955
0,9991
0,9998
1,0000

24

0,7
0,4966
0,8442
0,9659
0,9942
0,9992
0,9999
1,0000

16
0,2019
0,5249
0,7834
0,9212
0,9763
0,9940
0,9987
0,9997
1,0000

25

0,1827

0,1653

0,1496

0,1353

0,1225

0,1108

0,1003

0,0907

0,0821

0,4932
0,7572
0,9066
0,9704
0,9920
0,9981
0,9996
0,9999
1,0000
1,0000
1,0000

0,4628
0,7306
0,8913
0,9836
0,9896
0,9974
0,9994
0,9999
1,0000
1,0000
1,0000

0,4337
0,7037
0,8747
0,9559
0,9668
0,9966
0,9992
0,9998
1,0000
1,0000
1,0000

0,4060
0,6767
0,8571
0,9473
0,9834
0,9955
0,9989
0,9998
1,0000
1,0000
1,0000

0,3796
0,6496
0,8386
0,9379
0,9796
0,9941
0,9985
0,9997
0,9999
1,0000
1,0000

0,3546
0,6227
0,8194
0,9275
0,9751
0,9925
0,9980
0,9995
0,9999
1,0000
1,0000

0,3309
0,5960
0,7993
0,9162
0,9700
0,9906
0,9974
0,9994
0,9999
1,0000
1,0000

0,3084
0,5697
0,7787
0,9041
0,9643
0,9664
0,9967
0,9991
0,9998
1,0000
1,0000

0,2873
0,5438
0,7576
0,8912
0,9580
0,9658
0,9958
0,9989
0,9997
0,9999
1,0000

VI Anhang

732
x

).

2,6

1
2
3
4
5
6
7
8
9
10
11
12
13
x

2,8

2,9

3,1

3,2

3,3

3,4

0,0608
0,2311
0,4695
0,6919
0,8477
0,9349
0,9758
0,9919

0,0550
0,2146
0,4460
0,6696
0,8318
0,9258
0,9713
0,9901
0,9969

0,0498
0,1991
0,4232
0,8472
0,8153
0,9161
0,9665
0,9881

0,0334
0,1468
0,3397
0,5584
0,7442
0,8705
0,9421
0,9769

0,9989

0,9931
0,9978

0,9998
0,9999

0,9917
0,9973
0,9992

0,9999

0,0408
0,1712
0,3799
0,6025
0,7806
0,8946
0,9554
0,9832
0,9943
0,9982
0,9995
0,9999

0,0369
0,1586
0,3594
0,5803
0,7826
0,8629
0,9490
0,9802

0,9991

0,0450
0,1847
0,4012
0,6248
0,7982
0,9057
0,9612
0,9858
0,9953
0,9986
0,9996
0,9999

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

1,0000
1,0000

3,7

3,8

3,9

4,5

0,0247
0,1162
0,2854
0,4942
0,6872
0,8301
0,9182

0,0224
0,1074
0,2689
0,4735
0,6678
0,8156
0,9091

0,0202
0,0992
0,2531
0,4532
0,6484

0,0183
0,0916
0,2381
0,4335
0,6288
0,7851

0,0067
0,0404
0,1247
0,2650
0,4405
0,6160
0,7622

0,9648
0,9863
0,9952
0,9984
0,9995
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

0,9599
0,9840

0,0111
0,0611
0,1736
0,3423
0,5321
0,7029
0,8311
0,9134
0,9597

0,9981

0,9976

0,9995
0,9999

0,9993
0,9998

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

1,0000
1,0000
1,0000

0,9962
0,9997

0,9994
0,9998

0,9998
0,9999
1,0000

).

0,0302
0,1359
0,3208

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17

0,9990
0,9997
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

).

0,0025

3,6

0,0273
0,1257
0,3027
0,5152
0,7064
0,8441
0,9267
0,9692

0,5366
0,7254
0,8576
0,9347
0,9733
0,9901
0,9967

6
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17

27
0,0672
0,2487
0,4936
0,7141
0,8629
0,9433
0,9794
0,9934

3,5

0,0743
0,2674
0,5184
0,7360
0,8774
0,9510
0,9828
0,9947
0,9985
0,9996
0,9999

0,9663
0,9960
0,9987
0,9996
0,9999
1,0000
1,0000
1,0000
1,0000
1,0000

65

0,0174

0,0015
0,0113

0,0620

0,0430

0,1512
0,2851
0,4457

0,1118
0,2237

0,6063

0,3690
0,5265

0,7440
0,8472
0,9161
0,9574

0,6728
0,7916
0,8774
0,9332

0,9799
0,9912
0,9984
0,9966
0,9995
0,9998
0,9999

0,9661
0,9840
0,9929
0,9970
0,9988
0,9996
0,9998

0,8006
0,8995
0,9546

0,8893

0,9942

0,9815
0,9931

0,9489
0,9786
0,9919

0,9981
0,9994
0,9998
1,0000
1,0000
1,0000
1,0000
1,0000

0,9977
0,9993
0,9998
0,9999
1,0000
1,0000
1,0000
1,0000

0,9972
0,9991
0,9997
0,9999
1,0000
1,0000
1,0000
1,0000

0,9829
0,9933
0,9976
0,9992
0,9997
0,9999
1,0000
1,0000
1,0000

0,8666
0,9319

0,9662
0,9883
0,9945
0,9980
0,9993
0,9998
0,9999
1,0000
1,0000

5,5
0,0041

0,0266
0,0884
0,2017
0,3575

0,5289
0,6660
0,8095
0,8944
0,9462

0,9747
0,9890
0,9955
0,9983
0,9994
0,9998
0,9999
1,0000

75

85

95

10

0,0009
0,0073
0,0296

0,0006

0,0003
0,0030

0,0002
0,0019

0,0001
0,0012

0,0001

0,0000
0,0005

0,0138
0,0424

0,0093

0,0082
0,0212

0,1912
0,3134

0,0301
0,0744
0,1496
0,2562

0,4530

0,3856
0,6530
0,7634

0,1157
0,2068
0,3239
0,4557
0,5874
0,7060

0,8487
0,9091
0,9486
0,9726
0,9882
0,9934
0,9970

0,8030
0,8758
0,9261
0,9585
0,9780
0,9889
0,9947

0,0047

0,0203

0,0818
0,1730
0,3007
0,4497
0,5987
0,7291

0,0591
0,1321
0,2414
0,3782
0,5246

0,8305
0,9015

0,7764
0,8622

0,5925
0,7166
0,8159

0,9487
0,9730
0,9872
0,9943
0,9976
0,9990
0,9996

0,9208
0,9573
0,9784
0,9897
0,9954
0,9980
0,9992

0,8881
0,9362
0,9858
0,9827
0,9918
0,9963
0,9984

0,6820

0,0996

0,5231

0,0550

0,0008
0,0042
0,0149
0,0403

0,0665
0,1649
0,2687
0,3918
0,5218

0,6453
0,7520
0,8384
0,8981
0,9400
0,9685
0,9823
0,9911

0,0028
0,0103

0,0293
0,0671
0,1301
0,2202

0,3328
0,4579

0,5830
0,6968
0,7916
0,8845
0,9165
0,9513
0,9730
0,9857

1. Statistische Tafeln
x

733

l.
6

65

18
19
20
21
22
23
24

1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

l.
11

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38

12

0.0000
0.0002
0.0012
0.0049
0.0151
0.0375
0.0786
0.1432
0,2320
0,3405
0,4599
0,5793
0,6887
0,7813
0,8540
0,9074
0,9441
0,9678
0,9823
0,9907
0,9953

0.0000
0.0001
0.0005
0.0023
0.0076
0.0203
0.0458
0.0895
0,1550
0,2424
0,3472
0,4616
0,5760
0,6815
0,7720
0,8444
0,8987
0,9370
0,9626
0,9787

0,9977

0,9990
0,9995
0,9998
0,9999

13

75

0.9997
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000

14

0.9993
0.9997
0.9999
1.0000
1.0000
1.0000
1.0000

15

85

0.9987
0.9995
0.9998
0.9999
1.0000
1.0000
1.0000

19

0.9976
0.9989
0.9996
0.9998
0.9999
1.0000
1.0000

17

0.9957
0.9980
0.9991
0.9996
0.9999
0.9999
1.0000

18

10
0.9928
0.9965
0.9984
0.9993
0.9997
0.9999
1.0000

19

0.0000
0.0000
0.0002
0.0011
0.0037
0.0107
0.0259
0.0540
0,0998
0,1858
0,2517
0,3532
0,4631
0,5730
0,6751
0,7636
0,8355
0,8905
0,9302
0,9573

0.0000
0.0000
0.0001
0.0005
0.0018
0.0055
0.0142
0.0316
0,0621
0,1094
0,1757
0,2600
0,3585
0,4644
0,5704
0,6694
0,7559
0,8272
0,8826
0,9235

0.0000
0.0000
0.0000
0.0002
0.0009
0.0028
0.0076
0.0180
0,0374
0,0699
0,1185
0,1848
0,2676
0,3632
0,4657
0,5681
0,6641
0,7489
0,8195
0,8752

0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0005
0.0015
0,0039
0,0089
0,0183
0,0347
0,0606
0,0984
0,1497
0,2148
0,2920
0,3784
0,4695
0,5606

0,9884

0,9750

0,9859

0,9521
0,9712

0,9170

0,9939

0,9469

0,6472
0,7255

0,9970

0,9924

0,9833

0,9673

0,7931

0,9985
0,9993

0,9960
0,9980
0,9990
0,9995
0,9998
0,9999

0,9907

0,9805
0,9888
0,9938

0,8490

0,8615
0,9047
0,9367

0,8933

0,9594

0,9317

0,9269
0,9514
0,9687

0,9748

0,9554

0,9848

0,9805
0,9882
0,9930
0,9960

0,9950

0,9718
0,9827
0,9897

0,9805

0,9973

0,9941

0,9882

0,9986
0,9993
0,9996
0,9998
0,9999
1,0000
1,0000
1,0000
1,0000

0,9967

0,9930
0,9960

0,9997

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,9999
0,9999

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000

0,9950
0,9974
0,9987

0,9967

0,9994

0,9983

0,9997

0,9991

1,0000
1,0000
1,0000
1,0000

0,9999
0,9999

0,9996
0,9998
0,9999

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

1,0000
1,0000

1,0000

0,9978

1,0000
1,0000
1,0000
1,0000
1,0000
1,0000

0,9988
0,9994
0,9997
0,9998
0,9999
1,0000

0.0000
0.0000
0.0000
0.0000
0.0002
0.0007
0.0021
0.0054
0,0126
0,0261
0,0491
0,0847
0,1350
0,2009
0,2808
0,3715
0,4677
0,5840
0,6550
0,7363
0,8055

95

0,9912

0.0000
0.0000
0.0000
0.0000
0.0001
0.0003
0.0010
0.0029
0,0071
0,0154
0,0304
0,0549
0,0917
0,1426
0,2081
0,2867
0,3751
0,4686
0,5622
0,6509

0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0005
0.0015
0,0039
0,0089
0,0183
0,0347
0,0606
0,0984
0,1497
0,2148
0,2920
0,3784
0,4695
0,5606

0,7307
0,7991

0,6472
0,7255
0,7931

0,8551

0,8989

0,9982
0,9990
0,9995
0,9998
0,9999
0,9999
1,0000
1,0000

0,8490
0,8933
0,9269
0,9514
0,9687

0,9978

0,9988
0,9994
0,9997
0,9998
0,9999
1,0000

734

VI Anhang

1.4 Standardnormalverteilung - Verteilungsfunktion


Ablesebeispiel:
Interessieren wir uns fr die Wahrscheinlichkeit, dass eine standardnormalverteilte
Zufallsvariable Z einen Wert von hchstens 0,15 annimmt, so erhalten wir diese konkret

als P(Z " 0,15) - $(0,15) - 0,5596.


Hinweis:

Es gilt $(-z) - 1 - $(z).


z

.00

.01

0,0
0,1
0,2
0,3
0,4

0,5000
0,5396

0,5040
0,5438

0,5793

0,6179
0,6554

0,5832
0,6217
0,6591

0,5
0,6
0,7
0,8
0,9

0,6915
0,7257
0,7580
0,7881
0,8159

1,0
1,1
1,2
1,3
1,4

0,9032
0,9192

0,9049

1,5
1,6
1,7
1,8
1,9

.02
0,5060

.03

0,5478
0,5871

0,5120
0,5517
0,5910

0,6255
0,6628

0,6950
0,7291
0,7611
0,7910
0,8186

0,8413

0,8643

.04

.05

.06

.07

.06

.09

0,5279
0,5675
0,6064

0,5319
0,5714
0,6103

0,5753
0,6141

0,6368
0,6736

0,5Z39
0,5636
0,6026
0,6406
0,6772

0,6443
0,6808

0,6480
0,6644

0,6517
0,6879

0,7054
0,7389
0,7704
0,7995
0,8264

0,7068
0,7422
0,7734
0,8023
0,8289

0,7123
0,7454
0,7764
0,8051
0,8315

0,7157
0,7486
0,7794
0,8078
0,8340

0,7190
0,7517
0,7823
0,8106
0,8365

0,7224
0,7549
0,7852
0,8133
0,8389

0,8508

0,8531
0,8749

0,8554

0,8577

0,8599

0,8621

0,8770

0,8830

0,5160
0,5557

0,5199

0,5948
0,6331
0,6700

0,5987

0,6293
0,6664

0,6965
0,7324
0,7642
0,7939
0,8212

0,7019
0,7357
0,7673
0,7967
0,8238

0,8438

0,8461

0,8665
0,8869

0,8485
0,8708
0,8907

0,8729

0,9207

0,8686
0,8688
0,9066
0,9222

0,9332
0,9452
0,9554
0,9641
0,9713

0,9345
0,9463
0,9564
0,9649
0,9719

2,0
2,1
2,2
2,3
2,4

0,9772
0,9821
0,9861

0,9778
0,9826

0,9893
0,9918

2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4

0,9990
0,9993
0,9995
0,9997

0,9993
0,9995
0,9997

3,5
3,6
3,7
3,8
3,9

0,9998
0,9998
0,9999
0,9999
1,0000

0,9998
0,9998
0,9999
0,9999
1,0000

0,5596

0,5359

0,8944

0,8962

0,9062
0,9236

0,89Z5
0,9099
0,9251

0,8790
0,8960

0,9115

0,9131

0,9147

0,8810
0,8997
0,9162

0,9265

0,9279

0,9292

0,9306

0,9319

0,9357
0,9474
0,9573
0,9656
0,9726

0,9370
0,9464
0,9562
0,9664
0,9732

0,9362
0,9495
0,9591
0,9671
0,9738

0,9394
0,9505
0,9599
0,9678
0,9744

0,9406
0,9515
0,9608
0,9686
0,9750

0,9418
0,9525
0,9616
0,9693
0,9756

0,9429
0,9535
0,9625
0,9699
0,9761

0,9441
0,9545
0,9633
0,9706
0,9767

0,9783

0,9788

0,9793

0,9798

0,9834

0,9838

0,9642

0,9803
0,9646

0,9808
0,9650

0,9812

0,9854

0,9817
0,9857

0,9864
0,9896
0,9920

0,9830
0,9868
0,9898
0,9922

0,9871
0,9901

0,9884
0,9911

0,9887
0,9913

0,9916

0,9932

0,9934

0,9938

0,9938
0,9953
0,9965
0,9974
0,9981

0,9940
0,9955
0,9966
0,9975
0,9962

0,9987

0,9987
0,9991

0,8849

0,9015
0,9177

0,9890

0,9875

0,9878

0,9881

0,9925

0,9904
0,9927

0,9906
0,9929

0,9909
0,9931

0,9941
0,9956
0,9967
0,9976
0,9962

0,9943
0,9957
0,9968
0,9977
0,9983

0,9945
0,9959
0,9969
0,9977
0,9964

0,9946
0,9960
0,9970
0,9978
0,9984

0,9948
0,9961
0,9971
0,9979
0,9965

0,9949
0,9962
0,9972
0,9979
0,9985

0,9951
0,9963
0,9973
0,9980
0,9986

0,9952
0,9964
0,9974
0,9981
0,9986

0,9987
0,9991
0,9994

0,9968

0,9968
0,9992

0,9994
0,9996
0,9997

0,9994
0,9996
0,9997

0,9969
0,9992
0,9994
0,9996
0,9997

0,9995
0,9996
0,9997

0,9990
0,9993
0,9995
0,9996
0,9997

0,9990
0,9993
0,9995

0,9995
0,9997

0,9969
0,9992
0,9994
0,9996
0,9997

0,9989

0,9991

0,9998

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9998
0,9999
0,9999
0,9999
1,0000

0,9992

0,9997

1. Statistische Tafeln

735

1.5 Standardnormalverteilung - Wichtige Quantile


Es gilt:

P(Z S z.,) = <I>(z.,) = a

Z.

0.005
0.05
0.1

-2,58
-2,33
-1,96
-1,64
-1,28

0.2
0.25
0.275

'{).67
'{).60

0,01
0,025

'{).84

0.3
0.35

'{).52

0,375

'{).32

Q.4
0.45
Q.475

'{).25

0.5
0,55
0,575

0,00
0,13
0,19

0,6
0,65
0,675

0,39
0,45

'{).39

'{).13
'{).06

0,25

0,7
0,75

0,52
0,67
0,76

0,8
0,85
0,875

0,84
1,04
1,15

0,9
0,95
0,975
0,99
0,995

1,28
1,64
1,96
2,33
2,58

0,n5

736

VI Anhang

1.6 Chi-Quadrat-Verteilung - Quantile


Ablesebeispiel:
Interessieren wir uns fr das 40 %-Quantil der Chi-Quadrat-Verteilung mit w = 2 Freiheitsgraden, so erhalten wir dieses als X;.o 40 = 1,02. Es gilt somit fr dieses Quantil
S 1,02) = Fx,,0,02) = 0,40.
',

pex;

Wahrscheinlichkeit

0001

OOOS

0010

0025

0050

0100

0250

0300

0400

0500

1
2
3
4
5

0,00
0,00
0,02
0,09
0,21

0,00
0,01
0,07
0,21
0,41

0,00
0,02
0,11
0,30
0,55

0,00
0,05
0,22
0,48
0,83

0,00
0,10
0,35
0,71
1,15

0,02
0,21
O,SB
1,06
1,61

0,10
0,58
1,21
1,92
2,67

0,15
0,71
1,42
2,19
3,00

0,27
1,02
1,87
2,75
3,66

0,45
1,39
2,37
3,36
4,35

6
7
8
9
10

0,38
0,60
0,86

0,68
0,99

0,87
1,24

1,64
2,17
2,73

2,20

4,57
5,49

5,35
6,35

3,49

3,45
4,25
5,07

3,83

4,17

5,90

5,53
6,39

6,42

2,09
2,56

3,33

1,48

1,34
1,73
2,16

1,24
1,69
2,18
2,70
3,25

3,94

4,87

6,74

7,27

8,30

7,34
8,34
9,34

11
12
13
14
15

1,83
2,21
2,62
3,04
3,48

2,80
3,07
3,57
4,07
4,80

3,05
3,57
4,11
4,66
5,23

3,82
4,40
5,01
5,83
8,28

4,57
5,23
5,89
8,57
7,28

5,SB
6,30
7,04
7,79
8,55

7,58
8,44
9,30
10,17
11,04

8,15
9,03
9,93
10,82
11,72

9,24
10,18
11,13
12,08
13,03

10,34
11,34
12,34
13,34
14,34

16
17
18
19
20

3,94
4,42
4,90
5,41
5,92

5,14
5,70
6,26
6,84
7,43

5,81
6,41
7,01
7,63
8,26

8,91
7,56
8,23
8,91
9,59

7,98
8,67
9,39
10,12
10,85

9,31
10,09
10,86
11,65
12,44

11,91
12,79
13,68
14,56
15,45

12,82
13,53
14,44
15,35
16,27

13,96
14,94
15,89
16,85
17,81

15,34
16,34
17,34
18,34
19,34

21
22
23
24
25

6,45
6,98

8,03
8,64

8,90
9,54

10,28
10,96

11,59
12,34

13,24
14,04

16,34
17,24

17,18
18,10

7,53

9,26

8,08
8,65

9,89

10,20
10,86

11,69
12,40

18,14
19,04

13,12

19,02
19,94
20,87

21,65

11,52

14,85
15,66
16,47

20,34
21,34
22,34
23,34

10,52

13,09
13,85
14,61

18,77
19,73
20,69
22,62

24,34

12,20

13,84
14,57
15,31

15,38
16,15
16,93

17,29
18,11
18,94

20,84

21,79

23,SB

12,88
13,56

21,75

22,72

24,54
25,51

25,34
26,34

1,15

1,65

2,83

19,94-

4,67

7,36

26
27
28
29
30

10,39

11,16
11,81
12,46

10,99
11,59

13,12
13,79

14,26
14,95

16,OS
16,79

17,71
18,49

19,77
20,80

22,66
23,57
24,48

23,65
24,58
25,51

26,48
27,44

28,34
29,34

40
50
60
70
80
90
100

17,92
24,67
31,74
39,04
46,52
54,16
61,92

20,71
27,99
35,53
43,28
51,17
59,20
67,33

22,16
29,71
37,48
45,44
53,54
61,75
70,06

24,43
32,36
40,48
48,76
57,15
65,65
74,22

26,51
34,76
43,19
51,74
60,39
69,13
77,93

29,05
37,89
46,46
55,33
64,28
73,29
82,36

33,66
42,94
52,29
61,70
71,14
80,62
90,13

34,87
44,31
53,81
63,35
72,92
82,51
92,13

37,13
48,86
58,82
86,40
76,19
85,99
95,81

39,34
49,33
59,33
69,33
79,33
89,33
99,33

9,22

9,80

27,34

737

1. Statistische Tafeln
w
0.600

0.700

1
2
3
4
5

0.71
1.83
2.95
4.04
5.13

1.07
2.41
3.66
4.88
6.06

6
7
8
9
10

6.21
7,28
8,35

Wahrscheinlichkeit
0.950
0.975

0.750

0.900

0.980

0.990

0.995

0.999

1.32

4.11
5.39
6.63

2.71
4.61
6.25
7.78
9.24

3.84
5.99
7.81
9.49
11.07

5.02
7.38
9.35
11.14
12.83

5.41
7.82
9.84
11.67
13.39

6.63
9.21
11.34
13.28
15.09

7.88
10.80
12.84
14.SB
16.75

10.83
13.82
16.27
18.47
20.51

7,23
8,38
9,52

7,84
9,04
10,22

10,64
12,02
13,36

12,59
14,07
15,51

14,45
16,01
17,53

15,03
16,62
18,17

16,81
18,48
20,09

22,46
24,32
26,12

14,68
15,99

16,92
18,31

19,02
20,48

19,68
21,16

21,67
23,21

18,55
20,28
21,95
23,59

9,41
10,47

10,66
11,78

11,39
12,55

25,19

29,59

11
12
13
14
15

11,53
12,58
13,64
14,69
15,73

12,90
14,01
15,12
16,22
17,32

13,70
14,85
15,98
17,12
18,25

17,28
18,55
19,81
21,06
22,31

19,68
21,03
22,36
23,68
25,00

21,92
23,34
24,74
26,12
27,49

22,62
24,05
25,47
28,87
28,28

24,73
26,22
27,69
29,14
30,58

28,76
28,30
29,82
31,32
32,80

31,28
32,91
34,53
36,12
37,70

16
17
18
19
20

16,78
17,82
18,87

18,42
19,51
20,60

19,37
20,49
21,60

23,54

26,30
27,59
28,87

28,85
30,19
31,53

32,00
33,41
34,81

19,91
20,95

21,69

22,n

22,72
23,83

32,85
34,17

39,25
40,79
42,31
43,82

28,41

30,14
31,41

29,63
31,00
32,35
33,69

21
22
23
24
25

21,99
23,03
24,07
25,11
26,14

23,SB
24,94
26,02
27,10
28,17

24,93
26,04
27,14
28,24
29,34

29,62
30,81
32,01
33,20
34,38

32,67
33,92
35,17
36,42
37,65

26
27
28
29
30

27,18
28,21
29,25

30,43
31,53
32,62

30,28
31,32

29,25
30,32
31,39
32,46
33,53

34,80

35,56
36,74
37,92
39,09
40,26

40
50
60
70
80
90
100

41,62
51,89
62,13
72,36
82,57
92,76
102,95

44,16
54,72
65,23
75,69
SB,12
98,52
106,91

45,62
56,33
66,98
77,58
88,13
98,65
109,14

51,81
63,17
74,40
65,53
98,58
107,57
118,50

2.n

33,71

24,n

25,99
27,20

27,88

35,02

36,19
37,57

34,27
35,72
37,16
38,58
40,00

35,48
36,78
38,08
39,36
40,65

36,34
37,68
38,97
40,27
41,57

38,93
40,29
41,64
42,98
44,31

41,40
42,80
44,18
45,58
46,93

46,80
48,27
49,73
51,18
52,62

38,89
40,11
41,34

41,92
43,19
44,46

45,64
46,96
48,28

48,29
49,65
50,99

43,n

42,56

45,72
46,98

42,SB
44,14
45,42
46,69

49,59

47,96

50,89

52,34
53,67

54,05
55,48
56,89
58,30

55,76
67,50
79,06
90,53
101,88
113,15
124,34

59,34
71,42
83,30
95,02
106,83
118,14
129,56

80,44
72,61
84,58
96,39
106,07
119,65
131,14

63,69
76,15
SB,38
100,43
112,33
124,12
135,81

SB,n

79,49
91,95
104,21
116,32
128,30
140,17

45,31

59,70

73,40
SB,SB
99,61
112,32
124,84
137,21
149,45

738

VI Anhang

1.7 t-Verteilung - Quantile


Ablesebeispiel:
Interessieren wir uns fr das 99 %-Quantil einer t-Verteilung mit w - 10 Freiheitsgraden,
so erhalten wir dieses als t 1O,0,99 = 2,76. Es gilt somit PCT10 :s; 2,76) = FT,. C2, 76) = 0,99.
Hinweis:

Es gilt F,C-ta) - 1 - F,Cta).


w

Wahrscheinlichkeit
0,900
0,950

0,600

0,700

0,750

0,800

0,975

0,990

0,995

0,999

1
2
3
4
5

0,32
0,29
0,28
0,27
0,27

0,73
0,62
0,58
0,57
0,56

1,00
0,82
0,76
0,74
0,73

1,38
1,06
0,98
0,94
0,92

3,08
1,89
1,64
1,53
1,48

6,31
2,92
2,35
2,13
2,02

12,71
4,30
3,18
2,78
2,57

31,82
6,96
4,54
3,75
3,36

63,66
9,92
5,84
4,60
4,03

318,29
22,33
10,21
7,17
5,89

6
7
8
9
10

0,26
0,26
0,26

0,55
0,55
0,55

0,72
0,71
0,71

1,44
1,41
1,40

0,26
0,26

0,54
0,54

0,70
0,70

0,91
0,90
0,89
0,88
0,88

1,94
1,89
1,86
1,83

2,45
2,36
2,31

3,14
3,00
2,90

3,71
3,50
3,36

5,21
4,79
4,50

1,81

2,26
2,23

2,82
2,76

3,25
3,17

4,30
4,14

11
12
13
14
15

0,26
0,26
0,26
0,26
0,26

0,54
0,54
0,54
0,54
0,54

0,70
0,70

0,88

0,69
0,69
0,69

0,87
0,87
0,87
0,87

1,36
1,36
1,35
1,35
1,34

1,80
1,78
1,77
1,76
1,75

2,20
2,18
2,16
2,14
2,13

2,72
2,68
2,65
2,62
2,60

16
17
18
19
20

0,26
0,26
0,26
0,26
0,26

0,54

0,53
0,53
0,53
0,53

0,69
0,69
0,69
0,69
0,69

0,86
0,86
0,86
0,86
0,86

1,34
1,33
1,33
1,33
1,33

1,75
1,74
1,73
1,73
1,72

2,12
2,11
2,10
2,09
2,09

2,58
2,57
2,55
2,54
2,53

2,92
2,90
2,88
2,86
2,85

3,69
3,65

21
22
23
24
25

0,26
0,26
0,26
0,26

0,26

0,53
0,53
0,53
0,53
0,53

0,69
0,69
0,69
0,68
0,68

0,86
0,86
0,86
0,86
0,88

1,32
1,32
1,32
1,32

1,72
1,72
1,71
1,71

2,08
2,07
2,07
2,06

2,52
2,51
2,50
2,49

2,83
2,82
2,81
2,80

3,53
3,50

1,32

1,71

2,06

2,49

2,79

3,45

26
27
28
29
30

0,26
0,26
0,26
0,26
0,26

0,53
0,53
0,53
0,53
0,53

0,68
0,68
0,68
0,68
0,68

0,88
0,88
0,85
0,85
0,85

1,31
1,31
1,31
1,31
1,31

1,71
1,70
1,70
1,70
1,70

2,06
2,05
2,05
2,05
2,04

2,48
2,47
2,47
2,48
2,48

2,78
2,77
2,76
2,76
2,75

3,43
3,42
3,41
3,40
3,39

40
50
60
70
80
90
100

0,26
0,25
0,25
0,25
0,25
0,25
0,25

0,53
0,53
0,53
0,53
0,53
0,53
0,53

0,68
0,68
0,68
0,68
0,68
0,68
0,68

0,85
0,85
0,85
0,85
0,85
0,85
0,85

1,30
1,30
1,30
1,29
1,29
1,29
1,29

1,68
1,68
1,67
1,67
1,66
1,66
1,66

2,02
2,01
2,00
1,99
1,99
1,99
1,98

2,42
2,40
2,39
2,38
2,37
2,37
2,36

2,70
2,68
2,66
2,65
2,64
2,63
2,63

3,31
3,26
3,23
3,21
3,20
3,18
3,17

1,38
1,37

3,11

4,02

3,05

3,93
3,85

3,01
2,98
2,95

3,79
3,73

3,61

3,58
3,55

3,48
3,47

739

1. Statistische Tafeln

1.8 F-Verteilung - Quantile


Ablesebeispiel:
Interessieren wir uns fr das 90 %-Quantil einer F-Verteilung mit u - 5 (Zhlerfreiheitsgrade) und w - 10 (Nennerfreiheitsgrade) Freiheitsgraden, so erhalten wir dieses konkret als fO,95;';" - 2,52. Es gilt also P(F,;lO :s; 2, 52) = F~;" (2,52) = 0,90,
Hinweis:

Es gilt

fa,u,w ;;;;;;

1 / f1_ a ,w,u'

Wahnchelnlk:bkdt 0,90
u

w
1
2
3
4
5

39,86
8,53
5,54
4,54

49,50
9,00

53,59

55,83

9,16

9,24

5,39

5,34

4,06

5,46
4,32
3,78

4,19
3,62

6
7
8
9
10

3,78
3,59
3,46
3,36
3,29

3,46
3,26
3,11
3,01
2,92

11
12
13
14
15

3,23
3,18
3,14
3,10
3,07

16
17
18
19
20

10

59,86
9,38

60,19
5,23
3,92

3,34

5,24
3,94
3,32

3,01
2,78
2,62
2,51
2,41

2,98
2,75
2,59
2,47
2,38

2,96
2,72
2,56
2,44
2,35

2,94
2,70
2,54
2,42
2,32

2,39
2,33
2,28
2,24
2,21

2,34
2,28
2,23
2,19
2,16

2,30
2,24
2,20
2,15
2,12

2,27
2,21
2,16
2,12
2,09

2,25
2,19
2,14
2,10
2,06

2,24
2,22
2,20
2,18
2,16

2,18
2,15
2,13
2,11
2,09

2,13
2,10
2,08
2,06
2,04

2,09
2,06
2,04
2,02
2,00

2,06
2,03
2,00
1,98
1,96

2,03
2,00
1,98
1,96
1,94

2,23
2,22
2,21
2,19
2,18

2,14
2,13
2,11
2,10
2,09

2,08
2,06
2,05
2,04
2,02

2,02
2,01
1,99
1,98
1,97

1,98
1,97
1,95
1,94
1,93

1,95
1,93
1,92
1,91
1,89

1,92
1,90
1,89

2,31
2,30
2,29
2,28
2,28

2,17
2,17
2,16
2,15
2,14

2,08
2,07
2,06
2,06
2,05

2,01
2,00
2,00
1,99
1,98

1,96
1,95
1,94
1,93
1,93

1,92
1,91
1,90
1,89
1,88

1,88
1,87
1,87
1,86
1,85

1,86
1,85
1,84
1,83
1,82

2,23
2,20
2,18
2,16
2,15
2,15
2,14

2,09
2,06

2,00
1,97
1,95
1,93
1,92
1,91
1,91

1,93
1,90
1,87

1,87

1,84

1,83
1,80
1,77
1,76
1,75
1,74
1,73

1,79
1,76
1,74
1,72
1,71
1,70
1,69

1,76
1,73
1,71
1,69

58,20

58,91

9,33

9,35

5,28
4,01

5,27

59,44
9,37
5,25

4,11
3,52

57,24
9,29
5,31
4,05
3,45

3,98

3,95

3,40

3,37

3,29
3,07
2,92
2,81
2,73

3,18
2,96
2,81
2,69
2,61

3,11
2,88
2,73
2,61
2,52

3,05
2,83
2,67
2,55
2,46

2,86
2,81
2,76
2,73
2,70

2,66
2,61
2,56
2,52
2,49

2,54
2,48
2,43
2,39
2,36

2,45
2,39
2,35
2,31
2,27

3,05
3,03
3,01
2,99
2,97

2,67
2,64
2,62
2,61
2,59

2,46
2,44
2,42
2,40
2,38

2,33
2,31
2,29
2,27
2,25

21
22
23
24
25

2,96
2,95

2,94

2,57
2,56
2,55

2,93
2,92

2,53

2,36
2,35
2,34
2,33
2,32

26
27
28
29
30

2,91
2,90
2,89
2,89
2,88

2,52
2,51
2,50
2,50
2,49

40
50
60
70
80
90
100

2,84

2,44

2,81
2,79
2,78
2,77
2,76
2,76

2,41
2,39
2,38
2,37
2,36
2,36

2,54

2,04
2,03
2,02
2,01
2,00

1,86
1,85
1,84
1,83

1,82

1,80
1,79
1,78
1,78

9,39
3,30

1,88
1,87

1,68
1,67

1,66

VI Anhang

740
Wahnchcinlk:hkelt 090

11

12

13

14

15

20

30

40

50

100

1
2
3
4
5

60,47
9,40
5,22
3,91
3,28

60,71
9,41
5,22
3,90
3,27

60,90
9,41
5,21
3,89
3,26

61,07
9,42
5,20
3,88
3,25

61,22
9,42
5,20
3,87
3,24

61,74
9,44
5,18
3,84
3,21

62,26
9,46
5,17
3,82
3,17

62,53
9,47
5,16
3,80
3,16

62,69
9,47
5,15
3,80
3,15

63,01
9,48
5,14
3,78
3,13

6
7
8
9
10

2,92
2,68
2,52
2,40
2,30

2,90
2,67
2,50
2,38
2,28

2,89

2,87
2,63
2,46
2,34
2,24

2,84
2,59
2,42
2,30
2,20

2,80
2,56
2,38
2,25
2,16

2,78
2,54
2,36
2,23
2,13

2,77
2,52

2,49
2,36
2,27

2,88
2,64
2,48
2,35
2,26

2,35
2,22

2,75
2,50
2,32
2,19

2,12

2,09

11
12
13
14
15

2,23
2,17
2,12
2,07
2,04

2,21
2,15
2,10
2,05
2,02

2,19
2,13
2,08
2,04
2,00

2,18
2,12
2,07
2,02
1,99

2,17
2,10
2,05
2,01
1,97

2,12
2,06
2,01
1,96
1,92

2,08
2,01
1,96
1,91
1,87

2,05
1,99
1,93
1,89
1,85

2,04
1,97
1,92
1,87
1,83

2,01
1,94
1,88
1,83
1,79

16
17
18
19
20

2,01
1,98
1,95
1,93
1,91

1,99
1,96
1,93
1,91
1,89

1,97
1,94
1,92
1,89
1,87

1,95
1,93
1,90
1,88
1,86

1,94
1,91
1,89
1,86
1,84

1,89
1,86

1,84

1,84
1,81
1,79

1,81
1,78
1,76
1,74

1,81
1,78
1,75
1,73
1,71

1,79
1,76
1,74
1,71
1,69

1,76
1,73
1,70
1,67

1,65

21
22
23
24
25

1,90
1,88
1,87
1,85
1,84

1,87
1,86
1,84
1,83
1,82

1,86
1,84
1,83
1,81
1,80

1,84
1,83
1,81
1,80
1,79

1,83
1,81
1,80
1,78
1,77

1,78
1,76
1,74
1,73
1,72

1,72
1,70
1,69
1,67
1,66

1,69
1,67
1,66
1,64
1,63

1,67
1,65
1,64
1,62
1,61

1,63
1,61
1,59
1,58
1,56

26
27
28
29
30

1,83
1,82
1,81
1,80
1,79

1,81
1,80
1,79
1,78
1,77

1,79
1,78
1,77
1,76
1,75

1,77
1,76
1,75
1,75
1,74

1,76
1,75
1,74
1,73
1,72

1,71
1,70
1,69

1,65
1,64
1,63

1,59

1,55
1,54
1,53

1,68
1,67

1,62
1,61

1,61
1,60
1,59
1,58
1,57

40
50
60
70
60
90
100

1,74
1,70
1,68
1,66
1,65
1,64
1,64

1,71
1,68
1,66
1,64
1,63
1,62
1,61

1,70
1,66
1,84
1,62
1,61
1,60
1,59

1,68
1,64
1,62
1,60
1,59
1,58
1,57

1,66
1,63
1,60
1,59
1,57
1,56
1,56

1,61
1,57
1,54
1,53
1,51
1,50
1,49

1,54
1,50
1,48
1,46
1,44
1,43
1,42

1,51
1,46
1,44
1,42
1,40
1,39
1,38

2,65

1,58
1,57
1,56

1,55

1,52
1,51

1,48
1,44
1,41
1,39
1,38
1,36
1,35

1,43
1,39
1,36
1,34
1,32
1,30
1,29

1. Statistische Tafeln

741

Wahr8chelnllchkelt 0.95
u

1
2
3
4
5

161.45
18,51
10,13
7,71

199.50
19,00
9,55
6,94

215,71
19,16
9,28
6,59

224,58
19,25
9,12
6,39

6,61

5,79

5,41

5,19

230,16
19,30
9,01
6,26
5,05

6
7
8
9
10

5,99
5,59

5,14

4,76

4,53

4,39

4,28

4,74

3,87

4,46

4,12
3,84

3,97

5,32

4,35
4,07

3,69

3,58

3,50

5,12
4,96

4,26
4,10

3,86

3,63

3,48

3,71

3,48

3,33

3,37
3,22

11
12
13
14
15

4,84

3,98
3,89

3,59

3,36
3,26
3,18
3,11

3,20
3,11

3,09
3,00

3,03

4,54

3,68

3,49
3,41
3,34
3,29

3,06

16
17
18
19
20

4,49

3,63
3,59
3,55
3,52
3,49

3,24
3,20
3,16
3,13
3,10

4,75
4,67
4,60

4,45
4,41
4,38
4,35

3,81
3,74

10

233,99
19,33
8,94
6,16

236,77
19,35
8,89
6,09

238,88
19,37
8,85
6,04

240,54
19,38
8,81
6,00

241,88
19,40
8,79
5,96

4,95

4,88

4,82

4,77

4,74

4,21

4,15

3,79

4,10
3,68
3,39

4,06
3,64
3,35

3,29
3,14

3,73
3,44
3,23
3,07

3,18
3,02

3,14

2,96
2,90

2,95
2,85
2,77
2,70
2,64

2,90
2,80
2,71
2,65
2,59

2,85

2,92
2,85
2,79

3,01
2,91
2,83
2,76
2,71

3,01
2,96
2,93
2,90
2,87

2,85
2,81
2,77
2,74
2,71

2,74
2,70
2,66
2,63
2,60

2,66
2,61
2,58
2,54
2,51

2,59
2,55
2,51
2,48
2,45

2,54
2,49
2,46
2,42
2,39

2,49

2,35

2,98
2,75
2,67
2,60

2,54
2,45
2,41
2,38

21
22
23
24
25

4,32

3,47

3,07

2,84

2,68

2,57

2,49

2,42

2,37

2,32

4,30
4,28
4,26
4,24

3,44
3,42
3,40
3,39

3,05
3,03
3,01
2,99

2,82
2,80
2,78
2,76

2,66
2,64
2,62
2,60

2,55
2,53
2,51
2,49

2,46
2,44
2,42
2,40

2,40
2,37
2,36
2,34

2,34
2,32
2,30
2,28

2,30
2,27
2,25
2,24

26
27
28
29
30

4,23
4,21
4,20
4,18
4,17

3,37
3,35
3,34
3,33
3,32

2,98
2,96
2,95
2,93
2,92

2,74
2,73
2,71
2,70
2,69

2,59
2,57
2,56
2,55
2,53

2,47
2,46
2,45
2,43
2,42

2,39
2,37
2,36
2,35
2,33

2,32
2,31
2,29
2,28
2,27

2,27
2,25
2,24
2,22
2,21

2,22
2,20
2,19
2,18
2,16

40
50
60
70
80
90
100

4,08
4,03
4,00
3,98
3,96
3,95
3,94

3,23
3,18
3,15
3,13
3,11
3,10
3,09

2,84
2,79
2,76
2,74
2,72
2,71
2,70

2,61
2,56
2,53
2,50
2,49
2,47
2,46

2,45
2,40
2,37
2,35
2,33
2,32
2,31

2,34
2,29
2,25
2,23
2,21
2,20
2,19

2,25
2,20
2,17
2,14
2,13
2,11
2,10

2,18
2,13
2,10
2,07
2,06
2,Q4
2,03

2,12
2,07
2,04
2,02
2,00
1,99
1,97

2,08
2,03
1,99
1,97
1,95
1,94
1,93

VI Anhang

742
Wahnch.lnlkhkdt 0,95
u

11

12

13

14

15

20

30

40

50

100

1
2
3
4
5

242,98
19,40
8,76
5,94
4,70

243,90
19,41
8,74
5,91
4,68

244,69
19,42
8,73
5,89
4,66

245,36
19,42
8,71
5,87
4,64

245,95
19,43
8,70
5,86
4,62

248,02
19,45
8,66
5,80
4,56

250,10
19,46
8,62
5,75
4,50

251,14
19,47
8,59
5,72
4,46

251,77
19,48
8,58
5,70
4,44

253,04
19,49
8,55
5,66
4,41

6
7
8
9
10

4,03
3,60
3,31
3,10
2,94

4,00
3,57
3,28
3,07
2,91

3,98
3,55
3,26
3,05
2,89

3,96
3,53
3,24
3,03
2,86

3,94
3,51
3,22
3,01
2,85

3,87
3,44
3,15
2,94
2,77

3,81
3,38
3,08
2,86
2,70

3,77
3,34
3,04
2,83
2,66

3,75
3,32
3,02
2,80
2,64

3,71
3,27
2,97
2,76
2,59

11
12
13
14
15

2,82
2,72
2,63
2,57
2,51

2,79
2,69
2,60
2,53
2,48

2,76
2,66
2,58
2,51
2,45

2,74
2,64
2,55
2,48
2,42

2,72
2,62
2,53
2,46
2,40

2,65
2,54
2,46
2,39
2,33

2,57
2,47
2,38
2,31
2,25

2,53
2,43
2,34
2,27
2,20

2,51
2,40
2,31
2,24
2,18

2,46
2,35
2,26
2,19
2,12

16

2,46
2,41
2,37
2,34
2,31

2,42
2,38
2,34
2,31
2,28

2,40
2,35
2,31
2,28
2,25

2,37
2,33
2,29
2,26
2,22

2,35
2,31
2,27
2,23
2,20

2,28
2,23
2,19
2,16
2,12

2,19
2,15
2,11
2,07
2,04

2,15
2,10
2,06
2,03
1,99

2,12
2,08
2,04
2,00
1,97

2,07
2,02
1,98
1,94
1,91

21
22
23
24
25

2,28

2,25

2,22

2,20

2,18

2,10

2,01

1,96

1,94

1,88

2,26
2,24
2,22
2,20

2,23
2,20
2,18
2,16

2,20
2,18
2,15
2,14

2,17
2,15
2,13
2,11

2,15
2,13
2,11
2,09

2,07
2,05
2,03
2,01

1,98
1,96
1,94
1,92

1,94
1,91
1,89
1,87

1,91
1,88
1,86
1,84

1,85
1,82
1,80
1,78

26
27
28
29
30

2,18
2,17
2,15
2,14
2,13

2,15
2,13
2,12
2,10
2,09

2,12
2,10
2,09
2,08
2,06

2,09
2,08
2,06
2,05
2,04

2,07
2,06
2,04
2,03
2,01

1,99

1,90
1,88
1,87
1,85
1,84

1,85
1,84
1,82
1,81
1,79

1,82
1,81
1,79
1,77
1,76

1,76
1,74
1,73
1,71
1,70

40
50
60
70
80
90
100

2,04
1,99
1,95
1,93
1,91

2,00
1,95
1,92
1,89
1,88

1,97
1,92
1,89
1,86

1,95
1,89
1,86
1,84
1,82

1,92
1,87
1,84
1,81
1,79

1,84
1,78
1,75
1,72
1,70

1,74
1,69
1,65
1,62
1,60

1,69
1,63
1,59
1,57
1,54

1,66
1,60
1,56
1,53
1,51

1,59
1,52
1,48
1,45
1,43

1,90
1,89

1,86
1,85

1,80
1,79

1,78
1,77

1,69
1,68

1,59
1,57

1,53
1,52

1,49
1,48

1,41
1,39

17

18
19
20

1,84
1,83
1,82

1,97
1,96

1,94
1,93

743

1. Statistische Tafeln
Wahrschelnlkbkdt 0 99
u

1
2
3
4
5

4052.18
98,50

4999.34
99,00

5403,53

34,12
21,20
16,26

30,82
18,00
13,27

29,46

6
7
8
9
10

13,75
12,25
11,26
10,56
10,04

10,92

9,55
8,65

9,78
8,45
7,59

8,02
7,56

6,99
6,55

11
12
13
14
15

9,65
9,33
8,86
8,68

16
17
18
19
20

8,53
8,40
8,29
8,18
8,10

21
22
23
24
25

99,16
16,69
12,06

5624,26
99,25

5763,96
99,30

5858,95
99,33

5928,33
99,36

5980,95
99,38

6022,40
99,39

28,71
15,98
11,39

28,24
15,52
10,97

27,91
15,21
10,67

27,67
14,98
10,46

27,49
14,80
10,29

27,34
14,66
10,16

9,15
7,85
7,01
6,42

8,75
7,46

8,47
7,19
6,37

8,26

6,99

8,10
6,84

6,03

7,98
6,72
5,91

5,99

7,21

6,22

6,93

5,95

6,70
6,51

5,74

5,56

6,36

5,42

5,67
5,41
5,21
5,04
4,89

6,23
6,11

5,29
5,19

4,77
4,67

6,01
5,93
5,85

5,09
5,01
4,94

8,02
7,95
7,88
7,82
7,77

5,78
5,72
5,66
5,61
5,57

26
27
28
29
30

7,72
7,68
7,64
7,60
7,56

40
50
60
70
80
90
100

7,31
7,17
7,08
7,01
6,96
6,93
6,90

9,07

6,63
6,06
5,64
5,32

5,06
4,86
4,69
4,56

4,58
4,50
4,43

4,44
4,34
4,25
4,17
4,10

4,87
4,82
4,76
4,72
4,68

4,37
4,31
4,26
4,22
4,18

5,53
5,49
5,45
5,42
5,39

4,64
4,60
4,57
4,54
4,51

5,18
5,06
4,98
4,92
4,88
4,85
4,82

4,31
4,20
4,13
4,07
4,04
4,01
3,98

10
6055,93
99,40
27,23
14,55
10,05

5,80
5,39

6,18
5,61
5,20

5,47

5,35

7,87
6,62
5,81
5,26

5,06

4,94

4,85

5,07
4,82
4,62
4,46
4,32

4,89
4,64
4,44
4,28
4,14

4,74
4,50
4,30
4,14
4,00

4,63
4,39
4,19
4,03

4,54
4,30
4,10
3,94

3,89

3,80

4,03

3,89

3,78

3,79

4,01
3,94
3,87

3,93
3,84
3,77
3,70

3,71
3,63
3,56

3,68
3,60
3,52
3,46

3,69
3,59
3,51
3,43
3,37

4,04
3,99
3,94
3,90
3,85

3,81
3,76
3,71
3,67
3,63

3,64
3,59
3,54
3,50
3,46

3,51
3,45
3,41
3,36
3,32

3,40
3,35
3,30
3,26
3,22

3,31
3,26
3,21
3,17
3,13

4,14
4,11
4,07
4,04
4,02

3,82
3,78
3,75
3,73
3,70

3,59
3,56
3,53
3,50
3,47

3,42
3,39
3,36
3,33
3,30

3,29
3,26
3,23
3,20
3,17

3,18
3,15
3,12
3,09
3,07

3,09
3,06
3,03
3,00
2,98

3,83
3,72
3,65
3,60
3,56
3,53
3,51

3,51
3,41
3,34
3,29
3,26
3,23
3,21

3,29
3,19
3,12
3,07
3,04
3,01
2,99

3,12
3,02
2,95
2,91
2,87
2,84
2,82

2,99
2,89
2,82
2,78
2,74
2,72
2,69

2,89
2,78
2,72
2,67
2,64
2,61
2,59

2,80
2,70
2,63
2,59
2,55
2,52
2,50

4,20
4,10

744

VI Anhang

W ahrsch ein IJe .....


-eil 0,99

11

12

13

14

15

20

30

40

50

100

1
2
3
4
5

6083,40
99,41
27,13
14,45
9,96

6106,88
99,42
27,05
14,37
9,89

6125,77
99,42
26,98
14,31
9,82

6143,00
99,43
26,92
14,25
9,77

6156,97
99,43
26,87
14,20
9,72

6208,66
99,45
26,69
14,02
9,55

6260,35
99,47
26,50
13,84
9,38

6286,43
99,48
26,41
13,75
9,29

6302,26
99,48
26,35
13,69
9,24

6333,92
99,49
26,24
13,58
9,13

6
7
8
9
10

7,79
6,54
5,73
5,18
4,77

7,72
6,47
5,67
5,11
4,71

7,66
6,41
5,61
5,05
4,65

7,60
6,36
5,56
5,01
4,60

7,56
6,31
5,52
4,96
4,56

7,40
6,16
5,36
4,81
4,41

7,23
5,99
5,20
4,65
4,25

7,14
5,91
5,12
4,57
4,17

7,09
5,86
5,07
4,52
4,12

6,99
5,75
4,96
4,41
4,01

11
12
13
14
15

4,46
4,22

4,34
4,10

4,25
4,01

3,86
3,62

3,51

3,70

3,66

3,35

3,73

3,67

3,56

3,52

3,51
3,37

3,43
3,27
3,13

3,81
3,57
3,38

3,71
3,47

3,82

4,10
3,86
3,66

3,94
3,70

3,91
3,75
3,61

4,29
4,05
3,86

3,86

4,40
4,16
3,96
3,80

3,62
3,52

3,55

3,50

3,45

17

3,46

3,40

3,41
3,31

3,26
3,16

18
19
20

3,43
3,36
3,29

3,37
3,30
3,23

3,32
3,24
3,18

3,35
3,27
3,19
3,13

3,23
3,15
3,09

3,08
3,00
2,94

3,00
2,92
2,84
2,78

21
22
23
24
25

3,24
3,18
3,14
3,09
3,06

3,17
3,12
3,07
3,03
2,99

3,12
3,07
3,02
2,98
2,94

3,07
3,02
2,97
2,93
2,89

3,03
2,98
2,93
2,89
2,85

2,88
2,63
2,78
2,74
2,70

26
27
28
29
30

3,02
2,99
2,96
2,93
2,91

2,96
2,93
2,90
2,87
2,84

2,90
2,87
2,84
2,81
2,79

2,86
2,82
2,79
2,77
2,74

2,81
2,78
2,75
2,73
2,70

40
50
60
70
80
90
100

2,73
2,63
2,56
2,51
2,48
2,45
2,43

2,66
2,56
2,50
2,45
2,42
2,39
2,37

2,61
2,51
2,44
2,40
2,36
2,33
2,31

2,56
2,46
2,39
2,35
2,31
2,29
2,27

2,52
2,42
2,35
2,31
2,27
2,24
2,22

16

4,02

3,08

3,27
3,11
2,98

3,02
2,92

2,97
2,87

2,86
2,76

2,84
2,76
2,69

2,78
2,71
2,64

2,68
2,60
2,54

2,72
2,67
2,62
2,58
2,54

2,64
2,58
2,54
2,49
2,45

2,58
2,53
2,48
2,44
2,40

2,48
2,42
2,37
2,33
2,29

2,66
2,63
2,60
2,57
2,55

2,50
2,47
2,44
2,41
2,39

2,42
2,38
2,35
2,33
2,30

2,36
2,33
2,30
2,27
2,25

2,25
2,22
2,19
2,16
2,13

2,37
2,27
2,20
2,15
2,12
2,09
2,07

2,20
2,10
2,03
1,98
1,94
1,92
1,89

2,11
2,01
1,94
1,89
1,85
1,82
1,80

2,06
1,95
1,88
1,83
1,79
1,76
1,74

1,94
1,82
1,75
1,70
1,65
1,62
1,60

3,21
3,10

3,22

2.
2.1

konometrische Tafeln

Kritische Werte der Durbin-Watson-Statistik


,
a-001

n
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
45
50
55
60
65
70
75
80
85
90
95
100
150
200

K-l
d.
0,39
0,44
0,50
0,55
0,60
0,65
0,70
0,74
0,78
0,81

d,
1,14
1,04
1,00
1,00
1,00
1,01
1,02
1,04

I K-2
I d.
0,29
0,35
0,41

1,68
1,49
1,39

0,47
0,52

1,33
1,30
1,27
1,26
1,25
1,25
1,25
1,26
1,26
1,27
1,27
1,28

0,57
0,62

1,05

0,66

1,07

0,70
0,74
0,77
0,81

0,84

1,09

0,87

1,10
1,12
1,13
1,15
1,16

0,90
0,93
0,95
0,98
1,00
1,02
1,04
1,06
1,07
1,09
1,10
1,12
1,13
1,15
1,16
1,17
1,18
1,20
1,21
1,22
1,23
1,24
1,25
1,29
1,32
1,36
1,38
1,41

1,17
1,19
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,32
1,33
1,34
1,34
1,38
1,40
1,43
1,45
1,47

1,43
1,45
1,47
1,48
1,50
1,51
1,52
1,61
1,66

1,49
1,50
1,52
1,53
1,54
1,55
1,56
1,64
1,68

d"

0,84
0,86
0,89
0,91
0,94
0,96
0,98
1,00
1,02
1,04
1,05
1,07
1,09
1,10
1,11
1,13
1,14
1,15
1,17
1,18
1,19
1,20
1,25
1,29
1,32
1,35
1,38
1,40
1,42

1,44
1,46
1,47
1,49
1,50
1,60
1,65

I K-3
I d.

K-4
d,

d"

d"

0,23
0,28
0,34

2,10
1,88

0,40

1,64
1,58
1,53

0,45
0,50
0,55
0,59
0,63
0,67
0,71
0,74
0,77

1,28
1,29
1,30
1,31
1,31
1,32
1,33
1,33
1,34
1,35
1,35
1,36
1,36
1,37
1,38
1,38
1,39
1,39
1,40
1,42
1,45
1,47
1,48
1,50

0,80
0,83
0,86
0,88
0,91
0,93
0,95
0,97
0,99
1,01
1,02
1,04
1,06
1,07
1,09
1,10
1,11
1,12
1,14
1,15
1,20
1,25
1,28
1,32
1,35

1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,65
1,69

1,37
1,40
1,42
1,44
1,45
1,47
1,48
1,58
1,64

1,73

1,49

0,18

2,43

0,23
0,29

2,19
2,03
1,91
1,83
1,76
1,70
1,66
1,63
1,60

0,34
0,39
0,44

1,46
1,45
1,43

0,49

1,42
1,42
1,41
1,41

0,61

1,41
1,41
1,41
1,41
1,41
1,41
1,42
1,42
1,42
1,43
1,43
1,43
1,44
1,44
1,44
1,45
1,45
1,45
1,46
1,47
1,49
1,51
1,52
1,53
1,55
1,56
1,57

1,58
1,59

1,60
1,60
1,67
1,70

0,53
0,57

I K-5
I d.

2,45

0,44
0,48
0,52

0,72

1,55
1,54
1,53
1,53
1,52
1,52
1,52
1,51
1,51
1,51
1,51
1,51
1,51
1,51
1,51
1,51
1,51
1,52
1,52
1,52
1,53
1,54
1,55
1,56
1,57

0,56
0,60
0,63
0,67
0,70
0,73
0,76
0,78
0,81
0,83
0,86
0,88
0,90
0,92
0,94
0,95
0,97
0,99
1,00
1,02
1,03
1,05
1,11
1,16
1,21
1,25
1,28

1,58
1,59
1,60
1,60
1,61
1,62
1,63
1,68
1,72

1,31
1,34
1,36
1,39
1,41
1,43
1,44
1,56
1,62

1,37
1,39
1,41
1,43
1,45
1,46
1,57
1,63

d"

0,19
0,24
0,29

1,58

0,75
0,78
0,81
0,83
0,86
0,88
0,90
0,92
0,94
0,96
0,98
1,00
1,01
1,03
1,04
1,06
1,07
1,09
1,10
1,16
1,21
1,25
1,28
1,32
1,34

d"

2,69

0,34
0,39

K-7
d.

d,

0,15

0,65
0,69

1,57

K-6

2,28
2,15
2,05
1,97
1,90

1,85
1,80
1,77
1,74
1,71

1,69
1,67
1,68
1,85
1,84
1,63
1,62
1,61
1,61
1,80
1,80
1,59
1,59
1,59
1,59
1,59
1,59
1,58
1,58
1,58
1,59
1,59
1,60
1,60
1,61
1,62
1,62

1,63
1,64
1,64
1,65
1,69
1,73

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_26, Springer Fachmedien Wiesbaden 2015

0,12
0,16
0,21
0,26

0,30
0,35
0,39
0,44
0,48
0,52

0,55
0,59
0,62
0,65
0,68
0,71
0,74
0,76
0,79
0,81
0,83
0,86
0,88
0,90
0,91
0,93
0,95
0,97
0,98
1,00
1,07
1,12
1,17
1,21
1,25
1,28
1,31
1,34
1,36
1,38
1,40
1,42
1,54
1,61

2,89
2,67
2,49

2,35
2,24
2,15
2,08
2,02
1,96
1,92
1,88

0,11
0,14
0,18
0,23
0,27
0,31

0,36
0,40
0,44
0,47

1,85
1,82
1,80
1,78
1,76
1,74
1,73
1,72
1,71
1,70
1,69
1,68
1,68
1,67
1,67
1,66
1,66
1,66
1,65
1,64
1,64
1,64
1,64
1,64

0,51
0,55
0,58
0,61
0,64
0,67
0,70
0,72
0,75
0,77
0,79
0,82
0,84
0,86
0,88
0,90
0,91
0,93
0,95
1,02
1,08
1,13
1,18
1,22

1,65
1,65
1,65
1,66
1,66
1,67
1,67
1,71
1,74

1,25
1,28
1,31
1,34
1,36
1,38
1,40
1,53
1,60

d,

3,05
2,84
2,67

2,53
2,42
2,32
2,24
2,17
2,11
2,06

2,02
1,98
1,94
1,92
1,89
1,87
1,85
1,63
1,81
1,80
1,79
1,78
1,77
1,76
1,75
1,74
1,74
1,73
1,72
1,70
1,69
1,69
1,68
1,68
1,68
1,68
1,68
1,69
1,69
1,69
1,69
1,72
1,75

VI Anhang

746

-0,05
n
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
28
27
28
29
30
31
32
33
34
35
36
37
38
39

40

45
50
55
60
65
70
75
60
85
90
95
100
150
200

K_l
d
0,61
0,70
0,76

cl,
1,40
1,36
1,33
1,32

I K_2
I d

cl,

K_3
d

0,47
0,56
0,63

1,90
1,78

0,37

1,70

0,46

0,70

1,64

0,66

0,97
1,01
1,05
1,08
1,11
1,13
1,16
1,18
1,20

1,32
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
1,41

1,02
1,05
1,07
1,10

1,60
1,58
1,56
1,55
1,54
1,54
1,54
1,54
1,54
1,54

0,53
0,60
0,66

1,22
1,24
1,28
1,27
1,29
1,30
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
1,41
1,42
1,43
1,44
1,44
1,48
1,50
1,53
1,55

1,42
1,43
1,44
1,45
1,45
1,46
1,47
1,48
1,48
1,49
1,50
1,50
1,51
1,51
1,52
1,53
1,53
1,54
1,54
1,54
1,57
1,59
1,60
1,62

1,13
1,15
1,17
1,19
1,21
1,22
1,24
1,26
1,27
1,28
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,43
1,46
1,49
1,51

1,54
1,54
1,54
1,55
1,55
1,55
1,56
1,56
1,56
1,57
1,57
1,57
1,58
1,58
1,58
1,59
1,59
1,59
1,60
1,60
1,62
1,63
1,64
1,65

1,57
1,58
1,60
1,61
1,62
1,64
1,65
1,65
1,72
1,76

1,63
1,64
1,65
1,66
1,67
1,68
1,69
1,69
1,75
1,78

1,54
1,55
1,57
1,59
1,60
1,61
1,62
1,63
1,71
1,75

1,66
1,67
1,68
1,69
1,70
1,70
1,71
1,72
1,76
1,79

0,82

0,88
0,93

0,81

0,86
0,91

0,95
0,98

cl,

2,29

K_4
d

0,30
0,38

0,97
1,00

2,13
2,02
1,93
1,86
1,82
1,78
1,75
1,73
1,71
1,70
1,69
1,68

1,03
1,05
1,08
1,10
1,12
1,14
1,16
1,18
1,20
1,21
1,23
1,24
1,26
1,27
1,28
1,30
1,31
1,32
1,33
1,34
1,38
1,42
1,45
1,48

1,67
1,66
1,66
1,66
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,65
1,66
1,66
1,66
1,66
1,67
1,67
1,68
1,69

0,86
0,89
0,93
0,96
0,99
1,01
1,04
1,06
1,08
1,10
1,12
1,14
1,16
1,18
1,19
1,21
1,22
1,24
1,25
1,26
1,27
1,29
1,34
1,38
1,41
1,44

1,50

1,70
1,70
1,71
1,72
1,72
1,73
1,73
1,74
1,77
1,80

1,47
1,49
1,52
1,53
1,55
1,57
1,58
1,59
1,68
1,73

0,72
0,77

0,81

0,86
0,90
0,93

1,53
1,54
1,56

1,58
1,59
1,60
1,61
1,69
1,74

0,44

0,51
0,57

0,63
0,69
0,73
0,78
0,82

2,59

I K_5
I d

I K_6
I d

2,41
2,28
2,18
2,09
2,03
1,98
1,94
1,90
1,87
1,85
1,83

0,24
0,32

1,81
1,80
1,79
1,78
1,77
1,76
1,75
1,75
1,74
1,74
1,74
1,73
1,73
1,73
1,73
1,72
1,72
1,72
1,72
1,72
1,72
1,72
1,72
1,73

0,83
0,86
0,90
0,93
0,95
0,98
1,00
1,03
1,05
1,07
1,09
1,11
1,13
1,14
1,16
1,18
1,19
1,20
1,22
1,23
1,29
1,34
1,37
1,41
1,44

1,73
1,74
1,74
1,74
1,75
1,75
1,76
1,76
1,79
1,81

0,38
0,45
0,51
0,56
0,62

0,66
0,71
0,75
0,79

1,46
1,49
1,51

1,53
1,54
1,56
1,57
1,67
1,72

2,82
2,65
2,51
2,39
2,30
2,22
2,16
2,10
2,06
2,02
1,99

1,98
1,94
1,92
1,90
1,89
1,87
1,86
1,85
1,84
1,83
1,83
1,82
1,81
1,81
1,80
1,80
1,80
1,79
1,79
1,79
1,78
1,77
1,77
1,77
1,77
1,77
1,77
1,77
1,77
1,78
1,78
1,78
1,80
1,82

Zeichenerklrung:
n - Stichprobengre
K - Anzahl erklrender Variablen im Modell (ohne Konstante)
Tabellenquelle:
Savin und White (1977) LV.rn. Farebrother (1980)

0,20
0,27

0,33
0,39
0,45

0,50
0,55
0,60
0,65
0,69
0,73
0,77
0,80
0,84
0,87
0,90
0,93
0,95
0,98
1,00
1,02
1,04
1,06
1,08
1,10
1,11
1,13
1,15
1,16
1,18
1,24
1,29
1,33
1,37
1,40
1,43
1,46
1,48
1,50
1,52
1,54

1,55
1,65
1,71

d,

3,01
2,83
2,69
2,57
2,47
2,39
2,32
2,26
2,21
2,16

2,12
2,09
2,08
2,04
2,01
1,99
1,97
1,96
1,94
1,93
1,92
1,91
1,90
1,89
1,88
1,88
1,87
1,86
1,86
1,85
1,84
1,82
1,81
1,81
1,81
1,80
1,80
1,80
1,80
1,80
1,80
1,80
1,82
1,83

K_7
d

0,17
0,23
0,29

3,15
2,99

0.34
0,40
0,45
0,50
0,55
0,60
0,64
0,68
0,72
0,75
0,78
0,82
0,85
0,87
0,90
0,93
0,95
0,97
0,99
1,02
1,03
1,05
1,07
1,09
1,10
1,12
1,19
1,25
1,29
1,34
1,37
1,40
1,43
1,45
1,47
1,49

2,73
2,62

1,51
1,53
1,64
1,70

2,85
2,54
2,46
2,40

2,34
2,29
2,25
2,21
2,17
2,14
2,12
2,09
2,07
2,OS
2,03
2,02
2,00
1,99
1,98
1,97
1,96
1,95
1,94
1,93
1,92
1,90
1,88
1,86
1,85
1,84
1,84
1,83
1,83
1,83
1,83
1,83
1,83
1,83
1,84

747

2. Okonometrische Tafeln

2.2 Kritische Dickey-Fuller t-Werte

..

I
I

t..
1%
-3.75
-3.56

5%
-3.00
-2.93

-1,95

-3,51

-2,89

-1,95

-3,46

-2,88

-2,58

-1,95

-3,44

-2,87

2,58

-t,95

-3,43

-2,86

\,

n
25
50
100
250
500

1%
2.66
2.62

5%
-t.95
-t.95

-2,60
-2,58

"'.

1%
4.36
4.15
4.04
-3.99
-3.98
-3,96

5%
-3.60
-3.50
-3.45
-3.43
-3.42
-3,4t

Zeichenerklrung:
n - Stichprobenumfang
t - kritische Werte zum angegebenen Signifikanzruveau, wobei die Subskripte nc, c und
ct bedeuten, dass die Dickey-Fuller-Testgleichung keine Konstante, eine Konstante
bzw. eine Konstante und einen deterministischen Trend enthlt.

Tabellenquelle:
Puller (1976) sowie Dickey und Puller (1981)

Literatu rverzeich nis


Akailre, H. (1981): "Likelihood of a Model and Infonnation Criteria", Journal of
Econometrics 160),3-14.

Albrecht, P. (1980): "On the Correct Use of the Chi-square Goodness-of-fit Test",
Scandinavian Actuarial Journal 7, 149-160.
Allen, R.C., Stone, J.H. (2005): "Tbe Neglected Constant Coefficient: A Pedagogical Note on the Textbook Uterature", Journal of Economic Education.
Anscombe, FJ. (1973): "Graphs in Statistical Analysis", American Statistican 27 0)'
17-21.
Asteriou, D., Hall, S.G. (2007): "Applied Econometrics: A Modem Approach Using
EViews and Microfit", Revised Edition, Palgrave, New York.
Auer, B.R., Schuhmacher, F. (2009): "Portfoliooptimierung", WISU, Heft 5, Mai,
679-687.
Auer, B.R., Schuhmacher, F. (2013): ItDiamonds - A Precious New Asset?", International Review of Financial Analysis 28, 182-189.

Auer, B.R., Seltz, F. (2008): "Perfonnancemessung - Theoretische Mae und empirische Umsetzung mit VBA", Weidener Diskussionspapiere Nr. 12.
Auer, B.R., Seltz, F. (2013): "Grundkurs Wirtschaftsmathematik", 4. Auflage, Springer-Gabler, Wiesbaden.
Bamberg, G., Baur, F. (2004): "Statistik Arbeitsbuch", 7. Auflage, Oldenbourg,
Mnchen, Wien.
Bamberg, G., Baur, F. (2002): "Statistik", 12. Auflage, Oldenbourg, Mnchen,
Wien.
Bart\ett, M.S. (1946): "On the Tbeoretical Specification and Sampling Properties of
Autocorrelated Time Series", Journal of the Royal Statistical Society 8 0), 27-41.
Bem, A.K., Jarque, C.M. (1982): "Model Specification Tests: A Simultaneous
Approach", Journal of Econometrics 20 (l), 59-82.
Berndt, E.R. (1991): "The Practice of Econometrics: Classic and Contemporary",
Addison-Wesley.
Betancourt, R., Kelejian, H. (1981): "Lagged Endogenous Variables and Cochrane-Orcut! Procedure", Econometrica 49 (4), 1073-1078.
Blackburn, M., Neumark, D. (1992): "Unobserved Ability, Efficiency Wages, and
Interindustry Wage Differentials", Quarterly Journal of Economics 107 (4), 14211436.
meymller, J., Gehlert, G. (2003): "Statistische Formeln, Tabellen und Programme l\ 10. Auflage, Vahlen, Mnchen.
meymller, J., Gehlert, G., Gllcher, H. (2004): "Statistik fr Wirtschaftswissenschaftler", 14. Auflage, Vahlen, Mnchen.
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6, Springer Fachmedien Wiesbaden 2015

Literaturverzeichnis

750

Bodie, Z., Kane, A., Marcus, A. J. (2005): "Investments", 6. Auflage, McGraw-Hill.


Bollerslev, T. (1986): "Generalized Autoregressive Conditional Heteroskedasticity",
Journal of Econometrics 31 (3), 307-327.
Bound, J., Jaeger, D.A., Baker, R.M. (1995): "Problems with Instrumental Variables Estimation when the Correlation between the Instruments and Endogenous Explanatory Variable is Weak", Journal of the American Statistical Association 90 (430), 443-450.
Box, G.E.P., Plerce, D.A. (1970): "Distribution of Residual Autocorrelations in
Autoregressive Integrated Moving Average Time Series Models", Journal of the
American Statistical Association 65 (332), 1509-1526.
Breusch, T., Pagan, A. (1979): "A Simple Test for Heteroscedasticity and Randorn

Coefficient Variation", Econometrica 47 (5), 1287-1294.


Breusch, T.S. (1978): "Testing for Autocorrelation in Dynamic Unear Models",

Australian Economic Papers 17 (31), 334-355.


Brown, R., Durbln, J., Evans, J. (1975): "Techniques for Testing the Constancy of
Regression Relationships over Time", Journal of the Royal Statistical Society,
B37, 149-63.
Bnlng, H., Trenkler, G. (1998): "Nicbtparametrische statistische Methoden", 2.
Auflage, Gruyter, Berlin.
Campbell, J.Y. (2003): "Consumption-Based Asset Pricing", in: Constantinides,
G .M., Harris, M., Stulz, R.M. (Hrsg.), Handbook of the Economics of Finance. Elsevier, Amsterdam, 803-887.
Campbell,J.Y., 1.0, A.W., MacK1n1ay, A.C. (1997): "The Econometrics of Financial
Markets l1 , Princeton University Press, Princeton.
Campbell, J.Y., Perron, P. (1991): "Pitfalls and Opportunities: What Macroeconomists Should Know about Unit Roots", NBER Macroeconomics Annual 6,
141-201.
Caulklns, J.P., Padma n , R. (1993): "Quantity Discounts and Quality Premia for
Illicit Drugs", Journal of the American Statistical Association 88 (423), 748-757.
Chen, W.W., Deo, R.S. (2004): "Power Transformations to Induce Normality and
their Applications", Journal of the Royal Statistical Society B 66 (1), 117-130.
Chow, C. (1960): "Tests of the Equality Between Sets of Coefficients in Two linear
Regressions", Econometrica 28, 591-605.
Cochrane, D., Orcutt, G.H. (1949): "Application of Least Squares Regression to
Relationships Containing Autocorrelated Error Terms", Journal of the American
Statistical Association 44 (245), 32-61.
Davidson, R., MacKlnnon, J. G. (1989): "Testing for Consistency using Artificial
Regressions", Econometric Theory 5 (3), 363-384.
Dickey, D.A., FuDer, W.A. (1979): "Distribution of the Estimators for Autoregressive Time-Series with a Unit Root", Journal of the American Statistical Association 74 (366), 427-431.
Dickey, D.A., FuDer, W.A. (1981): "Likelihood Ratio Statistics for Autoregressive
Time Series with a Unit Roo!", Econometrica 49 (4), 1057-1072.

Lileralurverzeichnis

751

Diebold, F.X. (2004): "Elements of Forecasting", 3. Auflage, South-Western, Cincinnati.

Dpke,J. (2004): "Zur Qualitt von Konjunkturprognosen", WiSt, Heft 1, Januar, 813.
Dougherty, C. (1992): "Introduction to Econometrics", Oxford University Press,
Oxford.
Durbiu, J., Watson, G.S. (1951): "Testing for Serial Correlation in Least-Squares
Regression, 11", Biometrika 38 0-2), 159-178.
Elton, EJ., Gruber, MJ., Brown, SJ., Goetzmann, W.N. (2007): "Modem Portfolio Theory and Investment Analysis", Wiley & Sons, New York.
Enders, W. (2004): "Applied Econometric Time Series", 2. Auflage, Wiley & Sons,
Hoboken.
Engle, R.F. (1982): "Autoregressive Conditional Heteroskedasticity of the Variance
of U.K. Inflation", Econometrica 50 (4), 987-1008.
Engle, R.F. (1983): "Estimates of the Variance of U.S. Inflation based on the ARCH
Model", Journal of Money, Credit and Banking 15 (3), 286-301.
Engle, R.F. (2002a): "Dynamic Conditional Correlation: A Simple Class of Multivariate Generalized Autoregressive Conditional Heteroskedasticity Models",
Journal of Business and Economic Statistics 20 (3), 339-350.
Engle, R.F. (2002b): "New Frontiers for ARCH Models", Journal of Applied Econometrics 17 (5)' 425-446.
Engle, R.F., Granger, C.WJ. (1987): "Co-Integration and Error Correction: Representation, Estimation and Testing", Econometrica 55 (2), 251-276.
Evans, M., Hastiugs, N., Peacock, B. (2000): "Statistical Distributions", 3. Auflage,

Wiley-Interscience, New York.


Fahnneir, L., Knstler, R., Pigeot, L,Tutz, G. (2007): "Statistik - Der Weg zur
Datenanalyse", 6. Auflage, Springer, Berlin, Heidelberg.
Fama, E.F., Frencb, K.R. (1993): "Common Risk Factors in the Returns on Stocks
and Bonds", Journal of Financial Economies 33 0), 3-56.
Fama, E.F., French, K.R. (2004): "The Capital Asset Pricing Model: Theory and
Evidence", Journal of Economic Perspectives 18 (3), 25-46.
Farebrother, R.W. (1980): "The Durbin-Watson Test for Serial Correlation When
There Is No Intercept in the Regression", Econometrica 48, 1553-1563.
Fe1dsteiu, M. (1971): "The Error of Forecast in Econometric Models When the
Forecast-Period Exogenous Variables are Stochastic", Econometrica, 39, 55-60.
Frenke1, M., Funke, K., Koske, I. (2003a): "Zeitreihenanalyse - Teil 1: Stationaritt
und Integration", WiSt, Heft 9, September, 545-550.
Frenke1, M., Funke, K., Koske, I. (2003b): "Zeitreihenanalyse - Teil 2: Kointegration und Fehlerkorrekturrnodelle", WiSt, Heft 12, Dezember, 735-740.
Fuller, W.A. (1976): "Introduction to Statistical Time Series", Wiley & Sons, New
York.

Literaturverzeichnis

752

Glosten, L.R., Jagannathan, R., Runkle, D.E. (199;J): "On the Relationship between the Expected Value and the Volatility of the Nominal Excess Return on
Stocks", Journal of Finance 48 (5), 1779-180l.

Godfrey, L.G. (1978): "Testing for Multiplicative Heteroscedasticity", Journal of


Economettics 8 (2), 227-236.
Godfrey, L.G. (1978): "Testing Against General Autoregressive and Moving Average Error Models When the Regressors include Lagged Dependent Variables",
Economettica 46 (6), 1293-1302.
Grgens, E., Ruckriegel, K., Seitz, F. (2008): "Europiscbe Geldpolitik: Theorie,
Empirie, Praxis", 5. Auflage, Ludus & Ludus, Stuttgart.

Goldfeld, S.M., Quandt, R.E. (1972): "Nonlinear Methods in Econometrics", NorthHolland, Amsterdam, London.
Granger, C.WJ., Newbold, P. (1974): "Spurious Regressions in Economettics",
Journal of Economettics 2 (2), 111-120.
Greene, W.H. (2008): "Econometric Analysis", 6. Auflage, Pearson, Upper Saddle
River.
Gujarati, D.N. (200;J): "Basic Economettics", 14. Auflage, McGraw-Hill.
Hamllton, J.D. (1999): "Time Series Analysis", Princeton University Press, Princeton.
Hausen, P.R., Lunde, A. (2005): "A Forecast Comparison of Volatility Models:
Does Anything Beat GARCH(1,l)?", Journal of Applied Economettics 20 (7), 873889.
Hauson, G.H., Spillmbergo, A. (1999): "Illegal Immigration, Border Enforcement,
and Relative Wages: Evidence from Apprehensions at the U.S.-Mexico Border",
American Economic Review 89 (5), 1337-1357.
Harrls, R. (1995): "Using Cointegration Analysis in Econometrics Modelling",
Prentice Hall & Harvester Wheatsheaf.
Hartung, J., Elpe1t, B., Klsener, K.-H. (2005): "Statistik - Lehr- und Handbuch
der angewandten Statistik", 14. Auflage, Oldenbourg, Mnchen, Wien.
Hausman, J. (1978): "Specification Tests in Economettics", Econometrica 46 (6),
1251-1271.
Hendry, D.F. (1980): "Econometrics - Alchemy or Science?", Economica 47 (188),
387-406.

HilI, R.C., Griffiths, W.E., Judge, G.G. (2001): "Undergraduate Economettics",


2. Auflage, Wiley & Sons, New York.
Hochstdter, D., Kaiser, U. (1988): "Varianz- und Kovarianzanalyse" , Harry
Deutsch, Frankfurt am Main.
Hogg, R.V., McKean, J.W., Craig, A.T. (1965): "Introduction to Mathematical
Statistics", 6. Auflage, Macmillan, New York.
Jarque, C.M., Bem, A.K. (1987): "A Test for Normality of Observations and Regression Residuals", International Statistical Review 55 (2), 163-172.

Literaturverzeichnis

753

Jensen, M. (1967): "The Perlonnance of Mutual Funds in the Period 1945-1964",


Journal of Finance 23 (2), 389-416.
Jevons, w.s. (1975): "Influence of the Sun-Spot Period on the Price of Corn",
Nature.
Jevons, W.S. (1978): "Commercial Crises and Sun-Spots", Nature 19 (472), 33-37.
Johansen, S. (1991): "Estimation and Hypothesis Testing of Cointegration Vectors
in Gaussian Vector Autoregressive Models", Econometrica 59 (6), 1551-1580.
Johansen, S. (1995): "Ukelihood-based Inference in Cointegrated Vector Autoregressive Models", Oxford Urtiversity Press, Oxford.
JOhnson, N.L, Kotz, S., BaIakrlshnan, N. (1993): "Continuous Univariate
Distributions - Volume 1", Wiley-Interscience, New York.
JOhnson, N.L, Kotz, S., BaIakrlshnan, N. (1994): "Continuous Univariate
Distributions -Volume 2", Wiley-Interscience, New York.
JOhnson, N.L, Kotz, S., Kemp, A.W. (1993): "Univariate Discrete Distributions,
Wiley-Interscience, New York.
Johnston,J., Dlnardo,J. (1997): "Econometric Methods", 4. Auflage, McGraw-Hill,
NewYork.
Judge, G.G., Hl, R.C., Grlffiths, W.E., Ltkepohl, H., Lee, T.-C. (1985): "Introduction to the Theory and Practice of Econometrics", 2. Auflage, Wiley & Sons,
New York.
Kauji, G.K. (2006): "100 Statistical Tests", 3. Auflage, SAGE Publications, London.
Kadis, D., Xekalaki, E. (2000): "A Simulation Comparison of Several Procedures
for testing the Poisson Assumption", The Statistician 49 (3), 355-382.
Kennedy, P. (2003): "A Guide to Econometrics", 5. Auflage, MIT Press, Cambridge.
Kleinbaum, D.G., Kupper, L.L, Mller, K.E. (1998): "Applied Regression Analysis
and other Multivariate Methods", 2. Auflage, PWS-Kent, Boston.
Kllen, L.R. (1962): "An Introduction to Econometrics", Prentice-Hall, New York.
Koenker, R. (1981): "A Note on Studentizing a Test for Heteroscedasticity," Journal
of Econometrics 17 (1), 107-112.
Koyck, L.M. (1954): "Distributed Lags and Investment Analysis", North-Holland,
Amsterdam.
lintner, J. (1965): "The Valuation of Risk Assets and the Selection of Risky Investments in Stock Portfolios and Capital Budgets", Review of Economies and
Statistics 47 (1), 13-37.
Ljung, G.M., Box, G.E.P. (1978): "On a Measure of Lack of Fit in Time Series
Models", Biometrica 66, 66-72.
MacKJnnon, J., White, H., Davidson, R. (1983): "Tests for Model Specification in
the Presence of Alternative Hypotheses - Some Further Results", Journal of
Econometrics 21 (1), 53-70.
MacKJnnon, J.G. (1991): "Critical Values of Cointegration Tests", in Egle, R.,
Granger, C.W.J. (1991): "Long-Run Economic Relationsrups: Readings in Cointegration" , Oxford Urtiversity Press, Oxford.

754

Literaturverzeichnis

Malinvaud, E. (1970): "Statistical Methods of Econometrics", North Holland, Amsterdam.


Markowitz, H. (1952): "Portfolio Selection", Journal of Finance 7 (1), 77-91.
Markowitz, H. (1959): "Portfolio Selection: Efficient Diversification of Investments",
Wiley & Sons, New York.
Marsaglla, G., Tsang, W., Wang, J. (2003): "Evaluating Kolmogorov' s Distribution", Journal of Statistical Software 8 (18).
Massey, F. J. (1951): "The Kolmogorov-Smirnov Test for Goodness of Fit", Journal
of the American Statistical Association 46 (253), 68-78.

Mickey, R.M., Dunn, OJ., Clark, V.A. (2004): "Applied Statistics: Analysis of
Variance and Regression", 3. Auflage, Wiley-Interscience, New York.

Milhltl, A. (1985): "The Moment Structure of ARCH Processes" , Scandinavian


Journal of Statistics 12 (4), 281-292.
Miller, L H. (1956): "Table of Percentage Points of Kolmogorov Statistics", Journal
of the American Statistical Association 51 (273), 111-121.
Mossin, J. (1966): "Equilibrium in a Capital Asset Market", Econometrica 34 (4),
768-783.
NeJson, D.B. (1991): "Conditional Heteroskedasticity in Asset Returns: A New
Approach", Econometrica 59 (2), 347-370.
NeJson, C.R., Plosser, C.!. (1982): "Trends and Random Walks in Macroeconomic
Time Series: Some Evidence and Implication", Journal of Monetaty Economics
10, 169-182.
Newey, W.K., West, K.D. (1987): "A Simple, Positive Semi-Defmite Heteroskedasticity and Autocorrelation Consistent Covariance Matrix", Econometrica 55
(3), 703-708.
Noether, G.E. (1971): "Introduction to Statistics - A Fresh Approach", Houghton
Mifflin, Boston.
Pianzagl, J. (1991): "Elementare Wahrscheinlichkeitsrechnung", 2. Auflage, de
Gruyter, Berlin, New York.

Phillips, P.C.B., Ouliaris, S. (1990): "Asymptotic Properties of Residual Based


Tests for Cointegration", Econometrica 58 (1), 165-193.
Pindyck, R.S., RubInfeld, D.L. (1998): "Econometric Models and Economic Forecasts", 4. Auflage, McGraw-Hill, Singapur.
Ramsey, J.B. (1969): "Tests for Specification Errors in Classical Linear LeastSquares Regression Analysis", Journal of the Royal Statistical Society B 31 (2),
350-371.
Rao, P., Miller, R.L. (1971): "Applied Econometrics", Wadsworth, Belmont.

Rau-Bredow, H. (2002): "Kreditrisikomodelle und Diversifikation", Zeitschrift fr


Bankrecht und Bankwirtschaft, 14. Jahrgang, 9-17.
Rolfes, B. (2008): "Gesamtbanksteuerung - Risiken ertragsorientiert steuern",
2. Auflage, Schffer-Poeschel, Stuttgart.

Literaturverzeichnis

755

Roll, R. (1997): "A Critique of the Asset Pricing Theory's Tests' Part I: On Past and
Potential Testability of the Theory", Journal of Financial Economies 4 (2), 129176.
Rottmann, H., Franz, T. (2007): "Die Performance deutscher Aktienfonds - Lassen
sich Selektions- und Timingfahigkeiten nachweisen?", WiSt, Heft 1, Januar, 1624.
Rottmann, H., Franz, T. (2008): "Die Performance deutscher Aktienfonds", Weidener Diskussionspapiere Nr. 5.
Rottmann, H., Auer, BoR. (2011): "GMM-Schtzung und konsumbasierte Kapitalmarktmodelle", WiSt, erscheint demnchst.

Sargan, J.D. (1964): "Wages and Prices in the United Kingdom: A Study in
Econometric Methodology", in Hart, P.E., Mills, G., Whitaker, J.K. (Hrsg.):
"Econometric Analysis fr National Economic Planing l1 , Butterworths, London.

Sargan, J.D. (1984): "Wages and Prices in the United Kingdom: A Study in Econometric Methodology", in Wallis, K.F., Hendry, D.F.: "Quantitative Economies and
Econometric Analysis", Oxford.
Savin, N.E., White, KJ. (1977): "The Durbin-Watson Test for Serial Correlation
with Extreme Sampie Sizes or Many Regressors", Econometrica 45 (8), 19891996.
Scheffe, H. (1970): "Practical Solutions of the Behrens-Fisher Problem", Journal of
the American Statistical Association 65 (332), 1501-1509.
Schlingen, R. (2003): "Einfhrung in die Statistik", 10. Auflage, Oldenbourg,
Mnchen, Wien.

Schmid, F., Trede, M. (2005): "Finanzmarktstatistik", Springer, Berlin, Heidelberg.


Schwarz, G. (1978): "Estimating the Dimension of a Model", The Annals of Statistics 6 (2), 461-464.
Sharpe, W. (1964): "Capital Asset Prices: A Theory of Market Equilibrium under
Conditions of Risk", Journal of Finance 19 (3), 425-442.
Stephens, M. A. (1970): "Use of the Kolmogorov-Smimov, Crarner-Von Mises and
Related Statistics Without Extensive Tables", Journal of the Royal Statistical Society B 32 (l), 115-122.
Stock, J.H., Watson, M.W. (1993): "A Simple Estimator of Cointegrating Vectors in
Higher Order Integrated Systems", Econometrica 61 (4), 783-820.
Stock, J.H., Watson, M.W. (2003): "Introduction to Econometrics", Addison Wesley, Boston.
Studenmund, A. H. (2007): "Using Econometrics - A Practical Guide", 5. Auflage,
Addison Wesley, Boston.
Thell, H. (1966): "Applied Economic Forecasting", North-Holland, Amsterdam.
Thursby J.G. (1982): "A Test Strategy for Discriminating between Autocorrelation
and Misspecification in Regression Analysis: Reply", Review of Economies and
Statistics 67 0),177-178.

756

Literaturverzeichnis

Treynor, J.L, Mazuy, KoKo (1966): "Can Mutual Funds Outguess the Market?",
Harvard Business Review 44, 131-136.
Tsay, R.S. (200S): "Analysis of Financial Time Series", 2. Auflage, Wiley & Sons,
Hoboken.
von Auer, L (2007): "konometrie - Eine Einfhrung", 4. Auflage, Springer, Heidelberg.
We1ch, B.L. (1936): "The Specification of Rules for Rejecting Too Variable A Product, with Particular Reference to An Electric Lamp Problem", Supplement CO the
Journal of the Royal Statistical Society 3 (1), 29-48.
We1ch, BoL (1938): "The Significance of the Difference Between Two Means When
the Population Variances Are Unequal", Biometrica 29 (3/4), 350-362.

White, H. (1980): "A Heteroskedasticity-Consistent Covariance Matrix Estimator


and a Direct Test for Heteroskedasticity", Econometrica 148 (4), 817-838.
Wolters, J., Hassler, U. (2006): "Unit Root Testing", Allgemeines Statistisches
Archiv 90, 43-58.
Wooldrldge, J.M. (2002): "Econometric Analysis of Cross Seetion and Panel Data,
MIT Press.
Wooldridge, J.M. (2007): "Introductory Econometrics - A Modem Approach", 4.
Auflage, South-Western.
Yule, G.U. (1926): "Why Do We Sometimes Get Nonsense Correlations Between
Time Series?", Journal of the Royal Statistical Society 89 (1), 1-63.
Zfel, P. (1992): "Univariate Varianzanalysen", Gustav Fischer, Stuttgart.

Stichwortverzeichnis
Ablehnungsbereich ..................................... 360
Abweichung
-, mittlere absolute .................................. 47
-, miniere quadratische .......................... .49
Additionssatz ............................................... 159
ADF-Test ......................................................601
Aggregatfonn ..................................... 116, 118
Akaike-Infonnationskriterium .................. .488
Aktienindex, deutscher .............................. 134

Annualisierung ............................................. .58


ANOVA ....................................................... .473
Approximation .................. 259, 261, 263, 270,
286,287,288,289,292
AR(n-Prozess ..................................... 542, 581
AR(s)-Prozess ..................................... 547, 582
ARCH-Bedingungen ...................................618
ARCH-Modell ..............................................617
atithmetisches Mittel... .................................. 35
-, bedingtes ..............................................88
-, gewogenes ............................................ 36
Ausreier .............................................. 32, 453
Autokorrelation ......... .452, 542, 585, 653, 655
-, negative ..............................................545
-, positive ....................................... 545, 554
Autokorrelationsfunktion .................. 544, 597

Autokorrelationskoefftzient ...................... .543


Autokovatianz ............................................ .543

BLUE ........................................................... 460


Box-Whisker-Plot ......................................... 61
Breusch-Godfrey LM-Test ................. 555, 585
Breusch-Pagan LM-Test ............................. 531
BUE ............................................................. 461

Capiral Asset Pricing Mode!... ................... 635


Chi-QuadratAnpassungstest ...................................... 390
Homogenittstest ................................... 401

Koeffizient .............................................. 104


Unabhngigkeitstest .............................. 396
Verteilung ....................................... 280, 323
Chow-Test .................................................. 475
Cochrane-Orcutt-Methode ........................ 559
Deflation ..................................................... 120
DeziI .............................................................. 28
Dichte, bedingte ........................................ 241
Dichtefunktion ........................................... 203
-, gemeinsame ....................................... 241

Dickey-FulIer-Test ...................................... 598


Differenz ..................................................... 155
-, erste .................................................... 522
Differenzentest ........................................... 380
Differenzstationaritt ................................. 590
Disinflation ................................................. 120

Dummy
Bartlett-Test ................................................. 582
Basiswert ..................................................... 111
Basiszeit ....................................................... 111

Baumdiagramm...........................................180
Behrens-Fisher-Problem .............................374
Bereichshypothese .................................... .354
Berichtszeit .................................................. 111
Bemoulli-Experiment .................................247
Besrandsgleichung ......................................... .5
Besrandsgte ............................................... .5
Bestinuntheitsma ..................... 433, 472, 537
-, angepasstes ........................................ .437
Bindung ....................................................... 101
BinomialkoefflZient ....................................170

Binomialverteilung ............ 249, 259, 261, 287

-, Achsenabschnitts-.............................. 501
-, saisonaler ........................................... 505

-, Steigungs- .......................................... 507


Durbin-Watson d-Test... .................... 553, 593
Durchschnitt ............................................... 154
-, einfacher g1eitender. ......................... 614
-, exponentiell gewichteter gleitender 614
Durchschnittsrendite

-, arithmetische ....................................... 41
-, geometrische ....................................... 41
EffIZienz ...................................................... 330
Einstichprobentest ..................................... 357
fr den Anteilswert ............................... 358
fr den Mittelwert .................................. 365

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6, Springer Fachmedien Wiesbaden 2015

Slichwortverzeichnis

758
fr die Varianz ....................................... 370
Elementarereignis ...................................... 149
Endlichkeitskorrektur. ............... 257, 318, 322
Ereignis ....................................................... 151
-, quivalentes ....................................... 153
-, disjunktes ........................................... 154
-, komplementres ................................ 155
-, sicheres .............................................. 153
-, unmgliches ...................................... 153
Ereignisraum .............................................. 149
Ergebnismenge .......................................... 149
Ergebnisraum ............................................. 149
Erwartungstreue ......................................... 328
Erwartungswert .................. 207, 234, 239, 241
-, bedingter ............................ 235, 441, 447
EViews ................................................ 431, 465
Exponentialindex ......................................... 69
Exponentialverteilung ....................... 266, 336
Fakultt ....................................................... 169
Fehler

1. Art ....................................................... 354


2. Art ....................................................... 355
-, mittlerer .............................................. 649
-, mittlerer absoluter ............................. 650
-, mittlerer quadratischer .............. 332,650
Fehlerkorrekturmodell .............................. 607
Fehlervarianz .............................................. 650
FGLS-Schtzung ......................................... 559
Fisherscher Idealindex .............................. 119
fit ................................................................ 432
Formel von Bayes ...................................... 187
Fraktil ............................................................ 28
F-Test .......................................................... 471
-, Zweistichproben- .............................. 377
funktionale Form

-, Doppel-Log- ...................................... 495


-, inverse ................................................ 499

-, lineare ................................................ 494


-, linksseitige Semi-Log- ....................... 497
-, Polynom- ........................................... 498

Gautest
-, approximativer .......................... 358,

366

-, Einstichproben- ......................... 366, 385


-, Zweistichproben- ...................... 374, 376
Gegenhypothese ........................................ 354
geometrische Verteilung ........................... 268
geometrisches Mittel .................................... 38
Gesetz der groen Zahlen ........ 165, 316, 320
Gini-Koeffizient ............................................ 73
-, normierter ............................................ 73
-, diskrete ............................................... 264
-, stetige ................................................. 263
GLS-Schtzung ................................... 558, 586
Grundgesamtheit.. .......................................... 4
-, hypothetische ........................................ 5
-, reale ........................................................ 5
Gtefunktion .............................................. 385
Hufigkeit
-, absolute ................................................ 14
-, bedingte ............................................... 86
-, gemeinsame absolute ......................... 82
-, gemeinsame relative ........................... 82
-, kumulierte ............................................ 18
-, kumulierte gemeinsame ..................... 83
-, relative .................................................. 14
Hufigkeitsdichte ......................................... 23
Hufigkeitspolygon ...................................... 16
Hufigkeitstabelle ........................................ 14
-, klassierte .............................................. 22
Hufigkeitsverteilung
-, eindinlensionale .................................. 14
-, klassierte .............................................. 22
-, zweidinlensionale ................................ 82
Hausman-Test. ............................................ 574
Herfindahl-Index .......................................... 68
Heteroskedastizitt ............................. 451,524
Hilfsregression ............................................ 515
Histogramm .................................................. 23
Homoskedastizitt... ........................... 404, 450
Hypergeometrische Verteilung .255, 263, 288

-, rechtsseitige Semi-Log- ..................... 496

F-Verteilung ........................................ 283,326


FWLS-Schtzung......................................... 539
GARCH-Bedingungen ............................... 624
GARCH-in-mean-Modell ........................... 628
GARCH-Modell .......................................... 624
Gau-Markov-Theorem ............................. 460

IdentifIkation .............................................. 571


Index ........................................................... 114
Inllation ....................................................... 120
Inllationsbereinigung ................................. 122
Instrument .................................................. 568
Instrumentenvariablenschtzer ................. 568
Instrumentenvariablenschtzung .............. 586

Slichwortverzeichnis
Integration ................................................... 592
Interaktionsvariable ................................... 507
Intervallschtzung .......................................339
Intervallskala ...................................................7
Irrtumswahrscheinlichkeit ..........................339
Jarque-Bera-Test ........................................ .477
Jensen-Alpha ...............................................639
Jensensche Ungleichung ............................ 212
Kardinalskala ...................................................8
Kaufkraftvergleich ......................................123
Kausalitt.. .................................................. .108
Klasse ............................................................. 21
Klassenbreite ................................................. 21
Klassenhufigkeit .......................................... 21
Klassenmitte .................................................. 22
Klassenobergrenze ....................................... 21
Klassenuntergrenze ...................................... 21
Klassierung .................................................... 10

Kointegration ..............................................604
Kointegrationstest .......................................604
Kollinearitl... ............................................ ..454
Kombinatorik ..............................................169
Komplement.. .............................................155
Konfidenzintervall ..................................... .339
fr den Anteilswert ............... 347, 351, 362
fr den Mittelwert ......... 342, 344, 345, 350
fr die Varianz ............................... 348,351
fr einen Regressionsparameter .......... .469
Konfidenzniveau .........................................339
Konsistenz ................................................... 331
Kontingenzkoef'fizient.. .............................. l05
Kontingenztabelle ......................................... 82
-, hypothetische .....................................104
Kontingenztest... .........................................396
Konzentration ...............................................65

-, absolute ................................................ 66
-, relative ..................................................70
Konzentrationsflche .................................... 73
Konzentrationsrate ....................................... 66

Korrelation ........................................... 92, 421


KorrelationskoefflZienl... ..... 94, 237, 383, 435
Korrelationstest ...........................................383

Korrelogramm .................................... 544, 584


Kovarianz ..................................... 92, 236, 241
Koyck-Transformation ............................... .581
Kreissektorendiagramm ............................... 16
Kreuzkorrelation ........................................... 99

759
kritischer Anteilswert ................................. 362
kritischer Wert ............................................ 360
Lageparameter .............................................. 31
Langfristbeziehung .................................... 607
Laplace-Experiment ................................... 162
Leptokurtosis .............................................. 613
Leverage-Effekt .......................................... 613
Ujung-Box-Statistik .................................... 583
Linearkombination ............................. l07,239
LognormalverteUung ................................. 278
Lorenz-Kurve ................................................ 70
Mchtigkeit ................................................. 150
Mazahl ........................................................ 31
Maximum-Likelihood-Methode ................ 334
Mean Reverting .......................................... 611
Median .................................................. 34, 220
Mengenindex

nach Laspeyres ...................................... 127


nach Paasche ......................................... 128

Merkmal... ....................................................... 4
-, diskretes ............................................... 10
-, qualitatives ........................................... 11
-, quantitatives ......................................... 11
-, quasistetiges ......................................... 10
-, stetiges ................................................. 10

Merkmalsausprgung .................................... 4
Merkmalstrger .............................................. 4
Messfehler .................................................. 565
Messzahl ..................................................... 111
Methode der kleinsten Quadrate ..... 333, 422
-, gewichtete .......................................... 536
-, verallgemeinerte ................................ 557
-, zweistufige ......................................... 570

Modalklasse .................................................. 33
Modell
-, autoregressives .................................. 581

-,
-,
-,
-,

distributives Lag- ............................... 491


dynantisches ...................................... 490
einfaches Lag-.................................... 490
Mehrgleichungs-................................ 567

-, simultanes .......................................... 567


-, statisches ............................................ 490

Modus ........................................................... 32
Moment.. ............................................... 63, 218
Momentenmethode ................................... 337
MultikoUinearitt ........................................ 454
-, unvollkommene ................................ 512

760
-, vollkommene ..................................... 511
Multiplikationssatz ..................... 179, 182, 238

Neubasierung ............................................. 126


Newey-West Standardfehler ..................... 561
Nichtablehnungsbereich ........................... 360
Nominalskala .................................................. 6
Normalgleichung ....................................... 424
Normalittstest ............................................ 395
Normalverteilung .............. 270, 317, 318, 321,
322,324,325,337
NuUhypothese ............................................ 354
OLS-Schtzung ........................................... 424
-, restringierte ........................................ 521
Operationscharakteristik ................... 252, 386
Ordinalskala ................................................... 7
Parameterhypothese .................................. 354
Parameterlinearitt... .......................... 430, 447
Pennutation ................................................ 173
Perzentil ........................................................ 28
Piktogramm .................................................. 16
Poissonverteilung ....................... 259, 289, 335
Portfoliorendite

-, Erwartungswert der ........................... 242


-, Varisnz der ........................................ 242
Preisindex

nach Drobisch ....................................... 118


nach Laspeyres ...................................... 116
nach Paasche ......................................... 117
Prognose
-, bedingte ............................................. 644
-, ex ante ............................................... 644
-, ex post ............................................... 644
-, in-sample- .......................................... 643
-, lntervaU- ..................................... 643, 648
-, out-of-sample- ................................... 644
-, Punkt-......................................... 643, 648
-, Trend-................................................. 656
-, unbedingte ................................. 645, 658
Prognosefehler ................................... 644, 646
Prognosegte ............................................. 649
Prfplan, statistischer ................................ 252
Punkthypothese ......................................... 354
Punktschtzung .......................................... 312
p-Wert ......................................................... 468
Q-Statistik ........................................... 583, 623

Slichwortverzeichnis
Qualittskontrolle, statistische .................. 369
QuantifIzierung ............................................ 11
Quantil .......................................... 28, 221, 276
Quantilsverhltrtis ........................................ 61
Quartil ........................................................... 28
Quartilsabstand ............................................ 46
Quartilskoeffizient ........................................ 61
Querschnirtsdaten ........................................ 99
Querschrtirtsregression ............. .426, 435, 526
Quotenauswahl .......................................... 312
Rarnsey RESET ............................................ 486
Randdichte .................................................. 241
RandhufIgkeit ............................................. 85
Random Walk
mit Drift .......................................... 588, 590
ohne Drift ....................................... 587, 590
Randverteilung ..................................... 85, 230
Rang ............................................................ 101
Rangkorrelationskoefftzient .............. 101, 384
Rangskala ........................................................ 7
Rating-Skala .................................................... 7
Realisation .................................................. 194
Referenzkategorie ...................................... 502
Regressand .................................................. 421
Regression
-, einfache .............................................. 423
-, multiple .............................................. 430
Regressionsfunktion
der Grundgesamtheit ............................ 441
der Stichprobe ....................................... 444
Regressionsgerade ..................................... 423
Regressionskoefflzient ....................... 423, 441
Regressionskonstante ........................ 423, 492
Regressionsmodell
-, einfaches lineares .............................. 441
-, klassisches lineares ........................... 447
-, multiples ............................................. 444
Regressionsparameter ........................ 423, 441
Regressor .................................................... 421
-, detenninistischer ............................... 455
-, stochastischer..................................... 455
Rekursionsfonnel ....................................... 615
Rendite ........................................................ 223
-, diskrete ................................................. 40
-, stetige ................................................... 41
Reproduktivittseigenschaft ............. 252, 261,
277, 281
Residuum .................................................... 423

Slichwortverzeichnis
Risiko ............................................................ .56
Roulette .......................................................224
Sargan-Test ................................................. .577
Satz der totalen Wahrscheinlichkeit ..........185
Sulendiagramm ........................................... 16
Schtzer .......................................................313
Schtzfehler ................................................. 328
Schtzintervall ............................................. 339
Schtzung .................................................... 313
Scheinkorrelation ............................... 109, 586
Scheinregression ................................ 586, 593
Schiefe ......................................................... 218
SchiefekoefflZient ......................................... 63
Schiefequarti1skoefflZient.. ........................... 65
Schwarz-Kriterium ..................................... .488

Semi-Volatilltt... .......................................... .57


Signifikanzniveau ........................................355

Simultanitt .................................................. 567


Skala ................................................................6
Skalenertrge, Test auf konstante ............ .474

Spannweite ................................................... .45


Stabdiagramm ............................................... 16
Standardabweichung ........................... 49,214
Standardfehler
der Regression ....................................... .458
des GLS-Schtzers ................................. .457
-, robuster ...................................... 540, 561
Standardisierung .................................. 54, 217
Standardnorrnalverteilung .......................... 273
Stationaritt ......................................... 542, 586
Statistik
-, deskriptive .............................................. 3
-, induktive ................................................. 3

Steigungsparameter ................................... .423


Stetigkeitskorrektur ............ 287, 289, 321, 393
Stichprobe
-, abhngige ...........................................379
-, einfache ..............................................312
-, unabhngige .............................. 357, 379
-, unverbundene .................................... 379
-, verbundene ............................... 357, 379
Stichprobenanteilswert ...................... 313, 320
Stichprobenergebnis .................................. .312
Stichprobenerhebung .................................... .4
Stichprobenmittel... .................... 313, 315, 329
Stichprobenumfang ........................... 312, 350
Stichprobenvariable ....................................312
Stichprobenvarianz .................... 313, 323, 329

761
-, externe ............................................... 404
-, interne ................................................ 404

Stichprobenverteilung ............................... 313


Strterrn ...................................................... 441
Streudiagramm ............................................. 81
Streuungsparameter ..................................... 45
Streuungszerlegung ............................. 56, 404
Stromgre ..................................................... 5
Studentverteilung ....................................... 282
Sttzbereich ................................................ 643
Summenhufigkeit ....................................... 18
Summenpolygon .................................... 26, 30
Teilereignis ................................................. 153
Teilerhebung .................................................. 4
Test.............................................................. 353
-, einseitiger........................................... 354
-, idealer ................................................ 386
-, linksseitiger ........................................ 354
-, rechtsseitiger.. .................................... 354

-, robuster .............................................. 405


-, unverflschter .................................... 386
-, verteilungsfreier. ................................ 392
-, zweiseitiger ........................................ 354
Teststatistik ................................................. 356
T-GARCH-Modell ....................................... 630
Theilscher UngleichheitskoefflZient... ...... 651
Totalerhebung ................................................ 4
Transformation
-, lineare ......... 9, 37, 48, 53, 106, 210, 215
-, proportionale ......................................... 9
-, skalenerhaltende ................................... 8
-, skalensenkende ..................................... 9
-, streng monotone ................................... 8

Transformationseigenschaft ...................... 274


Trend .......................................................... 109
-, deterministischer ............................... 590
-, stochastischer .................................... 590
Trendstationaritt ....................................... 591
Treynor-Mazuy-Ansatz .............................. 640
t-Test.. ......................................... 366, 463, 468
t-Verteilung ......................................... 282, 317
Umbasierung ...................................... 113, 125
Unabhngigkeit
-, statistische ............................................ 89
-, stochastische ...... 182, 233, 236, 238, 239
Ungleichung von Tschebyscheff .............. 221
Unit Root .................................................... 590

Slichwortverzeichnis

762
Urliste ...................................................... 13, 81
Umenmodell ...................................... 169, 311

Wachstumsfaktor.......................................... 39
Wachstumsrate ............................................. 39

Wahrscheinlichkeit .................................... 157


Variable
-, abhngige .......................................... 421
-, deterministische ................................ 564
-, endogene .......................... .421, 450, 567
-, erklrende .......................................... 421
-, erklrte ............................................... 421
-, exogene ............................ .421, 449, 567
-, redundante ........................................ 519
-, stochastische ...................................... 564

-, a-posteriori-........................................ l88
-, a-priori- .............................................. 188

-, berflssige ....................................... 485

-, bedingte ............................................. 178


-, totale ................................................... 185
Wahrscheinlichkeitsaxiome ...................... 158
Wahrscheinlichkeitsdefinition
-, klassische ........................................... 161
-, statistische .......................................... 164
-, subjektive ........................................... 166
Wahrscheinlichkeitsfunktion ..................... 197

-, vemacblssigte ................. .481, 548, 565


-, verzgert endogene .......................... 566

Wahrscheinlichkeitsintervall ..................... 340

-, verzgerte .......................................... 490

Vatisblenlinearitt ...................................... 428


Varianz ........................ ..49, 213, 234, 239, 241
-, bedingte ....................................... 89, 235
-, externe ................................................. 56

-, interne ..................................................

56

-, langfristige ................................. 619, 624


Varianzanalyse ........................................... 404
Variationskoeffizient .................................... 59
Venn-Diagrarnm ......................................... 153
Verbrauche1preisindex .............................. 130
-, hannonisierter ................................... 132

Vereinigung ................................................ 154


Verhltnisskala ............................................... 8
Verknpfung .............................................. 126
Verschiebungssatz ................................. 50,94
Verteilung
-, bedingte ....................................... 87, 231
-,linksschiefe .................................... 27,44
-, multimodiale ........................................ 27

-, rechtsschiefe .................................. 27,44


-, symmetrische ................................. 27, 44
-, unimodiale ........................................... 27

Verteilungsfunktion ........................... 198, 202


-, empirische ..................................... 18, 25
-, gemeinsame ............................... 230, 241
-, gemeinsame empirische ..................... 83

Verteilungshypothese ................................ 353


Verwerfungsbereich .................................. 356
Vierfeldertafel... .......................................... 182
Volatilitt ............................................... 56, 613
Volatility Clustering ................................... 611
Vollerhebung ................................................. 4

-, gemeinsame ....................................... 228


Wahrscheinlichkeitsstze ........................... 158

Warenkorb .................................................. 114


Wechsellcurs ............................................... 123
Weies Rauschen ....................................... 587

Welch-Test .................................................. 374


Wertindex ................................................... 129
Wettquotienten ........................................... 167
White Noise ................................................ 587
White Standardfehler ................................. 540
White-Test ................................................... 533
WLS-Schtzung ........................................... 536
Wlbung ..................................................... 218
Yates-Korrektur .......................................... 393
Zeitreihendaten ............................................ 99
Zeitreihenregression ................. .426, 434, 526
Zentraleigenschaft ................................ 37, 209
Zentraler Grenzwertsatz ................... 270, 285,

317, 318, 321


Zentrierung ................................................... 54
Zerlegung ................................................... 160
Ziehen

mit Zurcklegen ............ 171, 175, 184, 312


ohne Zurcklegen ................. 172, 174, 312
Zufallsauswahl ................................... 169, 311
Zufallsexperiment ...................................... 149
Zufallsstichprobe ........................................ 311
Zufallsvatisble ............................................ 194
-, dichotome .......................................... 247
-, diskrete ....................... 195, 196, 208, 213
-, stetige ......................... 195, 202, 208, 213
-, zweidimensionale .............................. 228
Zufallsvorgang ............................................ 149

Slichwortverzeichnis
Zweistichprobentest... ............... 357, 358, 372
fr Anteilswerte ..................................... .376

763
fr Mittelwerte ....................................... 373

fr Varianzen ......................................... 377

Das könnte Ihnen auch gefallen