Sie sind auf Seite 1von 769

Statistik und konometrie fr

Wirtschaftswissenschaftler

Benjamin Auer Horst Rottmann

Statistik und
konometrie fr
Wirtschaftswissenschaftler
Eine anwendungsorientierte Einfhrung
3., berarbeitete und aktualisierte Auflage

Benjamin Auer
Universitt Leipzig
Leipzig, Deutschland

Horst Rottmann
Ostbayerische Technische Hochschule Amberg
Weiden | ifo Institut fr Wirtschaftsforschung an der Universitt Mnchen
Amberg Weiden und Mnchen, Deutschland

ISBN 978-3-658-06438-9
DOI 10.1007/978-3-658-06439-6

ISBN 978-3-658-06439-6 (eBook)

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;


detaillierte bibliografische Daten sind im Internet ber http://dnb.d-nb.de abrufbar.
Springer Gabler
Springer Fachmedien Wiesbaden 2010, 2012, 2015
Das Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwertung, die nicht ausdrcklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das
gilt insbesondere fr Vervielfltigungen, Bearbeitungen, bersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der
Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wren und daher von jedermann
benutzt werden drften.
Gedruckt auf surefreiem und chlorfrei gebleichtem Papier
Springer Gabler ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer
Science+Business Media.
www.springer-gabler.de

Vorwort
Vorwort zur 3. Auflage
Liebe Leserinnen und Leser,

seit der 1. Auflage erfreut sich unser Lehrbuch unter Studierenden und Dozierenden zunehmender Beliebtheit. Es wird mittlerweile deutschlandweit eingesetzt und
ist nicht nur in wirtschaftswissenschaftlichen Bachelor- und Masterstudiengngen,
sondern auch bei empirisch arbeitenden Promoventen sehr gefragt. Wie uns zahlreiches positives Feedback aus der Leserschaft zeigt, ist dies insbesondere auf den
umfassenden konometrieteil des Buches zurckzufhren, der anders als klassische statistische Grundlagenliteratur mit detaillierten Anwendungsbeispielen solide
Grundlagen fr das wissenschaftliche Arbeiten legt.
Aus diesem Grund haben wir uns in der 3. Auflage dafr entschieden, die bewhrte Konzeption des Buches beizubehalten. Das konometriekapitel wurde vollstndig berarbeitet und erweitert. So werden nun Themen wie Volatilittsmodellierung
mit ARCH- und GARCH-Prozessen, vor- und nachlaufende Konjunktutindikatoren
und die Spezifikation von Zeitreihenmodellen fr Anleihenrenditen behandelt.
Darber hinaus haben wir den Online-Service des Buches ausgebaut. Insbesondere
wurde die Formelsammlung zum Buch aktualisiert und auerdem die Sammlung an
bungsdatenstzen und Excel-Tools vergrert. So fmden Sie nun z.B. auch Tools
zur Abbildung von Autokorrelationsfunktionen fr autoregressive Prozesse und zur
Simulation von Regressionsmodellen mit heteroskedastischen oder autokorrelierten
Strtermen.
Wir danken fr die hilfreichen Kommentare und Verbesserungsvorschlge zu dieser
Auflage Herrn Prof. Dr. Thomas Jost, der uns auch schon ZU den vorherigen Auflagen sehr wertvolle Anregungen gab. Auerdem gilt den Herren Maurice Hoftnann,
Markus Kruse und Robert Vinzelberg fr das abschlieende Korrekturlesen besonderer Dank.
Wir wnschen Ihnen weiterhin viel Erfolg bei der Arbeit mit dem Lehrbuch und
wrden uns bei Fragen, Anregungen und Kritik sehr ber eine kurze E-Mail via
www.statistik-auer-rottmann.de freuen.

Weiden i. d. OPf. und Leipzig,


Juni 2014
Prof. Dr. Horst Rottmann
Dr. Benjamin R. Auer

Vorwort

VI

Vorwort zur 2. Auflage


Liebe Leserinnen und Leser,

wir freuen uns, Ihnen jetzt die 2. Auflage von "Statistik und konometrie fr Wirtschaftswissenschaftler" prsentieren zu drfen. Dozenten betonen uns gegenber
immer wieder, dass die umfassende Perspektive und der anwendungsorientierte
Ansatz mit vielen Beispielen aus der Praxis wesentliche Strken des Buches darstellen. Wir haben daher bei der Neuauflage des Buches die Grundkonzeption beibehalten und uns im Wesentlichen auf eine Korrektur der Fehler, Aktualisierungen
einiger Anwendungen aus der Praxis sowie kleine Ergnzungen inhaltlicher Art beschrnkt. Im Kapitel zur deskriptiven Statistik wurden etwa die Graftken und Berechnungen zu wichtigen Indizes aus der Wirtschaftspraxis und zur Volatilittsmessung auf Wertpapiennrkten auf den aktuellen Stand gebracht. Zustzlich haben
wir die Neuauflage um einen Abschnitt zur Momentenschtzung erweitert.
Weiterhin wurde auch der Online-Service zum Buch ausgebaut. Er umfasst nun
unter anderem auch einen umfangreichen bungsdatensatz mit Zeitreihen zur historischen Entwicklung des deutschen Kapitalmarktes (Aktien- und Rentenmarktindizes, Geldmarktstze, Wechselkurse sowie Preise ausgewhlter Rohstoffe und
Edelmetalle) und der deutschen konomie (Inflationsrate, Geldmengen, Geschftsklimaindizes und klassische Wirtschaftsdaten aus der Volkswirtschaftlichen Gesamtrechnung). Dieser wird regelmig aktualisiert zur Verfgung gestellt und gerne in
Reaktion auf Anregungen aus der Leserschaft erweitert.
Wir danken fr die hilfreichen Kommentare und Verbesserungsvorschlge zu dieser
Auflage Prof. Dr. Thorsten Hock und Prof. Dr. Thomas Jost, der uns auch schon
zur Erstauflage sehr wertvolle Anregungen gab.
Wir wnschen Ihnen weiterhin viel Erfolg bei der Arbeit mit dem Lehrbuch und
wrden uns bei Fragen, Anregungen und Kritik sehr ber eine kurze E-Mail via
www.statistik-auer-rottmann.de freuen.

Weiden i. d. OPf. und Leipzig,


Juli 2011

Prof. Dr. Horst Rottmann


Dipl.-Bw. (FH) Benjamin R. Auer

Vorwort

VII

Vorwort zur 1. Auflage


Liebe Leserinnen und Leser,

mit diesem Werk liegt Ihnen das erste deutsche Lehrbuch vor, das die beiden fr
empirisch arbeitende Wirtschaftswissenscbaftler relevanten Gebiete - die Statistik
und die konometrie - kombiniert und umlassend darstellt. Bei der Aufbereitung
der Themenbereiebe aebten wir besonders auf Klarheit und die Verwendung einer
Vielzahl theoretiseber und empirischer Beispiele. Auf komplizierte Herleitungen
und Beweise verzichten wir bewusst, wenn sie unseres Erachtens nur das Verstndnis erschweren.

Inhalte und Beispiele mit Praxisbezug


Das vorliegende Lehrbuch behandelt die traditionellen Bereiche der deskriptiven
und der induktiven Statistik sowie der Wahrsebeinlichkeitsrechnung. Es unterscheidet sich allerdings von anderen einschlgigen Lehrbchern in der speziellen Darstellungsweise. Jedes Kapitel enthlt zahlreiche Beispiele und bungen, die ausfhrlich erlutert werden und somit die abstrakten Zusammenhnge anschaulich
vertiefen. Sie behandeln auch die Anwendung der statistischen Methoden fr typisebe betriebswirtschaft1iche und sozialwissenschaftHche Problemstellungen.
Umfangreiche Darstellung der Regressionsanalyse
Darber hinaus stellt die Schwerpunktbildung dieses Buches ein entscheidendes
Alleinstellungsmerkmal dar. So bietet es beispielsweise ein Kapitel zur angewandten konometrie (veranschaulicht unter Verwendung der Software EViews 6.0), das
weit ber die in der Masse der Lehrbcher enthaltene deskriptive Behandlung der
linearen Regression hinausgeht. Dies ist besonders wertvoll fr all jene, die die
Regressionsanalyse fr empirische Untersuchungen, etwa fr eine praxisorientierte
Bachelor- oder Masterarbeit, verwenden wollen.
Konkrete Anwendungen der Methoden in der Praxis
Des Weiteren finden sich eine Vielzahl sehr konkreter wirtschafts- und insbesondere fmanzwirtschaftlieber AnwendungsfaJle (z.B. die Sebtzung von Aktienvolatilitten, die Analyse von Wettbewerbsprozessen und Einkommensverteilungen, Kaufkraftvergleiebe, Aktienindizes, subjektive Wahrscheinlichkeiten und Wettquotienten, Portfoliorisiko und Diversifikation, Qualittskonttolle, die Schtzung von
Nachfrage-, Produktions- und Konsumfunktionen, die Untersuchung von Trends in
der Goldpreisentwicklung, die Beurteilung des langftistigen Einflusses von Zentralbanken auf das Zinsniveau und der langfristigen Beziehung zwiseben Geldmarktzinsstzen versebiedener Fristigkeiten, die Analyse der Performance von Investmentfonds und Zinsprognosen). Wir haben Kapitel, die derartige Anwendungen
enthalten, im nachfolgenden Inhaltsverzeichnis mit dem Zeichen ,. kenntlieb gemaebt. Darber hinaus wurde ein separates Anwendungsverzeichrtis angelegt.
Dozenten- und Studentennutzen

Dieses Bueb soll Ihnen als Lehrenden helfen, die heiklen Themen Statistik und
konometrie verstndlich, studenten- und vor allem praxisgerecht fr Ihren Un-

VIII

Vorwort

terricht aufzubereiten. Den Studierenden soll es dazu dienen, alle relevanten Themen fr ihre Klausur noch einmal zu wiederholen und mit Hilfe zahlreicher
bungsaufgaben zu festigen. Bei der Lsung dieser Aufgaben lassen wir Sie nicht
alleine. Anders als in einschlgigen Lehrbchern wird Ihnen nicht einlach ein Ergebnis ohne Rechenweg und Erluterungen prsentiert. Stattdessen erklren wir
nachvollziehbar und anschaulich jeden einzelnen Rechenschritt und die allgemeine
Vorgehensweise.
Internetseite mit umfassendem Material
Zur Untersttzung von Dozenten und Studierenden wurde eigens die Internetseite
www.statistik-auer-rottmann.de eingerichtet. Hier finden Sie beispielsweise diverse
Excel-Tools, mit denen Rechenbeispiele und Verfahren einfach nachvollzogen und
praktisch umgesetzt werden knnen, sowie die Datentabellen konometrischer
Schtzungen im Excel- und EViews-Format. Auf die Verfgbarkeit derartigen Materials wird im Text durch das Symbol lt am Seitenrand hingewiesen. Weiterhin bieten wir Ihnen online zustzliche bungsaufgaben inklusive der ausfhrlichen
Lsungen und eine auf das Buch abgestimmte Formelsammlung. Speziell fr Dozenten stellen wir die Lsungen der bungsaufgaben mit geraden Aufgabennummern, die im Buch nicht verffentlicht sind, sowie alle Grafiken des Buches in

bearbeitbarer Form zur Verfgung. Benutzernamen und passwon fr den Zugang


zu diesem Onlineangebot knnen Sie ber das Kontakttnen auf der o.g. Seite anfordern.

Danksagung
Bei der Konzeption und Gestaltung des Buches haben uns viele Personen untersttzt. Wir danken Prof. Dr. Christopher Dietmaier, Prof. Dr. Gebhard Flaig, Prof.
Dr. Oliver Hlsewig, Prof. Dr. Norbert Janz, Prof. Dr. Thomas Jost, Prof. Dr. Erich
Ruppert, Prof. Dr. Franz Seitz und Dr. Timo Wolhnershuser fr wertvolle Hinweise
und Verbesserungsvorschlge. Ihnen mchten wir fr ihre hilfreichen kritischen
Auseinandersetzungen mit unseren Ideen ganz besonders danken. Fr das Gelingen dieser Arbeit war zudem der wissenschaftliche Freiraum hilfreich, den Herr
Benjamin Auer am Lehrstuhl von Prof. Dr. Frank Schuhmacher erhalten hat. Besonderer Dank gilt auerdem Herrn Steffen Burkhardt fr eine kritische Durchsicht
des Manuskripts, Korrekturrechnen und wertvolle formale Hinweise, sowie Herrn
Mark Kirstein und Frau Karla Strau fr ein abschlieendes Korrekturlesen.
Allen Lesern wnschen wir auf diesem Weg, dass sie durch dieses Buch einen Zugang zu den interessanten Fragestellungen finden, die sich mit Hilfe der Statistik
und konometrie beantworten lassen. Bei Fragen, Anregungen und Kritik wrden

wir uns ber eine E-Mail via www.statistik-auer-rottmann.de sehr freuen.

Weiden i. d. OPf. und Leipzig,


Juni 2010

Prof. Dr. Horst Rottmann


Dipl.-Bw. (FH) Benjamin R. Auer

In haltsverzeich nis
Vorwort ......................................................................................................................... v
Abbildungsverzeichnis .............................................................................................. XXI
Anwendungsverzeichnis .......................................................................................... XXV
I Deskriptive Statistik ............................................................................................ 1

1. Grundbegriffe ............................................................................................................ 3
1.1 Der Statistikbegriff............................................................................................... 3
1.2 Merkmalstrger, Grundgesamtheiten und Stichproben ..................................... 4
1.3 Klassifikation von Merkmalen ............................................................................. 6
1.3.1

Klassifikation nach dem Skalenniveau .................................................. 6

1.3.2

Klassifikation in diskrete und stetige Merkmale ................................... l0

1.3.3

Klassifikation in qualitative und quantitative Merkmale ...................... 11

2. Eindimensionale Hufigkeitsverteilungen ............................................................... 13


2.1 Hufigkeitsverteilung ......................................................................................... 13
2.1.1

Hufigkeitsverteilung bei diskreten Merkmalen ................................... 13

2.1.2

Empirische Verteilungsfunktion bei diskreten Merkmalen .................. 18

2.1.3

Klassierte Hufigkeitsverteilung bei stetigen Merkmalen .................... 21

2.1.4

Typische Hufigkeitsverteilungen ......................................................... 26

2.1.5

Quantile ................................................................................................. 28

2.2 Mazahlen .......................................................................................................... 31


2.2.1
Lageparameter ....................................................................................... 31
2.2.1.1
Modus ............................................................................................... 32
2.2.1.2

Median .............................................................................................. 34

2.2.1.3
2.2.1.4

Arithmetisches Mittel ........................................................................ 35

2.2.1.5

Exkurs: Renditen und Renditedurchschnitte .................................. .40

2.2.1.6

Lageregeln ....................................................................................... .44

2.2.2

Geometrisches Mittel ........................................................................ 38


~

Streuungsparameter .............................................................................. .45

2.2.2.1

Spannweite und Quartilsabstand ..................................................... 45

2.2.2.2

Mittlere absolute Abweichung ........................................................ .47

2.2.2.3

Varianz und Standardabweichung .................................................. .49

2.2.2.4

Exkurs: Volatilitt ............................................................................ .56

Inhaltsverzeichnis

2.2.2.5

Variationskoeffizient ........................................................................ 59

2.2.2.6

Box-Whisker-Plot ............................................................................. 61

Momente und Schiefemae .................................................................. 62


2.2.3
Empirische Momente ....................................................................... 63
2.2.3.1
2.2.3.2
2.2.4
2.2.4.1
2.2.4.2

Schiefemae ..................................................................................... 63
Konzentrationsmessung ........................................................................ 65
Mazahlen der absoluten Konzentration ........................................ 66
Mazahlen der relativen Konzentration .......................................... 70 ,.

3. Zweidimensionale Hufigkeitsverteilungen ............................................................ 81


3.1 Grundlagen ........................................................................................................ 81
3.1.1

Kontingenztabelle ................................................................................. 81

3.1.2

Randhufigkeiten und -verteilungen .................................................... 85

3.1.3

Bedingte Hufigkeiten und Verteilungen ............................................ 86

3.1.4

Statistische Unabhngigkeit .................................................................. 89

3.2 Korrelationsanalyse ............................................................................................ 92


3.2.1
3.2.2

Kovarianz und Bravais-Pearson-Korrelationskoeffizienl... ................... 92


Kreuzkorrelation ................................................................................... 98 ,.

3.2.3

Spearrnan-Rangkorrelationskoeffizient ............................................... 100

3.2.4

Kontingenzkoeffizient ......................................................................... 104

3.2.5

Lineartransforrnationen und Linearkombinationen ............................ 106

3.2.6
Kritische Anmerkungen zur Korrelationsanalyse ............................... 108
4. Messzahlen und Indizes ........................................................................................ 111
4.1 Messzahlen ....................................................................................................... 111
4.2 Indexzahlen ..................................................................................................... 113
4.2.1

Preisindizes ......................................................................................... 114

4.2.1.1

Grundlegendes ............................................................................... 114

4.2.1.2

Preisindex nach Laspeyres ............................................................. 116

4.2.1.3

Preisindex nach Paasche ............................................................... 117

4.2.1.4

Weitere Preisindizes ....................................................................... 118


Preisindexreihen und Inflationsmessung ...................................... 120 ,.

4.2.1.5
4.2.1.6

Preisbereinigung und reale Gren .............................................. 121 ,.

4.2.1.7

Interregionale Kaufkraftvergleiche ................................................ 123 ,.

4.2.1.8

Umbasierung und Verknpfung .................................................... 125

4.2.2

Mengenindizes .................................................................................... 127

4.2.3

Wertindex ............................................................................................ 129

4.2.4

Wichtige Indizes aus der Wirtschaftspraxis ........................................ 130

Inhaltsverzeichnis

XI

4.2.4.1

Verbraucherpreisindex (VPI) ......................................................... 130

4.2.4.2

Harmonisierter Verbraucherpreisindex (HYPI) ............................. 132

4.2.4.3

Deutscher Aktienindex (DA}{) ....................................................... 134

5. Aufgaben ................................................................................................................ 137

n Wahrscheinllchkeitsrechnung ..................................................................... 147


1. Grundlagen der Wahrscheinlichkeitstheorie ......................................................... 149
1.1 Grundbegriffe ................................................................................................... 149
1.2 Ereignisse und ihre Darstellung ....................................................................... 151
1.3 Wahrscheinlichkeitsregeln und -definitionen .................................................. 157
1.3.1
Axiome der Wahrscheinlichkeitsrecbnung ......................................... 158
1.3.2
Klassische WahrscheinlichkeitsdefInition ........................................... 161
1.3.3
Statistische Wahrscheinlichkeitsdefinition .......................................... 164
1.3.4
Subjektive Wahrscheinlichkeitsdefinition ........................................... 165
1.4 Zufallsauswahl und Kombinatorik ................................................................... 168
1.4.1
Zufallsauswahl und Umenmodell. ...................................................... 169
1.4.2
Kombinatorik ....................................................................................... 169
1.4.2.1
n-Fakultt und Binomialkoeffizient ............................................... 169
1.4.2.2 Prinzipien der Kombinatorik.......................................................... 171
Zusammenfassung und Vergleich .................................................. 176
1.4.2.3
1.5 Bedingte Wahrscheinlichkeiten ....................................................................... 178
1.5.1
Definition und Interpretation .............................................................. 178
1.5.2
MultiplikationssalZ ............................................................................... 179
1.5.3
Unabhngigkeit von Ereignissen ........................................................ 182
1.5.4
Satz der totalen wahrscheinlichkeit .................................................... 185
1.5.5
Formel von Bayes ............................................................................... 187
2. Zufallsvariablen ...................................................................................................... 193
2.1 Begriff der Zufallsvariable ................................................................................ 193
2.2 Diskrete Zufallsvariablen ................................................................................. 196
2.2.1
Wahrscheinlichkeitsfunktion ............................................................... 196
2.2.2
Verteilungsfunktion ............................................................................. 198
2.2.3
Zusammenfassende Gegenberstellung ............................................. 200
2.3 Stetige Zufallsvariablen .................................................................................... 202
2.3.1
Verteilungsfunktion ............................................................................. 202
2.3.2
Dichtefunktion ..................................................................................... 203
2.3.3
Zusammenfassende Gegenberstellung ............................................. 206

XII

Inhaltsverzeichnis

2.4 Kennzahlen von Wahrscheinlichkeitsverteilungen ......................................... 207


2.4.1

Erwartungswert ................................................................................... 207

2.4.1.1

Deftnition ....................................................................................... 207

2.4.1.2

Eigenschaften ................................................................................. 209

2.4.2

Varianz und Standardabweichung...................................................... 213

2.4.2.1

Deftnition ....................................................................................... 213

2.4.2.2

Eigenschaften ................................................................................. 214

2.4.2.3

Standardisierung von Zufallsvariablen .......................................... 216

2.4.3

Hhere Momente ................................................................................ 218

2.4.4

Quantile ............................................................................................... 219

25 Ungleichung von Tschebyscheff ..................................................................... 221


2.6 Anwendungsbeispiele ...................................................................................... 223
2.6.1

Renditen als Zufallsvariablen .............................................................. 223

2.6.2

Zufallsvariablen beim Roulette ........................................................... 224

2.7 Mehrdimensionale Zufallsvariablen ................................................................. 227


2.7.1

Begriff .................................................................................................. 227

2.7.2

Wahrscheinlichkeits- und Verteilungsfunktion .................................. 228

2.7.2.1

Gemeinsame Wahrscheinlichkeitsfunktion ................................... 228

2.7.2.2

Gemeinsame Verteilungsfunktion ................................................. 230

2.7.2.3
2.7.2.4

Randverteilungen ........................................................................... 230


Bedingte Verteilungen ................................................................... 231

2.7.3
2.7.4

Stochastische Unabhngigkeit ............................................................ 233


Kennzahlen zweidimensionaler Wahrscheinlichkeitsverteilungen.... 234

2.7.4.1

Erwartungswert und Varianz ......................................................... 234

2.7.4.2

Kovarianz und Korrelationskoeffizient .......................................... 236

2.75

nearkombinationen von Zufallsvariablen ........................................ 239

2.7.6

Formelzusammenstellung fr stetige Zufallsvariablen ....................... 241

2.7.7

Anwendungsbeispiel: portfoliotheorie ............................................... 242

3. Theoretische Verteilungen .................................................................................... 247


3.1 Diskrete Verteilungen ...................................................................................... 247
3.1.1

Binomialverteilung .............................................................................. 247

3.1.1.1

Wahrscheinlichkeits- und Verteilungsfunktion ............................. 247

3.1.1.2

Eigenschaften ................................................................................. 251

3.1.1.3

Praxisanwendung: Operationscharakteristiken ............................. 252

3.1.2
3.1.2.1

Hypergeometrische Verteilung ........................................................... 254


Wahrscheinlichkeits- und Verteilungsfunktion ............................. 254

Inhaltsverzeichnis

XIII

3.1.2.2

Eigenschaften ................................................................................. 257

3.1.2.3

Approximation durch die Binomialverteilung ............................... 258

Poissonverteilung ................................................................................ 259


3.1.3
Wahrscheinlichkeits- und Verteilungsfunktion ............................. 259
3.1.3.1
3.1.3.2
Eigenschaften ................................................................................. 261
3.1.3.3

Approximation ............................................................................... 261 "

3.2 Stetige Verteilungen ......................................................................................... 263


3.2.1

Gleichverteilung .................................................................................. 263

3.2.1.1

Dichte- und Verteilungsfunktion ................................................... 263

3.2.1.2

Diskretes Gegenstck. .................................................................... 264

3.2.2

Exponentialverteilung ......................................................................... 266

3.2.2.1

Dichte- und Verteilungsfunktion ................................................... 266

3.2.2.2

Diskretes Gegenstck ..................................................................... 268

3.2.3

Nonnalverteilung ................................................................................. 270

3.2.3.1

Dichte- und Verteilungsfunktion ................................................... 270

3.2.3.2

Standardnonnalverteilung .............................................................. 273

3.2.3.3

Reproduktionseigenschaft .............................................................. 277

3.2.4

Logarithmische Nonnalverteilung ....................................................... 278

3.3 Test-Verteilungen ............................................................................................. 280


3.3.1

Chi-Quadrat-Verteilung ....................................................................... 280

3.3.2

t-Verteilung .......................................................................................... 282

3.3.3

F-Verteilung ......................................................................................... 283

3.4 Bedeutung der Nonnalverteilung .................................................................... 285


3.4.1

Zentraler Grenzwertsatz ...................................................................... 285

3.4.2

Approximation diskreter Verteilungen ............................................... 287

3.4.2.1

Binomialverteilung ......................................................................... 287

3.4.2.2

Hypergeometrische Verteilung ...................................................... 288

3.4.2.3

Poissonverteilung ........................................................................... 289

3.4.2.4

berblick zur Approximation eindimensionaler Verteilungen ..... 291

3.4.2.5

Empirische Verteilungen ................................................................ 292

4. Aufgaben ................................................................................................................ 295

m Induktive Statistik ......................................................................................... 309


1. Punkrschtzung ...................................................................................................... 311
1.1 Stichproben ...................................................................................................... 311
1.2 Schtzer und ihre Stichprobenverteilungen .................................................... 312

XIV

Inhaltsverzeichnis

1.2.1

Grundlagen der Punktschtzung ........................................................ 312

1.2.2

Verteilung des Stichprobenmittels ...................................................... 315

1.2.2.1

Ziehen mit Zurcklegen ................................................................ 315

1.2.2.2

Ziehen ohne Zurcklegen ............................................................. 318

1.2.3

Verteilung des Stichprobenanteilswerts ............................................. 320

1.2.3.1

Ziehen mit Zurcklegen ................................................................ 320

1.2.3.2

Ziehen ohne Zurcklegen ............................................................. 321

1.2.4

Verteilung der Stichprobenvarianz ..................................................... 323

1.2.5

Verteilung weiterer Stichprobengren ............................................. 324

1.2.5.1

Differenz zweier Stichprobenmittel... ............................................ 324

1.2.5.2

Differenz zweier Stichprobenanteilswerte .................................... 325

1.2.5.3

Quotient zweier Stichprobenvarianzen ......................................... 326

1.3 Gte von Schtzern ......................................................................................... 328


1.3.1

Erwartungstreue .................................................................................. 328

1.3.2

Asymptotische Erwartungstreue ......................................................... 329

1.3.3

EffIzienz ............................................................................................... 330

1.3.4

Konsistenz ........................................................................................... 331

1.3.5

Mittlerer quadratischer Fehler ............................................................. 332

1.4 Konstruktion von Schtzern ............................................................................ 333


1.4.1

Methode der kleinsten Quadrate ........................................................ 333

1.4.2

Maximum-Likelihood-Methode ........................................................... 334

1.4.3

Momentenmethode ............................................................................. 337

2. Intervallschtzung .................................................................................................. 339


2.1 Grundlagen ...................................................................................................... 339
2.2 KonfIdenzintervalle fr den Mittelwert ........................................................... 340
2.2.1

Normalverteilte Grundgesamtheit mit bekannter Varianz ................. 342

2.2.2

Normalverteilte Grundgesamtheit mit unbekannter Varianz ............. 344

2.2.3

Beliebig verteilte Grundgesamtheit .................................................... 345

2.3 KonfIdenzintervall fr den Anteilswert ........................................................... 346


2.4 KonfIdenzintervall fr die Varianz .................................................................. 348
2.5 berblick ber die behandelten KonfIdenzintervalle ..................................... 349
2.6 Planung des Stichprobenumfangs ................................................................... 350
2.6.1

KonfIdenzintervall fr den Mittelwert ................................................ 350

2.6.2

KonfIdenzintervall fr den Anteilswert .............................................. 351

2.6.3

KonfIdenzintervall fr die Varianz ..................................................... 351

3. Testen von Hypothesen ........................................................................................ 353

xv

Inhaltsverzeichnis

3.1 Allgemeines Testschema .................................................................................. 353


3.2 Testklassifizierung ............................................................................................ 357
3.3 Parametertests ................................................................................................... 358
3.3.1
Einstichprobentests ............................................................................. 358
3.3.1.1
Einstichprobentest fr den Anteilswert.......................................... 358
3.3.1.2

Einstichprobentest fr den Mittelwert ............................................ 365

3.3.1.3
3.3.1.4

Statistische Qualittskontrolle ........................................................ 369

3.3.2

Einstichprobentest fr die Varianz ................................................. 370


Zweistichprobentests ........................................................................... 372

3.3.2.1

Vergleich zweier Mittelwerte ......................................................... 373

3.3.2.2

Vergleich zweier Anteilswerte ....................................................... 376

3.3.2.3

Vergleich zweier Varianzen ........................................................... 377

Parametertests bei verbundenen Stichproben .................................... 379


3.3.3
Differenzentest ............................................................................... 380
3.3.3.1
3.3.3.2 Korrelationstesl.. ............................................................................. 382
3.3.4

Gtefunktionen von Parametertests ................................................... 385

3.4 Verteilungstests ................................................................................................. 390


3.4.1

Chi-Quadrat-Anpassungstest ............................................................... 390

3.4.1.1

Anpassungstest bei diskret verteilter Grundgesamtheit ................ 390

3.4.1.2

Anpassungstest bei stetig verteilter Grundgesamtheit ................... 395


Chi-Quadrat-Unabhngigkeitstest ....................................................... 396

3.4.2
3.4.3

Chi-Quadrat-Homogenittstest... ........................................................ .401

3.5 Einfache Varianzanalyse .................................................................................. 403


3.6 berblick ber die behandelten Testverfahren ............................................. .407
4. Aufgaben ................................................................................................................ 409
IV Einfhrung in die konometrie

uuu_uuu.uuuuuu.u.u.u.u.u.u.uuu.u.u.u.uu.

417

1. Grundlagen ............................................................................................................ 419


1.1 Was ist Regressionsanalyse? ............................................................................ 419
1.1.1

Ziele der Regressionsanalyse ............................................................. .419

1.1.2

Grundgedanken und Abgrenzungen .................................................. 421

1.2 Das Prinzip der kleinsten Quadrate ............................................................... .422


1.2.1

OLS bei Modellen mit einer erklrenden Variablen .......................... .422

1.2.2

OLS und Linearitl.. ............................................................................. 428

1.2.3

OLS bei Modellen mit mehreren erklrenden Variablen .................. .430

1.2.4

Gte einer geschtzten Regressionsgleichung .................................. .432

XVI

Inhaltsverzeichnis

1.2.4.1

Das Bestimmtheitsma .................................................................. 432

1.2.4.2

Einfacher Korrelationskoeffizient .................................................. 435

1.2.4.3

Angepasstes Bestimmtheitsma ..................................................... 436

2. Das lineare Regressionsmodell und seine Annahmen ........................................ .439


2.1 Das lineare Regressionsmodell ........................................................................ 439
2.1.1

Die Regressionsfunktion der Grundgesamtheit ................................. 439

2.1.2

Die Regressionsfunktion der Stichprobe ............................................ 444

2.2 Klassische Annahmen ...................................................................................... 447


2.2.1

Annahmenkatalog ............................................................................... 447

2.2.2

Bedeutung detenrtinistischer und stochastischer Regressoren ......... .455

2.2.3

Duplikation der Annahmen des CLRM durch OLS ........................... .456

2.3 Statistische Eigenschaften der OLS-Schtzer .................................................. .456


2.3.1

Verteilung der OLS-Schtzer ............................................................... 456

2.3.2

Gau-Markov-Theorem ...................................................................... 460

3. Testen von Hypothesen und Konfidenzintervalle ............................................... .463


3.1 Testen einzelner Regressionsparameter - t-Test.. .......................................... .463
3.1.1
Hypothesen, t-Statistik und Entscheidungsregel... ............................. 463 ,.
3.1.2

Der p-Wert .......................................................................................... 467

3.1.3
3.1.4

Beschrnkungen des t-Tests ............................................................... 468


Konfidenzintervalle fr Regressionsparameter................................... 469 ,.

3.2 Simultanes Testen mehrerer Parameter - F-Test ............................................ .471


3.2.1
Hypothesen, F-Statistik und Entscheidungsregel.. ............................. 471
3.2.2

F-Test fr die Gesamtsignifikanz ....................................................... .472

3.2.3
Weitere Anwendungen des F-Tests und der Chow-Test.. ................ .474
3.3 Test der Normalverteilungsannahme ............................................................. .477 ,.
4. Verletzungen der Annahmen des klassischen Regressionsmodells .................... .481
4.1 Modellspezifikation I: Varlablenwahl .............................................................. 481
4.1.1

Vernachlssigte Variablen ................................................................... 481

4.1.2

berflssige Variablen ........................................................................ 484

4.1.3

Modellspezifikationskriterien und Spezifikationstests ....................... 486

4.1.4

Verzgerte erklrende Variablen ........................................................ 489

4.2 Modellspezifikation II: Funktionale Fonn ...................................................... .492


4.2.1

Bedeutung des konstanten Terms ...................................................... 492

4.2.2

Alternative funktionale Fonnen .......................................................... 494

4.2.2.1

Lineare Fonn .................................................................................. 494

4.2.2.2

Doppel-Log-Fonn ........................................................................... 495

Inhaltsverzeichnis

XVII

4.2.2.3

Semi-Log-Form ............................................................................... 496

4.2.2.4

Polynom-Form ................................................................................ 498

4.2.2.5

Inverse Form .................................................................................. 499

4.2.2.6

Zusammenfassender berblick. .................................................... .500

4.2.3

Dummy-Variablen ............................................................................... 501

4.2.3.1

Achsenabschnitts-Dummies .......................................................... .501 "

4.2.3.2

Steigungs-Dummies ........................................................................ 507

4.2.4

Folgen der Wahl einer falschen funktionalen Form ......................... .509

4.3 Multikollinearitt. .............................................................................................. 511


4.3.1

Formen und Ursachen von Multikollinearitt ..................................... 511

4.3.2

Konsequenzen von Multikollinearitt ................................................. 513

4.3.3

Aufdecken von Multikollinearitt... ..................................................... 514 "

4.3.4

Vorgehensweise bei festgestellter Multikollinearitt ......................... .518

4.4 Heteroskedastizitt .......................................................................................... .524


4.4.1

Formen und Ursachen von Heteroskedastizitt ................................ .524

4.4.2

Konsequenzen von Heteroskedastizitt ............................................. .526

4.4.3

Aufdecken von Heteroskedastizitt ................................................... .528 "

4.4.3.1

Grafische Methode ........................................................................ .528

4.4.3.2

Breusch-Pagan LM-Tes!. ................................................................. 531

White-Test ...................................................................................... 533


4.4.3.3
4.4.4
Vorgehensweise bei festgestellter Heteroskedastizitt.. .................... .536
4.4.4.1

Gewichtetes Prinzip der kleinsten Quadrate (WLS) ..................... .536

4.4.4.2

White Standardfehler...................................................................... 539

4.4.4.3

Variablenredefinition ...................................................................... 541

4.5 Autokorrelation ................................................................................................ 542


4.5.1

Formen und Ursachen von Autokorrelation ...................................... 542

4.5.2

Konsequenzen von Autokorrelation ................................................... 549

4.5.3

Aufdecken von Autokorrelation ......................................................... 551 "

4.5.3.1

Grafische Methode ......................................................................... 551

4.5.3.2

Durbin-Watson d-Test .................................................................... 553

4.5.3.3

Breusch-Godfrey LM-Test ............................................................. .555

4.5.4

Vorgehensweise bei festgestellter Autokorrelation ........................... .557

4.5.4.1

Verallgemeinertes Prinzip der kleinsten Quadrate (GLS) ............. 557

4.5.4.2

Newey-West Standardfehler ........................................................... 561

4.5.4.3

Dynamische Modellformulierung ................................................. .562

4.6 Korrelation zwischen erklrenden Variablen und stochastischem Strlerm .. 564

XVIII

Inhaltsverzeichnis

4.6.1

Konsequenzen .................................................................................... 564

4.6.2

Ursachen ............................................................................................. 565

4.6.2.1

Vernachlssigte Variablen .............................................................. 565

4.6.2.2

Messfehler ...................................................................................... 565

4.6.2.3

Verzgerte endogene Variable ...................................................... 566

4.6.2.4

Simultanitt..................................................................................... 567

4.6.3

Instrurnentenvariablenschtzung ........................................................ 568

4.6.3.1

Instrurnentenvariablen ................................................................... 568

4.6.3.2

Zweistufige Methode der kleinsten Quadrate (TSLS) ................... 570 "-

4.6.3.3

Hausrnan-Test und Verletzung von Annahme 2b ......................... 574

4.6.3.4

Sargan-Test und Gte von Instrwnenten ...................................... 577

4.7 Besonderheiten bei der Arbeit mit Zeitreihen ................................................ 580


4.7.1

Dynamische Modelle .......................................................................... 580

4.7.1.1

Autoregressive distributive Lag-Modelle ....................................... 580

4.7.1.2

Spezialfall: Autoregressive Modelle ............................................... 581 "-

4.7.1.3

Problem der Autokorrelation in ARDL-Modellen .......................... 585


Nichtstationre Zeitreihen und Kointegration .................................... 586

4.7.2
4.7.2.1

Stationaritt vs. Nicht-Stationaritt.. ............................................... 586

4.7.2.2

Random Walks und Unit Roots ..................................................... 587

4.7.2.3

Differenzstationaritt vs. Trendstationaritt.. ................................. 590

4.7.2.4

Scheinregression und ihre Bekmpfung ....................................... 592

4.7.2.5

Priifung auf Stationaritt ................................................................ 596 "-

4.7.2.6

Kointegration und Fehlerkorrekturmodell .................................... 604 "-

4.7.2.7

Zusammenfassung ......................................................................... 609

4.8 Modelle fr die volatilitt.. .............................................................................. 610


4.8.1

Volatillttseigenschaften von Finanzmarktdaten ................................ 610

4.8.2

Historische volatilitt und gleitende Durchschnitte ........................... 613

4.8.3

ARCH- und GARCH-Modelle .............................................................. 616

4.8.3.1

Grundlagen des ARCH-Modells ...................................................... 616

4.8.3.2

Nichtnegativitt, unbedingte Varianz und Stationaritt .................. 618

4.8.3.3

Schtzen von und Prognose mit ARCH-Modellen ......................... 619 "-

4.8.3.4

berprfen von ARCH-Modellen ................................................... 622

4.8.3.5
4.7.3.4

Das GARCH-Modell und das GARCH-in-Mean-Modell .................. 624 "-

4.7.3.5.

Zusammenfassung und Ausblick .................................................... 632

Das asymmetrische ARCH- und GARCH-Modell ............................ 629 "-

5. Zusammenfassende Anwendungen aus dem Finanzbereich ............................... 635

Inhaltsverzeichnis

XIX

5.1 Capital Asset Pricing Model ............................................................................. 635

5.2 Investmentfondsperfonnance .......................................................................... 638

6. Progoose mit geschtzten Regressionsmodellen .................................................. 643


6.1 Grundlagen der Progoose ................................................................................ 643
6.2 Bedingte Prognosen ......................................................................................... 646
6.2.1

Prognosefehler bei bedingten Prognosen .......................................... 646

6.2.2

Beurteilung der Gte von Prognosen ................................................. 649

6.2.3

Prognose bei Vorliegen von Autokorrelation ..................................... 653

6.2.4

Trendprognosen .................................................................................. 656

6.3 Unbedingte Progoosen .................................................................................... 658


6.4 Zusammenfassung ............................................................................................ 660
7. Aufgaben ................................................................................................................ 661
V Lsungen ......................................................................................................... 677

Kapitel I - Deskriptive Statistik ................................................................................. 679


Kapitel II - Wahrscheinlichkeitsrechnung ................................................................ 685
Kapitel III - Induktive Statistik .................................................................................. 695
Kapitel IV - konometrie ......................................................................................... 705
VI Anhang ........................................................................................................... 721

1. Statistische Tafeln ................................................................................................... 723


1.1 Binomialkoeffizienten ...................................................................................... 723
1.2 Binomialverteilung - Verteilungsfunktion ....................................................... 724
1.3 Poissonverteilung - Verteilungsfunktion .......................................................... 731
1.4 Standardnormalverteilung - Verteilungsfunktion ............................................ 734
1.5 Standardnormalverteilung - Wichtige Quantile ............................................... 735
1.6 Chi-Quadrat-Verteilung - Quantile .................................................................. 736
1.7 t-Verteilung - Quantile ..................................................................................... 738
1.8 F-Verteilung - Quantile .................................................................................... 739
2. konometrische Tafeln ......................................................................................... 745
2.1 Kritische Werte der Durbin-Watson-Statistik ................................................... 745
2.2 Kritische Dickey-Fuller t-Werte ........................................................................ 747
Literaturverzeichnis .................................................................................................... 749
Stichwortverzeichnis .................................................................................................. 757

Abbildungsverzeichnis
Abbildung I 1: Deskriptive und induktive Statistik ......................................................... 3
Abbildung I 2: Grundgesamtheit oder Stichprobe und Merkmalstrger ........................ 4
Abbildung I 3: Statistische Maskalen ............................................................................. 6
Abbildung I 4: Stetige und diskrete Merkmale .............................................................. 10
Abbildung I 5: Hufigkeitstabelle ................................................................................... 15
Abbildung I 6: Hufigkeitstabelle bei klassierten Daten ............................................... 22
Abbildung I 7: Histogramme typischer Hufigkeitsverteilungen ................................... 27
Abbildung I 8: Quartile in der Urliste ............................................................................ 28
Abbildung I 9: Statistische Mazahlen ............................................................................ 31
Abbildung I 10: Lageparameter und Skalierung ............................................................ 32
Abbildung I 11: Zusammenhang zwischen stetigen und diskreten Renditen .............. .42
Abbildung I 12: Lageregeln ........................................................................................... .44
Abbildung I 13: Arbeitstabelle zur Varianzberechnung ................................................ .51
Abbildung I 14: Einfacher Box-Whisker-Plot ................................................................. 61
Abbildung I 15: Spezieller Box-Whisker-Plot................................................................. 62
Abbildung I 16: Konstruktion der Lorenz-Kurve ........................................................... 70
Abbildung I 17: Arbeitstabelle zur Berechnung des Gini-KoefflZienten ....................... 75
Abbildung I 18: Streudiagramm ...................................................................................... 82
Abbildung I 19: Kontingenztabelle ................................................................................. 83
Abbildung I 20: Kontingenztabelle mit Randhufigkeiten ............................................. 85
Abbildung I 21: Korrelationsmae und Skalierung ........................................................ 92
Abbildung I 22: Interpretation der Kovarianz ................................................................ 93
Abbildung I 23: Bravais-Pearson-Korrelationskoeffizient und Streudiagramm ............. 98
Abbildung 124: Spearman-Rangkorrelationskoeffizient und Streudiagrarnm ............. l02
Abbildung 125: Kausale versus statistische Zusammenhnge .................................... 108
Abbildung II 1: Teilereignis und quivalente Ereignisse ............................................. 153
Abbildung II 2: Vereinigung und Durchschnitt ........................................................... 154
Abbildung II 3: Disjunkte und komplementre Ereignisse .......................................... 155
Abbildung II 4: Differenz .............................................................................................. 156
Abbildung II 5: Durchschnitte bei der Zerlegung ........................................................ 161
Abbildung II 6: Umenmodel1 ....................................................................................... 169

XXII

Abbildungsverzeichnis

Abbildung II 7: berblick Kombinatorik ..................................................................... 178


Abbildung II 8: Vierfeldertafel.. .................................................................................... 183
Abbildung II 9: Herleitung der totalen Wahrscheinlicbkeit 1.. .................................... 185
Abbildung II 10: Herleitung der totalen Wahrscheinlichkeit II ................................... 186
Abbildung II 11: Zufallsvariablen als Abbildung von n auf die reelle Achse ............ 194
Abbildung II 12: Zusammenhang Wahrscheinlichkeits- und Verteilungsfunktion ..... 201
Abbildung II 13: Verteilungsfunktion einer stetigen Zufallsvariable ........................... 202
Abbildung II 14: Dichtefunktion einer stetigen Zufallsvariable .................................. 204
Abbildung II 15: Zusammenhang Verteilungs- und Dichtefunktion ........................... 207
Abbildung II 16: Symmetrie und Erwartungswert (stetige ZV) ................................... 211
Abbildung II 17: Bestimmung des Median (stetige ZV) .............................................. 220
Abbildung II 18: Ungleichung von Tschebyscheff ...................................................... 222
Abbildung II 19: Gemeinsame Wahrscheinlichkeitsfunktion ...................................... 229
Abbildung II 20: Dichtefunktion der stetigen Gleichverteilung .................................. 263
Abbildung II 21: Verteilungsfunktion der stetigen Gleichverteilung .......................... 264
Abbildung II 22: Dichte- und Verteilungsfunktion der Nonnalverteilung .................. 271
Abbildung II 23: Skizzierte NV-Dichtefunktionen fr verschiedene

CJ ..........

272

Abbildung II 24: Skizzierte NV-Dichtefunktionen fr verschiedene 11. ....................... 272


Abbildung II 25: Dicbtefunktion der Standardnormaiverteilung ................................. 273
Abbildung II 26: Dichtefunktion, Quantile und Intervallwahrscheinlichkeiten.......... 277
Abbildung II 27: Diskrete Verteilungen im berblick ................................................. 284
Abbildung II 28: Stetige Verteilungen im berblick .................................................... 285
Abbildung II 29: Approximationsregeln ausgewhlter Verteilungen .......................... 291
Abbildung III 1: Verteilung des Sticbprobenmittels .................................................... 319
Abbildung III 2: Wichtige Stichprobenverteilungen im berblick .............................. 327
Abbildung III 3: Erwartungstreue und verzerrte Schtzer ........................................... 328
Abbildung III 4: Effizenz .............................................................................................. 330
Abbildung III 5: Dichten einer konsistenten Schtzfunktion fr verschiedene n ...... 331
Abbildung III 6: Vorteilhaftigkeit leicht verzerrter Schtzer ........................................ 332
Abbildung III 7: Wahrscheinlichkeitsintervall .............................................................. 341
Abbildung III 8: Intervallschtzungen fr den Mittelwert ........................................... 342
Abbildung III 9: Konfidenzintervalle im berblick ..................................................... 349
Abbildung III 10: Fehler 1. und 2. Art ......................................................................... 355
Abbildung III 11: Interpretation eines Testergebnisses ............................................... 357
Abbildung III 12: Dichtefunktion von V bei korrekter Nullhypothese a) .................. 360
Abbildung III 13: Dichtefunktion von V bei korrekter Nullhypothese b) .................. 361

Abbildungsverzeichnis

XXIII

Abbildung III 14: Dichtefunktion von V bei korrekter Nullhypothese c) ................... 361
Abbildung III 15: Einstichprobentests den Mittelwert ................................................. 366
Abbildung III 16: berwachungsgrafik zur statistischen Qualittskontrolle ............... 370
Abbildung III 17: Gtefunktion eines unverflschten und eines idealen Tests .......... 386
Abbildung III 18: Gtefunktion vs. OC-Kurve ............................................................. 387
Abbildung III 19: Gtefunktionen beim einfachen Gautest ...................................... 389
Abbildung III 20: Hilfstabelle fr den Chi-Quadrat-Anpassungstest ........................... 391
Abbildung III 21: Kontingenztabelle fr den Chi-Quadrat-Unabhngigkeitstest.. ...... 397
Abbildung III 22: Kontingenztabelle fr den Chi-Quadrat-Homogenittstest ............ .402
Abbildung IV 1: Linearer Zusammenhang zweier Variablen ...................................... .422
Abbildung IV 2: OLS-Schtzung ................................................................................... 423
Abbildung IV 3: Zerleguog der Varianz von Y ........................................................... .433
Abbildung IV 4: Bestimmtheitsma .............................................................................. 434
Abbildung IV 5: Regressionsfunktion der Grundgesamtheit 1.. .................................. .440
Abbildung IV 6: Regressionsfunktion der Grundgesamtheit 11................................... .442
Abbildung IV 7: Wahre und geschtzte Regressionsgerade 1.. ................................... .446
Abbildung IV 8: Wahre und geschtzte Regressionsgerade 11 ................................... .446
Abbildung IV 9: Bedingte Verteilung der

E, ................................................................. 448

Abbildung IV 10: Homoskedastizitt ............................................................................ 450


Abbildung IV 11: Heteroskedastizitt ........................................................................... 451
Abbildung IV 12: Korrelationsmuster des Strtenns ................................................... .452
Abbildung IV 13: Einfluss von Ausreiern auf OLS-Schtzungen .............................. .453
Abbildung IV 14: Veranschaulichung der BLUE-Eigenschaft von OLS ...................... .460
Abbildung IV 15: Vernachlssigung des konstanten Tenns ....................................... .493
Abbildung IV 16: Doppel-Log-Fonn ............................................................................. 496
Abbildung IV 17: Semi-Log-Fonnen ............................................................................. 497
Abbildung IV 18: Inverse Fonn .................................................................................... 500
Abbildung IV 19: Achsenabschnitts-Dummy ................................................................ 502
Abbildung IV 20: Steigungs-Dummies ......................................................................... 508
Abbildung IV 21: Vollkommene vs. unvollkommene Multikollinearitt.. ................... 512
Abbildung IV 22: Homo- vs. Heteroskedastizitt.. ....................................................... 525
Abbildung IV 23: Grafische Aufdeckung von Heteroskedastizitt .............................. 529
Abbildung IV 24: Autokorrelationsfunktionen von AR(1)-Prozessen .......................... 545
Abbildung IV 25: Positive, negative und fehlende Autokorrelation ............................ 546
Abbildung IV 26: Autokorrelationsfunktion AR(1) versus AR(2) ................................. 548
Abbildung IV 27: Autokorrelation des Strtenns und funktionale Fonn .................... 549

XXIV

Abbildungsverzeichnis

Abbildung IV 28: Durbin-Watson d-Test ..................................................................... 554


Abbildung IV 29: Tagesrenditen mit Volatility Clustering ........................................... 611
Abbildung IV 30: Autokorrelogramme von DAX-Renditen ......................................... 612
Abbildung IV 31: Progoosearten (Zeitreihenmodelle) ................................................ 644
Abbildung IV 32: Progoosekonfidenzintervalle ........................................................... 648

Anwendungsverzeichnis
Renditen und Renditedurchschnitte ............................................................................... 40
Schtzung von Aktienvolatilitten .................................................................................. 56
Analyse von Wettbewerbsprozessen und Einkommensvetteilungen ............................ 70
Vor- und nachlaufende Konjunkturindikatoren ............................................................. 99
Inflationsmessung ......................................................................................................... 120
Inflationsbereinigung .................................................................................................... 121
Kaufkraftvergleiche ....................................................................................................... 123
Indizes aus der Wirtscbaftspraxis (vpI, HVPI, DA}{) ................................................... 130
Wettquotienten .............................................................................................................. 167
Das Dreitorespiel .......................................................................................................... 191
Roulette ......................................................................................................................... 224
Portfoliorisiko und Diversifikation ............................................................................... 242
Statistische Qualittskontrolle ....................................................................................... 252
Kreditrisiko .................................................................................................................... 262
Planung von Sticbprobenumfngen ............................................................................. 350
Schtzung von Konsumfunktionen .............................................................................. 464
Schtzung von Produktlonsfunktionen ........................................................................ 470
Erklrung der Lhne arbeitsttiger Frauen ................................................................... 478
Erklrung der Lhne arbeitsttiger Mnner .................................................................. 502
Erklrung von Impottvolumina in Wirtschaftsrumen ................................................ .517
Erklrung von Immobilienpreisen ................................................................................ 530
Schtzung von Nachfragefunktionen ........................................................................... 552
Erklrung der Umlaufsrenditen deutscher Untemehmensanleihen ............................ 583
Untersucbung von Trends in der Goldpreisentwicklung ............................................ 602
Beurteilung des langfristigen Zinseinflusses von Zentralbanken ................................ 605
Beurteilung der langfristigen Beziehung zwischen Geldmarktzinsstzen................. 608
Zeitvariable Volatitlitt von Aktienrenditen .................................................................. 620
Prfung der empirischen Validitt des Capital Asset Pricing Models .......................... 635
Analyse der Performance von Investmentfonds .......................................................... 638
Zinsprognose ................................................................................................................. 651

DESKRIPTIVE STATISTIK

Thema dieses ersten Kapitels ist die Aufbereitung von Zahlenmaterial mittels
Oberschaubarer Tabellenstrukturen, grafischer Abbildungen und aussagekrftiger Kennzahlen. Nach einem Grundlagenabschnitt, in dem wir zunchst
die wichtigsten Grundbegriffe der deskriptiven Statistik klren, befassen wir
uns ausfOhrlich mit sog. eindimensionalen Hufigkeitsverteilungen, die sich
Ober Lage-, Streuungs-, Schiefe- und Konzentrationsparameter charakterisieren lassen. Im Anschluss daran erfolgt die detaillierte Behandlung wichtiger Kennzahlen mehrdimensionaler Hufigkeitsverteilungen.
Den Abschluss des Kapitels zur deskriptiven Statistik bildet die Behandlung
von Preismesszahlen und -indizes. Neben verschiedenen Indextypen und
-berechnungsmethoden stellen wir dabei insbesondere verschiedene in der
Praxis wichtige Indizes zur Abbildung des gesamtwirtschaftlichen Preisniveaus und der Lage auf Finanzmrkten vor.

G ru nd beg riffe

Bevor wir auf statistische Methoden zur Zahlenaufbereitung eingehen, werden wir in
diesem einfhrenden Abschnitt zunchst den Begriff Statistik definieren (1.1) und seine
Teilgebiete kurz erlutern. Darauf folgend klren wir die fr die deskriptive Statistik bedeutenden Begriffe Merkmalstrger, Merkmal, Merkmalsausprgung, Grundgesamtheit
und Stichprobe (1.2) und gehen nher auf Maskalen und andere Kriterien ein, die sich
zur Klassifizierung von Merkmalen verwenden lassen (1.3).

1.1 Der Statistikbegriff


Der Begriff Statistik hat im Allgemeinen keine eindeutig festgelegte Defmition. Er
ist mehrdeutig. Zum einen verstehen wir unter Statistik eine Zusammenstellung

(tabellarisch oder grafisch) von Zahlen und Daten ber bestimmte Sachverhalte.
Typische Beispiele hierfr sind Bevlkerungs- und Umsatzstatistiken. Zum anderen
ist Statistik die Gesamtheit aller Methoden zur Erhebung, Aufbereitung und Analyse
empirischer Infonnationen. Gerade diese Methoden gehren mittlerweile zum unverzichtbaren Instrumentarium vieler Fachwissenschaften wie etwa der Physik, der
Biologie, der Geografie und natrlich der Wirtschaftswissenschaften.
Die Statistik kann in die Teilgebiete deskriptive und induktive Statistik untergliedert
werden (vgl. Abbildung I 1). Die deskriptive Statistik (beschreibende, explorative
Statistik) befasst sich damit, die umfangreichen und unberschaubaren Einzeldaten
statistischer Erhebungen durch mglichst wenige, aussagekrftige Kennzahlen Zu
charakterisieren. Die Aufgabe der induktiven Statistik (schlieende Statistik) ist
der Rckschluss auf eine Grundgesamtheit anhand von Stichproben. Dies ist in der
Praxis von entscheidender Wichtigkeit, da Vollerhebungen im Vergleich zu Teilerhebungen (vgl. Abschnitt 1.2) oft zu kostenintensiv oder einfach unmglich sind.
Statistik
Deskriptive Statistik

Induktive Statistik

Beschreibung und Darstellung von


Daten durch wenige Zahlen oder
Grafiken

Rckschluss auf Grundgesamtheit


aufgrund von Stichproben

z.B.

Schtzen, Testen von Hypothesen,

Mittelwerte, Streuungsmae,

stat. Entscheidungstheorie,
multivariate stat. Methoden

Indexberechnung

Teilgebiete:

Abbildung I 1: Deskriptive und induktive Statistik


B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_1, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

Als weiteres Teilgebiet knnte die Wahrscheinllcbkeltsrechnung aufgefhrt


werden. Sie wird im Rahmen dieses Lehrbuches als eigenstndiges Kapitel II behandelt. Da sie fr das Verstndnis der Verfahren der induktiven Statistik unerlsslich ist, wird sie hufig in einem Zug mit der induktiven Statistik genannt.

1.2 Merkmalstrger, Grundgesamtheiten und Stichproben


In der Statistik bezeichnen wir die Gegenstnde einer Untersuchung als Merkmalstrger (statistische Einheiten). Die Gesamtheit der Merkmalstrger mit bereinstimmenden Identifikationskriterien (sachlich, rumlich, zeitlich) bzw. die fr eine
statistische Untersuchung relevanten Merkmalstrger bilden die sog. Gnmdgesamtheit (statistische Masse). Jeder Merkmalstrger besitzt gewisse Eigenschaften,
die im Rahmen einer Untersuchung relevant bzw. zu analysieren sind. Diese nennen wir Merkmale. Jedes Merkmal besitzt zwei oder mehr Merkmalsausprgungen (Menge der Ergebnisse), die bei der Beobachtung auftreten knnen. Wird die
Grundgesamtheit bei einer Untersuchung vollstndig erfasst, so sprechen wir von
einer Voll- oder Totalerhebung. Im Gegensatz dazu wird bei einer Tell- oder
Stichprobenerhebung nur ein Bruchteil der Grundgesamtheit nach gewissen Zufallsgesetzen ausgewhlt.
Diese Bezeichnungen sollen anhand von Abbildung I 2 und des konkreten Beispiels I 1-1 veranschaulicht werden.
Grundgesamtheit oder Stichprobe
Merkmalstrger 1

Merkmalstrger 2

Merkmalstrger n

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal rn

Merkmalsausprgung

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal rn

Merkmalsausprgung

Merkmal 1

Merkmalsausprgung

Merkmal 2

Merkmalsausprgung

...

...

Merkmal m

Merkmalsausprgung

Abbildung I 2: Grundgesamtheit oder Stichprobe und Merkmalstrger

1. Grundbegriffe

Beispiel I 1-1

Merkmalsbegriffe

Im Rahmen einer Vollerhebung soll das monatliche Durchschnittseinkommen von bayeri


schen Betriebswirtschaftsstudenten im Jahr 2010 untersucht werden. Dazu werden von
den Hochschulverwaltungen Fragebgen an die Studentinnen und Studenten ausgegeben,
worin Angaben Ober Alter, Geschlecht, Familienstand, Wohnort, Einkommenshhe usw. zu
machen sind. Die vorhergehend definierten Begrifflichkeiten knnen nun folgendermaen
auf dieses BeispielObertragen werden:

Grundgesamtheit: Alle bayerischen (rumliche Identifikation) Betriebswirtschaftsstudenten (sachliche Identifikation) im Jahr 2010 (zeitliche Identifikation)

Merkmalstrger: einzelner Student

Merkmal:

Mgliche Merkmalsausprgungen:

Alter

19,20,21,22,23, ...

Geschlecht

mnnlich, weiblich

Familienstand

ledig, verheiratet

Wohnort

Mnchen, NOrnberg, .. .

Einkommenshhe

300 , 400 , 450 , .. .

Neben realen Gmndgesamtheiten (z.B. Erwerbsttige in Bayern zum 31.12.2008,


herzinfarktbedingte Todesfalle im Jahr 2008, ... ) existieren auch hypothetische
Gmndgesamtheiten (z.B. Menge der Ergebnisse eines fortlaufenden Wrfelspiels,
Geburten bis zum Menschheitsende, ... ). Gerade bei den zuletztgenannten
Grundgesamtheiten, welche auch als unendliche Grundgesamtheiten bezeichnet
werden, ist ausschlielich eine Stichprobenbetrachtung sinnvoll oder mglich.
Nach der zeitlichen Abgrenzung der untersuchten Grundgesamtheit unterscheiden
wir Bestandsgroen (Bestandsmassen) und StronJgren (Bewegungsmassen).
Bestandsgren beziehen sich auf einen bestimmten Zeitpunkt (z.B. Einwohner
Bayerns zum 01.01.2008, Kassenbestand zum 31.12.2008), Stromgren sind in Bezug auf einen Zeitraum definiert (z.B. Geburten in Bayern in 2008, Insolvenzen in
der BRD in 2007). In der statistischen Praxis werden Bestandsgren in der Regel
aus Kostengrnden durch geeignete Stromgren fortgeschrieben. Wir knnen
nmlich den allgemeinen Zusammenhang
Anfangsbestand + Zugnge - Abgnge = Schlussbestand
festhalten, den wir auch als Bestandsgleicbung bezeichnen. In der Bevlkerungsstatistik wird beispielsweise die Wohnbevlkerung nur in greren Abstnden vollstndig erfasst (Volkszhlung) und in den Zwischenjahren durch die Beziehung
Bevlkerung Ende Jahr x = Bevlkerung Ende des Vorjahres + Zugnge im Jahr x
(Geburten, Zuwanderung) - Abgnge im Jahr x (Sterbeflle, Abwanderung) fortgeschrieben. Ein Beispiel fr die Fortschreibung aus der betriebswirschaftlichen Praxis
ist etwa die Emlittlung von Lagerbestnden an einem Stichtag nach der Methode
der laufenden Inventur.

I Deskriptive Statistik

Klassifikation von Merkmalen

1.3
1.3.1

Klassifikation nach dem Skalenniveau

Gerade das Beispiel I 1-1 aus dem vorhergehenden Abschnitt hat gezeigt, dass
jedes Merkmal zwei oder mehr mgliche Ausprgungen besitzen kann. Je nach Alt
des betrachteten Merkmals knnen diese Merkmalsausprgungen anhand verschiedener Skalen gemessen werden. Abbildung I 3 zeigt die zu unterscheidenden Skalen im berblick und gibt auerdem an, welche Rechenoperationen bei der Auswertung mit den Daten sinnvoll durchfhrbar und interpretierbar sind.
Qualitative
Variablen

Quantitative
Variablen

r~

NomJnaJskala

Ordinalskala

* > <

* > < + -

*><+-.

VerhltnJsskala

Kardinalskala
(metrische
Skala)

Abbildung I 3: Statistische Maskalen


Zur Verdeutlichung der in der Grafik dargestellten Sachverhalte betrachten wir nun
die einzelnen Skalen nher und veranschaulichen sie durch geeignete Beispiele:

1. Nominalskala
Die Nominalskala findet bei Merkmalen Anwendung, bei denen die Ausprgungen
lediglich eine Verschiedenartigkeit und keine Reihenfolge ausdrcken. Dies bedeutet, dass die Merkmalsausprgungen gleichberechtigt nebeneinander stehen. Es besteht zwar die Mglichkeit jeder Merkmalsausprgung eine Zahl zuzuordnen, doch
dient eine solche Verschlsselung der reinen Identifikation und nicht einer Rangfolgenbildung.

Beispiel I 1-2

Nominalskalierte Merkmale

Als typische Beispiele !Ur nominalskalierte Merkmale sind etwa die Religionszugehrigkeit
oder das Geschlecht eines Merkmalstrgers zu nennen. Betrachten wir das Merkmal Geschlecht nher, so zeigen sich die Ausprgungen "Mann" und "Frau". Es kann keine Rangfolge gebildet werden, da keine der Ausprgungen eine hhere WertigkeH besitzt. Selbst
wenn man die Verschlsselung "1 = Mann" und "2 = Frau" vornimmt, dienen die Zahlen
nicht der Rangfolgenbildung. Es kann mit und ohne Verschlsselung nur Gleichheit oder
Ungleichheit Oberprft werden. Wir knnen also z.B. sagen, dass zwei Merkmalstrger ein
unterschiedliches Geschlecht aufweisen. Ein "besseres Geschlecht" gibt es nicht.

1. Grundbegriffe

Kann ein Merkmal nur zwei verschiedene Ausprgungen annehmen (z.B. IIMann l1
und "Frau" beim Merkmal "Geschlecht"), sprechen wir auch von einem dichotomen

Merkmal.
2. Ordinalskala
Neben der Verschiedenartigkeit besitzen die Merkmalsausprgungen ordinalskaHerter Merkmale eine natrliche Rangfolge. Das heit, es kann eine "grer als"Beziehung zwischen den Ausprgungen aufgestellt werden. Wichtig ist dabei aber,
dass die Abstnde zwischen den Merkmalsausprgungen nicht quantifizierbar sind.

Beispiel I 1-3

Ordinalskalierte Merkmale

Typische ordinalskalierte Merkmale sind z.B. der Intelligenzgrad, der Tabellenplatz in der
Fuballbundesliga und Schulnoten. Fr das Merkmal Schulnoten zeigen sich z.B. die Ausprgungen 1, 2, 3, 4, 5, 6. Die Noten erfllen das Verschiedenartigkeitskriterium einer
Nominalskala. Zustzlich kann die Aussage gemacht werden, dass z.B. die Note 2 besser
(hherwertiger) ist als die Note 4. Es kann aber nicht geschlossen werden, dass die 1 im
Vergleich zur 2 genau so viel besser ist wie die 4 im Vergleich zur 5. Die Berechnung eines
Notendurchschnitts ist daher streng genommen nur zulssig, wenn wir unterstellen, dass
die Abstnde zwischen den einzelnen Noten gleichartig sind. Nur dann kann eine Durchschnittsnote von 1,5 als genau zwischen 1 und 2 liegend interpretiert werden.
Im Zusammenhang mit Schulnoten und dem Tabellenplatz in der Bundesliga sprechen wir
auch vom Vorliegen einer sog. Rangskala, da es sich um eine Skala handelt, die nur
ganzzahlige Ordnungsziffern aulweist, die mit 1 beginnen und in ununterbrochener Reihenfolge hintereinander stehen.
Wird z.B. in einem Fragebogen die Qualitt einer Lehrveranstaltung evaluiert, so knnten
die Ausprgungen der Qualittsvariablen folgende Gestalt aulweisen:

-2 = sehr niedrig -1

= niedrig 0 = mittelmig +1 = hoch +2 = sehr hoch

Solche Bewertungs- oder Einschtzungsskalen nennen wir auch Rating-Skalen.

3. Intervallskala
Zustzlich zu den Eigenschaften einer Ordinalskala knnen bei intervallskalierten
Merkmalen zwischen den Merkmalsausprgungen Entfernungen oder Abstnde angegeben und sinnvoll verglichen werden. Es existiert kein natrlicher Nullpunkt. Er
ist willkrlich definiert. Zwischen den Merkmalstrgern knnen keine Produkte
oder Quotienten gebildet werden.

Beispiel I 1-4

Intervallskalierte Merkmale

Die Kalenderzeitrechnung und Temperaturen in 'C knnen als intervallskaliert betrachtet


werden. Es kann nmlich z.B. fr das Merkmal Temperatur (von Wasser) zwischen den
Ausprgungen 20' C und 30' C eine Differenz von 10' C festgestellt werden. Dieser Unterschied wird als genau so gro erachtet wie der Unterschied zwischen 50' C und 60' C.
Eine Aussage wie "20' C ist viermal so warm wie 5' C." ist hingegen nicht mglich.

I Deskriptive Statistik

4. Verhltnisskala

Zu den Eigenschaften der Intervallskala kommt bei der Verhltnisskala noch ein
natrlicher Nullpunkt hinzu, wodurch eine Produkt- und Quotientenbildung mglich wird. Dies ist typischerweise bei Skalen zur Lngen-, Mengen- und Gewichtsmessung der Fall.
Beispiel I 1-5

Verhltnisskalierte Merkmale

Alter, Krpergre und Umsatz knnen zu den verhHnisskalierten Merkmalen gezhlt


werden. Es kann nmlich z.8. fr die Ausprgungen 100 und 200 des Merkmals Umsatz ausgesagt werden, dass 200 zweimal so viel ist wie 100 .

Intervall- und Verhltnisskalen werden auch unter den Begriffen Kardinalskalen


oder metrische Skalen zusammengefasst, da ihnen ein Masystem zugrunde liegt.
Mit jedem Skalentyp ist ein eindeutig festgelegtes Informationsniveau verbunden.
In der Praxis kann es nun aber aus verschiedenen Grnden erforderlich sein, eine
Transformation von Merkmalsausprgungen vorzunehmen. Eine solche ist
natrlich nur zulssig, wenn dadurch die in den Skalenwerten ursprnglich enthaltenen Informationen nicht verndert werden (skalenerbaltende Transjonnatlon).
Wrden wir z.B. die Ausprgungen 1, 2, 3, 4, 5 und 6 des Merkmals Schulnote in
10, 20, 30, 40, 50 und 60 transformieren, so wren weiterhin alle Merkmale einer
Ordinalskala erfllt und es wrden keine Informationen verlorengehen. Wrden
wir aber z.B. Zu Krpergren eine gewisse Konstante addieren, so wrde dies zu
Interpretationsfehlem der neuen Gren fhren. Es ist also deutlich zu erkennen,
dass fr jeden Skalentyp nur ganz bestimmte Transformationen mglich sind. Diese
betrachten wir im Folgenden nher:
1. Nominalskala

Hier sind alle Transjonnationen zulssig, unterschiedliche Ausprgungen auf unterschiedliche Ausprgungen und gleiche Ausprgungen auf gleiche Ausprgungen
abbilden. So knnen beispielsweise in einem Produktsortiment Artikel Nr. 321 und
Nr. 322 mit neuen Artikelnummern 2005 und 1998 versehen werden.
2. Ordlnalskala

Zulssig sind hier nur sog. streng monotone Transjonnatlonen. Dies bedeutet, dass
aus jedem Merkmalswert X, mit einer Funktion f(x,) der neue Merkmalswert y, gebildet wird. Die Rangfolge der Merkmalstrger darf sich dadurch nicht verndern.

YI = fex)

wobei

fr alle i

(11: 1)

Als Beispiel kann hier die bereits genannte Schulnotentransformation aufgefhrt


werden. Vor und nach der Transformation y, = lax, ist die Rangfolge identisch.
Alternativ wren hier ebenso Transfonnationen wie Yi ; ; ; Inx j oder Yi ; ; ;
denkbar. Auch bei ihnen bleibt nmlich die Rangfolge erhalten.

rx:

1. Grundbegriffe

3. Intervallskala
Bei intervallskalierten Merkmalen drfen ausschlielich lineare Transformationen
durchgefhrt werden. Dies bedeutet, dass sich die neuen Merkmalswerte y, als
lineare Funktion von X. ergeben.

y, = ax, + b

ntit a > 0

(11: 2)

Nehmen wir etwa an, dass die Ausprgungen 30 C und 40 C des Merkmals Temperatur in 0 F (Fahrenheit) transforntiert werden sollen, so erfolgt dies ber

Yl=32+~XI'
.....
.....
C
.p

was zu den neuen Werten 86 Fund 104 0 F fhrt, welche weiterhin intervallskaliert
sind und keine Informationen eingebt haben.
0

4. Verhltnisskala
Die wohl restriktivsten Transfonnationen sind bei Verhltnisskalen mglich. Es sind
hier nmlich nur sog. hnlIchkeitstransformationen (proportionale Transformationen), d.h. Multiplikationen ntit positiven Konstanten zulssig.
(11: 3)

hnlichkeitstransformationen fmden etwa bei der Umrechnung von Krpergren


Anwendung. Sollen z.B. die Gren 1,60 mund 1,70 m in ern-Werte umgerechnet
werden, erfolgt dies ber die Transfonnation y, = 100x" welche die ern-Werte 160
und 170 liefert. Auch die Umrechnung von DM in Euro ber die gelufige Transformation y, - 1/1,95583 . X. ist eine typische hnlichkeitstransformation.
In Ausnahmefallen kann es erforderlich sein skalensenkende Transformationen

durchzufhren, d.h. solche, die mit einem Infannationsverlust verbunden sind. Da


die von uns behandelten Skalen in der Reihenfolge Verhltnis-, Intervall-, Ordinalund Nominalskala dominant sind, bedeutet dies, dass wir durch Transformationen
mettisch skalierte Merkmale in ordinalskalierte oder nominalskalierte Merkmale
und ordinalskalierte in nominalskalierte Merkmale berfhren knnen. Eine Umkehrung ist nicht mglich, d.h. es gibt keine skalenerhhenden Transfonnationen.

Beispiel I 1-6

Skalensenkende Transformationen

blicherweise werden zur Messung von Krpergren Verhltnisskalen (z.B. Zentimeterskala) eingesetzt. Eine Messung kann jedoch auch auf ordinalem oder nominalem Niveau
erfolgen. So knnen wir z.B. metrische Grenklassen bilden und diese durch eine skalensenkende Transformation ordinal oder nominal abbilden.
Verhltnisskala

(5 Grenklassen)

bis 140 cm
ber 140 bis 160 cm
ber 160 bis 180 cm
ber 180 bis 200 cm
Ober 200 cm

Ordinalskala

(5 GrOenrnge)

1
2
3
4

sehr klein
klein
mittelgro
gro
5 sehr gro

Nominalskala

(2 GrOenklassen)

normgerechte Gr e

(I50 cm bis 190 cm)

2 nicht normgerechte Gr e
(unter 150 oder Ober 190 cm)

10

I Deskriptive Statistik

1.3.2

Klassifikation in diskrete und stetige Merkmale

Neben der Untergliederung bezglich der Skalierung ist die Einteilung in diskrete
und stetige Merkmale von Bedeutung. Wir bezeichnen ein Merkmal als diskret,
wenn es nur endlich viele oder hchstens abzhlbar unendlich viele unterschiedliche Ausprgungen annehmen kann. Allgemein knnen alle nominal- und ordinalskalierten Merkmale als diskret angesehen werden. Auch metrisch skalierte
Merkmale knnen diskret sein, wenn sie nur isolierte Zahlenwerte annehmen. Dies
ist typischerweise der Fall, wenn ihnen ein Zhlvorgang zugrunde liegt.
Beispiel I 1-7

Diskrete Merkmale

Typische diskrete Merkmale sind die Anzahl der Studenten an einer Hochschule oder die
Anzahl der Einwohner eines Landes. Betrachten wir das Merkmal Einwohnerzahl nher, so
sind Ausprgungen von 1 bis n mit nE W mglich. Es knnen also beispielsweise Werte
wie 50 oder 51, aber keine beliebigen Zwischenwerte wie 50,5 o. . auftreten.
Im Gegensatz zu diskreten Merkmalen sprechen wir von stetigen Merkmalen,
wenn in einem bestimmten Intervall jeder beliebige Wert angenommen werden
kann, wobei die Intervallgrenzen auch offen sein knnen. Dies gilt in der Regel fr
Merkmale, denen ein beliebig genauer Messvorgang zugrunde liegt.

Beispiel I 1-8

Stetige Merkmale

Lebensdauern, Lngen, Breiten und Hhen sowie Fllgewichte sind typische stetige
Merkmale. Fr das Beispiel FOligewicht knnen so etwa 5 kg oder 6 kg, aber auch beliebige Zwischenwerte wie 5,1 kg oder 5,25 kg bei einer Messung festgestellt werden.

Hufig werden aus Zweckmigkeitsgrnden bei der Datenauswertung diskrete


Merkmale mit sehr vielen Ausprgungen (z.B. Umstze) als stetig betrachtet. Wir
bezeichnen solche Merkmale als quasistetig. Umgekehrt knnen stetige Merkmale
durch sog. Klassierung (Gruppierung) als diskrete Merkmale behandelt werden
(vgl. Abbildung I 4). Dies ist Z.B. blich, wenn der Datenerhebung nur ein sehr
grober Messvorgang zugrunde liegt. Anstelle des genauen Merkmalswertes wird
nur noch das Intervall angegeben, in welches der Wert fllt. Hierauf werden wir im
Rahmen des Abschnitts I 2 zu Hufigkeitsverteilungen noch genauer eingehen.
Klassierung

Stetiges Merkmal
(Ld.R. Messvorgang)

Diskretes Merkmal
(Ld.R. Zhlvorgang)
Quasistetigkeit

Abbildung I 4: Stetige und diskrete Merkmale

11

1. Grundbegriffe

1.3.3

Klassifikation in qualitative und quantitative Merkmale

Neben den bisherigen Klassifizierungen knnen wir Merkmale auch in qualitative


und quantitative Merkmale unterteilen. Quantitative Merkmale sind Merkmale,
deren Ausprgungen Zahlen sind. Qualitative Merkmale hingegen besitzen in der
Regel Ausprgungen, die durch einen verbalen Ausdruck charakterisiert sind. Dies
bedeutet also, dass nominalskalierte Merkmale als qualitativ und metrisch skalierte
Merkmale als quantitativ zu betrachten sind. Ordinalskalierte Merkmale hingegen
knnen nicht genau zugeordnet werden.
Werden die Ausprgungen qualitativer Merkmale durch Zahlen ersetzt, wird dieser
Vorgang als Quantifizlerung bezeichnet. Aus dem qualitativen Merkmal wird also
(nur uerlich) ein quantitatives. Bei der statistischen Auswertung des Datenmaterials ist jedoch zwischen einem echt quantitativen Merkmal und einem quantifizierten Merkmal zu unterscheiden.
Beispiel I 1-9

Quantitative und quantifizierte Merkmale

Fr das verhltnisskalierte und damit quantitative Merkmal Einkommen liegen nach Befragung zweier Personen die Ausprgungen 1.000 und 3.000 vor. Es kann also ein
Durchschnittseinkommen von 2.000 angegeben werden.
Fr dieselben Personen haben sich die Religionszugehrigkeiten 1 und 3 (vorherige Quantifizierung: 1 = katholisch, 2 = evangelisch, 3 = sonstige) ergeben. Hier von einer "mittleren
Konfession" 2 zu sprechen ware unsinnig. Trotz Quantifizierung bleibt die Religionszugehrigkeit ein nominalskaliertes Merkmal, sodass lediglich Vergleiche der Merkmalsausprgungen zulssig sind.

2.

Eindimensionale
Hufigkeitsverteilungen

Thema dieses Abschnitts ist die Auswertung eindimensionalen (univariaten) Datenmaterials, d.h. Daten zu einem einzigen Merkmal einer Grundgesamtheit oder Stichprobe. Der erste Schritt besteht dabei im Auszhlen von Hufigkeiten, mit der die Ausprgungen des interessierenden Merkmals einzeln oder in Klassen zusammengefasst
auftreten. Dies liefert uns die sog. Hufigkeitsverteilung. In einem zweiten Schritt knnen
wir Mazahlen berechnen, die diese Hufigkeitsverteilung charakterisieren. Mazahlen
geben zwar einen kompakten berblick ber wesentliche Eigenschaften einer Hufigkeitsverteilung, doch lassen sich in grafischen Darstellungen oft Strukuren im Datenmaterial erkennen, die Mazahlen nicht widerspiegeln. Gerade daher empfiehlt es sich, tabellarische und grafische Darstellungen von Hufigkeitsverteilungen mit ihren Mazahlen zu
kombinieren, um das vorliegende Datenmaterial mglichst gut zu beschreiben.

2.1

Hufigkeitsverteilung
Das Auszhlen der Hufigkeiten von Ausprgungen diskreter Merkmale und derer
stetiger (bzw. quasistetiger) Merkmale erfordert unterschiedliche Vorgehensweisen.
Bei diskreten Merkmalen (mit nicht zu vielen unterschiedlichen mglichen Ausprgungen) kommen im auszuwertenden Datenmaterial die einzelnen Ausprgungen
meist mehrmals, d.h. bei mehreren Merkmalstrgem vor. Bei stetigen (und quasistetigen) Merkmalen ist das mehrmalige Auftreten hingegen nicht die Regel.

2.1_1

Hufigkeitsverteilung bei diskreten Merkmalen

In statistischen Erhebungen werden von einer Grundgesamtheit mit insgesamt N

Elementen (Merkmalstrgem) in der Regel genau n Elemente (Stichprobe) hinsichtlich eines einzigen Merkmals X untersucht. Die durch die Stichprobe gewonnenen
Werte ~, ~, ... , ~ bezeichnen wir als Beobachtungswerte. Durch Aneinanderreihung aller Beobachtungswerte erhalten wir die sog. Beobachtungsreihe oder Urliste. Anders ausgedrckt ist die Urliste das n-Tupel (x" x" ... , x,,) aller n Beobachtungswerte.
Zur Aufbereitung dieses Datenbestandes bzw. der Urliste empfiehlt es sich, die
Hufigkeitsverteilung des Merkmals X zu gewinnen. Dazu bentigen wir die absoluten und relativen Hufigkeiten, der in der Urliste vorkommenden individuellen
Merkmalsausprgungen von X. Wir bezeichnen diese Merkmalsausprgungen mit
all a 21 ... , ~, d.h. wir gehen davon aus, dass in der Stichprobe genau k verschiedene Ausprgungen des Merkmals X auftreten und k nicht ZU gro ist. Wir knnen
damit fr die gesuchten Hufigkeiten die folgenden Zusammenhnge festhalten:
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_2, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

14

1. Absolute Hufigkeit
Unter der absoluten Hufigkeit h(a,) verstehen wir die Anzahl von Elementen der
Urliste, die auf eine bestimmte Merkmalsausprgung a; entfallen.
Es gilt allgemein
(12: 1)
und
k

h(a,) + h(a,) + ... + h(ak ) = ~>(aj) = n.

1_'

(12: 2)

Der Wert der absoluten Hufigkeit muss also nach (12: 1) zwingend grer oder
gleich Null und kleiner oder gleich der Gesamtzahl n der Elemente der Urliste sein.
Zudem ergibt nach (12: 2) die Summe aller absoluten Hufigkeiten stets n.
2. Relative Hufigkeit
Dividieren wir die absoluten Hufigkeiten h(a,) durch die Gesamtzahl der Elemente
n, so erhalten wir die relative Hufigkeit

f(a.) = h(a j )
J

(12: 3)

fr die
(12: 4)
und
k

f(a,) + f(a,) + ... + f(a,) = Lf(aj) = 1

1_'

(12: 5)

gilt. Da die relative Hufigkeit f(a,) nichts anderes angibt als den Anteil, mit dem a,
in der Stichprobe des Umfangs n vertreten ist, liegt f(a,) nach (12: 4) logischerweise
stets zwischen 0 und 1 oder stimmt mit diesen Werten berein. Zudem muss die
Summe aller Anteilswerte zwingend 1 ergeben, was (12: 5) zum Ausdruck bringt.
Relative Hufigkeiten werden hufig auch in Prozent angegeben. Ihre Summe liegt
dann bei 100 %.
Unter der absoluten HufigkeitsverteiIung verstehen wir nun nichts anderes als
die Paare (a" h(a~) mit j - 1,2, ... ,k und unter der relativen Hugkeitsvertellung
die Paare (al' f(a~) mit j = 1,2, ... ,k. Die einzelnen Merkmalsausprgungen aj werden

in einer Hufigkeitsverteilung meist zur besseren bersicht in aufsteigender Reihen-

folge sortiert.
Hufigkeitsverteilungen knnen wir bersichtlich in Fonn von Hujlgkeitstabellen
darstellen. Es empfiehlt sich dabei die Verwendung der in Abbildung I 5 skizzierten
Struktur. Wir erkennen daran recht schn, dass die Eigenschaften (12: 2) und (12: 5)
von absoluten und relativen Hufigkeiten hier als Spaltensummen berprfbar
sind. Fr eine anschauliche Tabellengestaltung empfiehlt es sich, mit mglichst
wenig Linierungen zu arbeiten, um die Tabelle optisch nicht zu berfrachten.

15

2. Eindimensionale Hlufigkeitsverteilungen

Laufende

ausprgung

HufIgkeit

absolute

relative
Hufigkeit

hCa,)

Merlanal>-

N~

h(a\)

"
"

hCa,)

fCa,)
fCa,)
fCa,)

a,.

hCa,)

fCa,)

Abbildung I 5: Hufigkeitstabelle

Bel.plell 2-1

Tabellarische Darstellung einer Hufigkeilsverteilung

Anlsslich einer Mitarbeiterstatistik wurde in einer Abteilung eines Unternehmens das Aller
X von n _ 25 Mitarbeitern erfasst. Dabei ergab sich die folgende Urliste:
XI In Jahren

23
25
23
29

1
2

3
4

5
6
7
8
9

10

XI In Jahren

11

12
13
14

35

25
23
25
29

I.

23
25
29
25
29
25
23

15

16

17

20
21
22
23
24
25

35

XI In Jahren

35

25
23

35

25
29
25

25

18

Wir erkennen daran, dass in der Stichprobe lediglich die k '" 4 Ausprgungen 23, 25, 29
und 35 des Merkmals X auftauchen. Durch Auszhlung dieser Ausprgungen erhatten wir
die absoluten Hufigkeiten. Diese liefern dividiert durch n - 25 schlielich die relativen
Hufigkeitsn. Wir kOnnen damit die Hufigkeitsverteilung tabellarisch wie folgt darstellen:
Laufende
Nummer
j

1
2
3
4

Merkmalsausprgung

a,
23
25
29
35

Absolute
Hufigkeit
h(~)

6
10
5
4
25

Relative
Hufigkeit

f(a,

0,24

0,40
0,20
0\16

Prozentwert

100 %. f(aJ

24%
40%
20%
16%

100%

Alternativ zur Hufigkeitstabelle kann die Darstellung der absoluten und relativen
Hufigkeitsverteilung auch grafisch in Form eines Piktogranunes, Stab- oder Sulendiagrammes, Hufigkeitspolygons oder Kreissektorendiagrammes erfolgen. Auch
wenn sich in der Praxis berwiegend das Sulendiagramm durchgesetzt hat, wollen
wir im Folgenden dennoch alle Mglichkeiten kurz betrachten:

I Deskriptive Statistik

16
1. PIkIogramm

Wie die Diagrammbezeichnung schon verrt, erfolgt eine Darstellung der Huftgkeiten durch unterschiedliche Anzahl oder Gre von Bildsymbolen.
2. Stobdlogromm
Ein Stabdiagramm (hhenproportionale Darstellung) entsteht durch Eintragung von
Punkten P(al'h(a j )) oder P(al'f(aj )) in ein Koordinatensystem, wobei jeder Punkt
durch eine Senkrechte mit der x-Achse bzw. ~-Achse verbunden wird. Die Lngen
dieser Senkrechten (Stbe) entsprechen daher den absoluten bzw. relativen Hu-

figkeiten. Werden relative Hufigkeiten abgetragen, so muss die Gesamdnge aller


Stbe zusammen gleich 1 sein. Wir knnen daher bei Stabdiagrammen fr relative
Hufigkeiten immer den gleichen Mastab auf der y-Achse whlen. Dies bietet sich
insbesondere beim Vergleich der Ergebnisse mehrerer Stichproben an.
3. HlJ'gkeltspolygon

Wie bei der Konstruktion eines Stabdiagrammes werden hier zunchst entweder
die Punkte P(al'h(aj )) oder P(apf(a j )) in ein Koordinatensystem eingetragen. Im
Anschluss daran werden diese durch Geraden verbunden.

4. Snlendfagramm
Im Vergleich zum Stabdiagramm werden beim Sulendiagramm (flchenproportionale Darstellung) die Hufigkeiten durch Flchen (Rechtecke) und nicht durch
Strecken abgebildet. Um eine Verwechslung mit einem Histogramm (vgl. Abschnitt
I 2.1.3) ZU vermeiden, ist ZU beachten, dass die Rechtecke nicht aneinanderstoen.

5. Kreblscktore~
Hier wird zu jeder Merkmalsausprgung ar ein Kreissektor gebildet, wobei die
Flchen der Sektoren und damit auch die Innenwinkel proportional ZU den Hufigkeiten gewhlt werden. Dazu muss fO.t den Innenwinkel ~ des j-ten Sektors

a j = 3600 ((a j )

Bit

(12: 6)

gelten. Kreissektorendiagranune eignen sich besonders gut fr nominalskalierte


Merkmale, da hier die Merkmalsausprgungen nicht auf einem Zahlenstrahl abgetragen werden mssen und somit aufgrund ihrer Anordnung nicht flschlicherweise
eine Rangfolge vermutet wird.

Beispiel I 2-2

Grafische Darstellung einer HAuflgkeltsvenellung

Eine Untersuchung aber die Industriesektorenzugehrigkeit von Untemehmen in einer bestimmten Region liefene das Ergebnis, dass 25 % der Unternehmen zum primren (P),
25 % zum sekundren (S) und 50 % zum teniAren Sektor (1) zahlen. Auch wenn bei einem
deranig einfach Oberschaubaren Resultat eigentlich keine grafische Darstellung erforderlich ist, wollen wir dieses einfache Beispiel im Folgenden dazu nutzen, die vorhergehend
beschriebenen Darstellungsformen zu veranschaulichen:

1. Piktogramm:
00000

Primrer Sektor

oee@e
o@o@o@ooo@

TenlArer Sektor

SekundArer Sektor

2. Eindimensionale Hufigkeitsverteilungen

17

Zur Konstruktion von Stab- und Sulendiagramm sowie des Hufigkeitspolygons im


Koordinatensystem bentigen wir die Punkte
P,{P; 0,25}

P2{S; 0,25}

PatT; 0,50}.

Wir erkennen daran, dass in derartigen grafischen Darstellungen nicht zwangslufig Zahlenwerte auf der x-Achse abgetragen werden mssen.

2. Stabdiagramm:

0,50

0,25

3. Hufigkeitspolygon:

4. Sulandiagramm:
f{a j }

0,50

0,25

,--

aJ

18

I Deskriptive Statistik
5. Kreissektorendiagramm:
Winkelberechnung:

= 360 f(a,l = 3600,25 = 90


", = 360 f(a,l = 3600,25 = 90
", =360f(a,l = 3600,50 = 180
IX,

2.1.2

Empirische Verteilungsfunktion bei diskreten Merkmalen

Ist ein Merkmal X ordlnal- oder metrisch skallert, dann unterliegen seine Merkmalsausprgungen a, einer Rangordnung. Es ist hier (nur hier) sinnvoll, die absoluten und relativen Hufigkeiten in aufsteigender Reihenfolge der a, zu summieren.
Durch fortlaufende Aufsummierung (Kumulierung) der absoluten Hufigkeiten
einer Huftgkeitsverteilung mit a, < a, < ... < a k lassen sich sog. absolute Summenhufigkeiten oder kumulierte absolute Hufigkeiten
H(x) = H(X S x) = ~>(al)

(12: 7)

i(SX

ermitteln, wobei H(x) die Anzahl jener Merkmalstrger angibt, welche einen Merkmalswert besitzen, der hchstens (kleiner oder gleich) x betrgt. Falls x genau
einem der a, entspricht, sind also lediglich die absoluten Hufigkeiten bis ZU dieser
Ausprgung a, aufzusummieren, d.h. H(a~ = h(a,) + h(a,) + ... + h(a~. Die ungewhnliche Summenschreibweise in (12: 7) wird verwendet, da x auch Werte annehmen kann, fr die kein a, existiert. In einem solchen Fall werden die absoluten
Hufigkeiten aufsummiert, die ZU Merkmalswerten a, gehren, die kleiner als x
sind.
Analog lassen sich sog. relative Summenhufigkeiten oder kumulierte relative Hufigkeiten ermitteln. Fr diese gilt
F(x) = F(X S x) =

L f(a l) ,
J

(12: 8)

~<I

wobei F(x) den Anteil der Merkmalstrger angibt, welche einen Merkmalswert aufweisen, der hchstens x betrgt. Alternativ kann die Bestimmung von F(x) auch
ber den Zusammenhang
F(x) = H(x)
n

(12: 9)

erfolgen. Wir bezeichnen (12: 8) auch als empirische Vertellungsfunktion. Da


fr die Hufigkeitsverteilung a1 < a2 < ... < ak gilt, ist der Funktionswert fr ein
jedes x, welches kleiner als a, ausfllt, unweigerlich Null. Es gibt schlielich keine
Merkmalstrger, die eine Merkmalsausprgung aufweisen, die kleiner als a, ist, da
dies bereits der kleinste Wert im Datensatz ist. Der Funktionswert fr ein jedes beliebiges x, das ber dem grten Merkmalswert a. liegt, ist gleich 1. Der Anteil der-

19

2. Eindimensionale Hlufigkeitsverteilungen

jeniger Merkmalstrger, die eine Merkmalsausprgung von weniger als x aufweisen,


ist schlielich 100 %. Wir knnen also zusammenfassend festhalten, dass die empirische Verteilungsfunktion beschrnkt ist, d.h. 0 :S F(x) :S 1 gilt. Wegen f(~ ~ 0 gilt
auerdem F(a) S ... S F(a) S ... S F(a.,), d.h. die empirische Verteilungsfunktion ist
monoton steigend. Wie wir im Beispiel I 2-3 sehen werden, hat sie auerdem
grafisch die Gestalt einer Treppcnfunktlon, welche bei jedem ~ eine Sprungstelle
mit einem Sprung in der Hhe von f(a;> aufweist.
Bei vorliegenden kumulierten absoluten oder relativen Hufigkeiten knnen wir
natrlich unmittelbar wieder auf die Einzelhufigkeiten schlieen. Es gelten nmlich die Zusammenhnge
und

Beispiel I 2-3

Empirische Verteilungslunktion

In 100 Filialen einer Buchhandlung wurden an einem bestimmten Tag entweder 0, 1, 2


oder 3 Exemplare (Ausprl.gungen des Merkmals Absatzzahl) eines bestimmten Buches
verkauft. Die resultierende Hiufigkeitstabelle, die uns die Huligkeit (absolut und relativ)
der Filialen angibt, in denen es zu den jeweiligen Verkaufszahlen kam, zeigt sich wie folgt:

j
1
2
3
4

h(a,
10
40
20
30
100

a,
0
1
2
3

I(al
0,10
0,40
0,20
0,30
1,00

Ennitteln wir nun zunA.chst die absoluten und relativen kumulierten Hlufigkeiten:

j
1
2
3

IIJ
0
1
2
3

h(IIJ)
10
40
20
30
100

H(IIJ)
10
50
70
100

+-

j
1
2
3
4

1(1IJl
0,10
0,40
0,20
0,30
1,00

F(al
0,10
0,50
0,70
1100

+-

0
1
2
3

Berechnung
h(O)
h(O) + h(1)
h(O) + h(1) + h(2)
h(O) + h(l) + h(2) + h(3)
Berechnung
1(0)
1(0) + 1(1)
1(0) + 1(1) + 1(2)
1(0) + 1(1) + 1(2) + 1(3)

Zur besseren Veranschaulichung der Berechnung einzelner kumulierter Hufigkeiten wollen wir diese nun noch einmal fOr den Wert F(2) Im Detail darlegen:
F(2) - 1(0)+1(1)+1(2) - 0,1+0,4+0,2 - 0,7

oder altemativ

F(2) -

H~2) - 1~~ - 0,7

20

I Deskriptive Statistik
Soll nun beispielsweise der Wert von f(l} aus den relativen kumulierten Hufigkeiten errechnet werden, kann dies wie folgt geschehen:
f(l} = F(I}-F(O} = 0,50-0,10 = 0,40
Wie wir gleich sehen werden, lsst sich dieser Wert auch aus der grafischen Darstellung
der empirischen Verteilungsfunktion ablesen, da in dieser die Sprung hhe zwischen einzelnen Treppenstufen an einer Stelle aj jeweils den zugehrigen Wert f(a~ angibt. Fr die
grafische Konstruktion der empirischen Verteilungsfunktion tragen wir lediglich die Punkte
P(aj, F(a~} in ein Koordinatensystem ein und versehen diese mit Unienzgen:
F(a j }

1,00
0,75

0,50

0,25

Auch die konkrete Funktionsschreibweise der empirischen Verteilungsfunktion knnen wir


angeben. Auerdem knnen wir das in absoluten kumulierten Hufigkeiten formulierte Gegenstck zur empirischen Verteilungsfunktion bestimmen:
0
fr
0,10

x<O
OS x <I

F(x} = 0,50
0,70

I S x <2
2Sx<3

1,00

x2:3

0
10
H(x} =

fr

x<O

oSx <I

50
70

ISx<2
2Sx<3

100

x2:3

Beantworten wir nun mittels dieser beiden Funktionen folgende Fragen:


a}

In wie viel Prozent der Filialen wurden hchstens 2 Bucher verkauft?


Die Antwort auf diese Fragestellung kann direkt als F(2} = 0,70 bzw. als 70 % angegeben werden.

b}

In wie vielen Filialen wurde mindestens I Buch verkauft?


Hier knnen wir die Beziehung n - H(O} = 100 - I 0 = 90 nutzen, d.h. wir subtrahieren
von der Gesamtzahl der Filialen die Anzahl derjeniger Filialen, in denen kein Buch verkauft wurde.

2. Eindimensionale Hufigkeitsverteilungen

2.1.3

21

Klassierte Hufigkeitsverteilung bei stetigen Merkmalen

Liegt ein stetiges (oder quasistetiges) Merkmal X vor, so taucht das Problem auf,
dass die Elemente der Urliste hufig alle voneinander verschieden sind. Das Aufstellen einer "regulren" Hufigkeitstabelle des im Abschnitt I 2.1.1 vorgestellten
Typs bietet hier keinen Infonnationsgewinn, da die meisten Merkmalsausprgungen nur einmal vorkommen. Es empfiehlt sich in einem solchen Fall, die Auspr-

gungen von X in der Stichprobe in k Klassen K; Ci - 1,2, ... , k) einzuteilen und die
zugehrigen Klassenhufigkeiten zu ermitteln. Die absolute KlassenhufIgkeit 11,
ist dabei die Anzahl derjeniger Elemente, deren Merkmalswerte in die Klasse K; fallen. Wir knnen also sagen, dass hier die Klassen

die Rolle der aj aus der "regu-

lren" Hufigkeitstabelle bernehmen. Die relativen Klassenhuflgkeiten


geben sich wieder ber

h
~ =--.L

er-

(12: 12)

und weisen damit die gleichen Eigenschaften wie in (12: 4) und (12: 5) auf. Auch
fr die h, gelten (12: 1) und (12: 2) analog. Zudem sei erwhnt, dass wir auch
kumulierte Klassenhufigkeiten gem der unter I 2.1.2 beschriebenen Vorgehensweise bestimmen knnen.

Wieviele Klassen sinnvollerweise gebildet werden sollten, kann aus DIN 55302
(Blatt 1) entnommen werden. Hier fmden sich unter anderem die Empfehlungen
bei Stichprobenumfngen n von 100, 1.000 und 10.000 eine Anzahl von 10, 13
bzw. 16 Klassen zu whlen. Natrlich kann aus Grnden der bersichtlichkeit der
Darstellung auch bereits bei geringerem n eine Klassierung vorgenommen werden.

Auerdem kann aufgrund des Untersuchungsobjekts auch eine andere Klassenanzahl geeigneter erscheinen.
Um Probleme bei der Zuordnung einzelner Merkmalswerte zu den Klassen zu ver-

meiden, empfiehlt es sich die Klassen K; in der Form aj < x:s; aj bzw. Jaj, ajl Zu
definieren. Jede Klasse K; ist damit gekennzeichnet durch eine Klassenuntergrenze aj und eine Klassenobergrenze aj. Da die einzelnen Klassen direkt ineinander bergehen, entspricht bei k Klassen die Untergrenze einer Klasse jeweils
der Obergrenze der vorhergehenden Klasse.

Ci = 2,3, ... ,k)

(12: 13)

Die Untergrenze der ersten Klasse knnen wir anhand des kleinsten Merkmalswerts

der Stichprobe whlen. Hufig wird sie auch auf Null gesetzt. Die letzte Klasse Kk
besitzt hufig eine Form a~ < x < 00 bzw. Ja~, oo[ und wird als offene Randklasse
bezeichnet. Dies bedeutet, dass in diese Klasse alle Merkmalsausprgungen fallen,
die grer als a~ sind.
Die sog. Klassenbreite Aa j der j-ten Klasse, die nach Mglichkeit durchgehend
einheitlich (konstant) gestaltet werden sollte, ist (auer fr offene Randklassen) als

Ci = 1,2, ... ,k)

(12: 14)

definiert. Bei der Wahl konstanter Klassenbreiten sind jedoch hufig manche Klas-

sen sehr schwach besetzt. Dies trifft vor allem auf die Randklassen zu. Dann ist es
evtl. sinnvoll, diese Klassen breiter zu whlen.

I Deskriptive Statistik

22

Besonders fr die im Kapitel I 2.2 behandelnden Messzahlen ist es von entscheidender Wichtigkeit, jeder Klasse ~ einen reprsentativen Zahlenwert zuzuordnen.
Dazu bietet sich die K1assen mJtte aj an, fr welche (auer bei offen Randklassen) folgendes gilt:
u
aM
J =.!Ca
2 J

+aO)
J

C'J= 1,2, ... , k)

Die Kombination der Klassen ~ mit ihren Klassenhufigkeiten ~ bzw. ~ bildet die
JdassJertc lIiufigkc:ltsve des Merkmals X. Wieder haben wir die Mglichkeit einer tabellarischen Darstellung. Abbildung I 6 veranschaulicht eine typische klassierte Hufigkeitstabelle.
Klassenn""""",

"""'"

Klassenbreite

Klassenmltte

ber aj' bis aj

a"

K,

absolute

relative

h,

~
~

"""oen- hufigkeit
"""oenhufigkeit

1a~. a~]

da,
da,

Ja~, a~]

Aa,

a",

h,
h,

~_I' a~]

Aa,

a"

h,

f,

a",

l:

Abbildung I 6: Hufigkeitstabelle bei klassierten Daten

Bit

Beispiel I 2-4

Hiiufigkeitstabelle bei klassierten Daten

Nehmen wir an, eine Erhebung in 47 amerikanischen Staaten ergab folgende Anzahlen
polizeilich gemeldeter Straftaten bezogen auf 100.000 Einwohner:

79,3 163,4 57,8 196,1 123,5 68,1 96,3 155,8 85,3 70,9 167,4 84,8 51,2 66,4 79,1
94,3 53,1 92,475,1 122,574,843,3 121,996,552,7 199,1 34,2 121,6 104,569,3

37,775,9 107,2 92,4 65,1 127,683,356,582,8 115,888,1 54,282,4 103,0 44,5


50,8 84,9
Eine erste Untersuchung des Datenmaterials zeigt, dass die kleinste KriminalitAtsrate bei
34,2 und die grte bei 199,1 liegt. Die Mehrzahl der Staaten verzeichnete Kriminalitiilsraten im Bereich von 50 bis 120. Um sich einen genaueren berblick. zu verschaffen, bietet
sich hier die Aufstellung einer klassierten Hufigkeitstabelle mit Klassenbreiten von 25 an.
Da dabei die entstehende untere Randklasse jedoch nicht besetzt wre, verdoppeln wir
diese und erhalten damit folgende Tabelle (Achtung: Rundungsungenauigkeiten bei relativen Haufigkeitenl):

2. Eindimensionale Hufigkeitsverteilungen

Nr.

Klasse K;

Klassenhufigkeit

Kumulierte
Klassenhufigkeit

absolut

relativ

absolut

hJ

fJ

4
13
16
8
1
5
47

0,09
0,28
0,34
0,17
0,02
0,11
1,00

ber aj bis a;
1
2
3
4
5
6
1:

23

0-50
50 -75
75 - 100
100 - 125
125 - 150
> 150

Klassenbreite

Klassenmitte

aaj

aIm

50
25
25
25
25

25
62,5
87,5
112,5
137,5

relativ

4
17
33
41
42
47

0,09
0,37
0,71
0,88
0,90
1,00

Die grafische Darstellung einer Hufigkeitsverteilung klassierter Daten erfolgt durch


ein sog. Histogramm. Als Darstellungsmittel dienen hier Rechtecke, die ber den
jeweiligen x-Achsen-Abschnitten der Klassen gezeichnet werden. Die Grundlinien
der Rechtecke entsprechen somit den Klassenbreiten. Anders als beim Sulendiagramm fr unklassierte Daten ist es hier nicht sinnvoll, die Hhe der Rechtecke als
Ma fr die Hufigkeiten zu whlen. Bei ungleichen Klassenbreiten entsfnde ein
falscher Eindruck von der Hufigkeitsverteilung.
Der Betrachter eines Histogramms orientiert sich beim Vergleich der Gre zweier

Rechtecke nicht an ihrer Hhe, sondern an ihrem Flcheninhalt. Die Hhe der
Rechtecke ist deshalb so zu whlen, dass ihr jeweiliger Flcheninhalt proportional
zur Klassenhufigkeit ist. Dies wird erreicht, indem als Hhe der Rechtecke die
sog. normierten absoluten oder normierten relativen Klassenhufigkeiten h; bzw.
~. verwendet werden. Diese ergeben sich zu
h
h J =-'

aaJ

bzw.

=-'-

aal

Cj=1,2, ... ,k).

(12: 16)

Liegen einem Histogramm normierte absolute Klassenhufigkeiten zugrunde, ist die


Gesamtflche aller Rechtecke H = n, im Falle nonnierter relativer Klassenhufigkeiten ist sie F - 1. Es gilt nmlich
k
k h
H = "'h:
aa.J = "'_I
aa.J =n
~ J
~A.~
1"'1

j_1 i l a j

bzw.

k
k
f
F = '"
f' . aa.J = L..
'" _I
. aa.J = 1.
~ J
A..~

1..1

)..1 Ui:L j

Da im Histogramm relativer Hufigkeiten unabhngig vom Stichprobenumfang n


die Flche immer auf 1 normiert ist, eignet sich dieses insbesondere beim Vergleich
verschiedener Datenstze mit unterschiedlichen Stichprobenumfangen. Wir bezeichnen die normierten relativen K.lassenhufigkeiten auch als Hufigkeitsdichten.
Beispiel I 2-5

Histogramm

Fr 200 Unternehmen einer Region wurden jeweils die Mitarbeiterzahlen erfasst, dafr
Klassen unterschiedlicher Breiten gebildet und die jeweiligen Hufigkeiten ausgezhlt. Die
Ergebnisse sind in nachfolgender Tabelle zu sehen. Darin sind auerdem bereits die normierten absoluten und relativen Klassenhufigkeiten berechnet, die wir zur Konstruktion
der Histogramme bentigen. Die Berechnungen bereiten hier keine sonderlichen Schwie-

24

I Deskriptive Statistik
rigkeiten. Wre jedoch eine offene Randklasse enthalten, so knnten wir keine Klassenbreite und damit auch keine normierten Klassenhufigkeiten fr unser Histogramm
bestimmen. In einem solchen Fall behelfen wir uns in der Praxis meist damit, einen knstlichen Hchstwert fOr die Klasse festzulegen, der sich am grten Wert der Stichprobe
orientieren kann.
Nr.

1
2
3
4
5

Klasse K;

Klassenbreite

Klassenhufigkeit
absolut

relativ

ber ai bis aj

hl

fl

1-2
2-5
5 -10
10 - 20
20 - 40

40
60
30
30
60
200

0,20
0,30
0,15
0,15
0,20
1,00

Normierte
Klassenhufigkeit
absolut

relativ

MI

h'

1
3
5
10
20

40
20
6
3
2

0,200
0,100
0,030
0,015
0,100

Wir erhalten aus diesem Datenmaterial folgende Histogramme:

fI

h'
I

40

0,2

20

0,1

10

20

40

30

10

MitarbeitelZahl

20

30

40

MitarbeitelZahl

Htten wir nur ein Sulendiagramm konstruiert, welches als Sulenhhen die nichtnormierten relativen Hufigkeiten verwendet, so wiirden wir ein vllig anderes Bild von der Hufigkeitsverteilung vermitteln:

fl

0,4
0,2
O'-------------~

]1,2]

]2,5]

]5,10]

]10,20] ]20,40]

MitarbeitelZahl
In der Praxis werden Histogramme gelegentlich auf sog. Hiiufigkeitspolygone reduziert.
Solche erhalten wir durch Verbinden der Mittelpunkte der oberen Sulenseiten. Sie kommen insbesondere dann zum Einsatz, wenn in einer Grafik verschiedene Haufigkeitsverteilungen miteinander verglichen werden sollen. Im hier vorliegenden Fall htte das
Hufigkeitspolygon folgende Gestalt:

2. Eindimensionale Hufigkeitsverteilungen

25

f1
0,2

0, 1

.~

~,

\-

..
Mitarbeiterzahl

Zur Interpretation eines Histogramms:


Im vorliegenden Beispiel ist eine recht einfache Interpretation des Histogramms mglich.
Das zugrunde liegende Merkmal X (Mitarbeiteranzahl) ist diskret und kann nur natUr/iche
Zahlen 1,2,3, ... als Ausprgungen annehmen. Whlen wir auf der x-Achse des Histogramms einen beliebigen ganzzahligen Wert wie z.B. 15, kann auf der y-Achse eine dazugehrige Hufigkeitsdichte abgelesen werden. Diese ist interpretierbar als diejenige Hufigkeit, die wir beim Auszhlen der unklassierten Daten erhalten htten, wenn die beobachteten Werte innerhalb der Klassen vollstndig gleichmig verteilt wren. Eine solche
Interpretation ist allerdings unzulssig, wenn ein Merkmal vorliegt, das auch nichtganzzahlige Werte annehmen kann. Dies gilt insbesondere fOr stetige Merkmale. Auch wenn wir
ein diskretes Merkmal mit nur natOrlichen Zahlen als Ausprgung vorliegen haben, werden
wir in der Praxis von der hier geschilderten Interpretation Abstand halten, da in der Mehrzahl der Flle nicht davon ausgegangen werden kann, dass eine Gleichverteilung innerhalb der Klassen gegeben ist.

Analog zu "regulren" Hufigkeitsverteilungen knnen wir auch fr klassierte Daten


eine empirische Venellungifunktlon bestimmen und skizzieren. Es bernehmen ja,
wie bereits angemerkt, die Klassen K, die Rolle der a,.
Beispiel I 2-6

Empirische Verteilungsfunktion bei klassierten Daten

Skizzieren wir fOr unser Beispiel I 2-5 die empirische Verteilungsfunktion. Wir bentigen
dazu zunchst die kumulierten relativen Klassenhufigkeiten Fj, die wir in der folgenden
Tabelle bestimmen:

ber a~ bis af
1
2
3
4
5
E

1-2
2-5
5 -10
10 - 20
20 - 40

fl

F1

0,20
0,30
0,15
0,15
0,20
1,00

0,20
0,50
0,65
0,80
1,00

Die empirische Verteilungsfunktion erhalten wir damit grafisch wie folgl. Die Sprung hOhen
sind nun relative Klassenhufigkeiten IJ.

26

I Deskriptive Statistik

FJ

1,0
0,8

............

0,6

0,4
0,2

10

20

30

40

Mitarbeiterzahl

In der Literatur fmdet sich auerdem gelegentlich der Vorschlag die empirische
Verteilungsfunktion klassierter Daten durch ein sog. Summenpolygon abzubilden.
Dazu werden die Punkte P(a~, FJ), d.h. die Klassenobergrenzen mit zugehrigem
kumulierten relativen Klassenhufigkeitswert, in ein Koordinatensystem eingetra-

gen. Unter der Annahme, dass die Elemente innerhalb einer Klasse gleichmig
verteilt sind, drren diese Punkte linear miteinander verbunden werden. Der so

entstehende stetige Graf heit schlielich Summenpolygon.


Beispiel 12-7

Summenpolygon

Das Summenpolygon zu Beispiel I 2-5 bzw. I 2-6 hat folgende Gestalt:

1,0
0,8
0,6
0,4
0,2

10

20

30

40

Mitarbeiterzahl

2.1_4

Typische Hufigkeitsverteilungen

Bei der Beschreibung von Datenmaterial mittels tabellarischer oder grafischer


Hilfsmittel finden sich intmer wieder typische Formen von Hufigkeitsverteilungen.
Wichtige Charakteristika dieser Sttukturen sind z.B. die Anzahl der Gipfel, die Symmetrie und die Streuung. Wir unterscheiden

2. Eindimensionale Hufigkeitsverteilungen

27

nach Anzahl der Gipfel:


Verteilungen ohne Gipfel (z.B. Gleichverteilung)
Verteilungen mit einem Gipfel (unimodiale Verteilungen)
Verteilungen mit mehreren Gipfeln (multimodiale Verteilungen)

nach Symmetrie:

symmetrische Verteilungen (z.B. unimodial-symmetrisch, U-fnnig)


unsymmetrische Verteilungen (z.B. linksschief, rechtsschief)

nach Streuung:

geringe Streuung (Daten konzentrieren sich um ein Datenzentrum)


groe Streuung (Daten streuen sehr stark um ein Zentrum)
Diese Charakteristika knnen wir grafisch gut mittels Stab- und Sulendiagrammen
oder Histogrammen (vgl. Abbildung I 7) veranschaulichen. Sie knnen aber auch
zahlenmig mit Hilfe von Mazahlen beschrieben werden. Dies ist Thema von
Abschnitt I 2.2.
unimodal,

rechtsschief

unimodal,
linksschief

groe Streuung

unimodal,
geringe Streuung

GleichverteUung

bimodal

unimodal,

Abbildung I 7: Histogramme typischer Hufigkeitsverteilungen

unimodal,

symmetrisch

28

I Deskriptive Statistik

2.1.5

Quantile

In diesem Abschnitt wollen wir kurz den Begriff des Quantils (auch als FraktiJ
bezeichnet) einfhren. Wir werden im Abschnitt I 2.2 sehen, dass wir Quantile sowohl zur Beschreibung der Lage als auch der Streuung von Hufigkeitsverteilungen
einsetzen knnen. Aufgrund ihrer hohen praktischen Bedeutung wollen wir ihnen
jedoch bereits an dieser Stelle einen eigenen Abschnitt widmen.
Liegt eine der Gre nach aufsteigend sortierte Urliste (x, < x, < ... < x n ) und ein
vorgegebener Anteilssatz a mit 0 < a < 1 vor, so bezeichnen wir eine Zahl Xa als aQuantil oder (IOOa) %-Quantil, wenn mindestens (IOOa) % der Werte der Urliste
kleiner oder gleich und mindestens 100{1-a) % grer oder gleich Xa sind.
Ist das produkt an aus dem vorgegebenen Anteilssatz und der Anzahl der Elemente der Urliste nicht ganzzahlig, so ist das a-Quantil der Beobachtungswert, der auf
den an-ten folgt. Ist an hingegen ganzzahlig, besteht in der Literatur Uneinigkeit
darber, ob der an-te Beobachtungswert (Variante A) oder der Mittelwert aus der
an-ten und der (an+l)-ten Beobachtung der Urliste (Variante lJ) als a-Quantil
gelten soll. Vorteil von Variante B ist, dass ein so ermittelter Zahlenwert die Urliste
exakt im Verhltnis a zu 1-a teilt. Als nachteilig wird jedoch zumeist angesehen,
dass ein nach Variante B ermittelter Wert in der Urliste gar nicht existiert. Soll ein
echter Beobachtungswert als Quantil dienen, ist auf Variante A zurckzugreifen,
wobei das genannte exakte Teilungsverhltnis hiermit aber nicht erreicht wird.
Je nach Ausprgung von a haben sich in der Literatur verschiedene Bezeichnungen
und auch Symboliken fr Quantile eingebrgert:

Quartile:

Ql

= X O,25 ,

Q2

= X O,50'

Q3

= X O,75

Dezlle:
XO,lO' X O,20' ...
perzentile: XO,Ol' X O,02' .
Die bedeutendsten Quantile sind die QuartiJe. Wir bezeichnen Q, als unteres oder
erstes, Q, als mittleres oder zweites und Q, als oberes oder drittes Quartil. Quartile
teilen die Daten in vier etwa gleichgroe Teilgesamtheiten ein. Betrachten wir dazu
das Beispiel in Abbildung I 8.

-- ~- - ~- -~- - - ~ - - ~ - - ~ - -- - I-t- I- I-t- I- I-t- I-Q,

Q,

Q,

Q,

Q,

Sortierte Beobachtungen
einer Urliste mit n = 11

Variante A

Q,

Variante B

Q,

Q,

Abbildung I 8: Quartile in der Urliste

Q,

Sortierte Beobachtungen
einer Urliste mit n = 12

2. Eindimensionale Hufigkeitsverteilungen

29

Im Falle der ungeraden Urltste mit n = 11 ist das Produkt aus n und 0,25, 0,50 bzw.

0,75 jeweils nicht ganzzahlig, sodass wir den dritten, sechsten und neunten Beobachtungswert als Q" Q, und Q, erhalten. 3/11 - 27,27 % der Beobachtungen sind
kleiner oder gleich Q, und 9/11 = 81,81 % sind grer oder gleich Q,. Analoges gilt
fr Q, und Q,. In der geraden Urliste mit n = 12 erhalten wir nach Variante A die
Quantile Q" Q, und Q, als den dritten, sechsten und neunten Beobachtungswert.
3/12 = 25 % der Beobachtungen sind kleiner oder gleich Q, und 10/12 = 83,33 %
sind grer oder gleich Q,. hnliches gilt fr Q, und Q,. Nach Variante B erhalten
wir Q, hingegen als Mittelwert aus der dritten und vierten Beobachtung, sodass
3/12 = 25 % links und 9/12 = 75 % der Beobachtungen neben diesem gemittelten
Wert liegen. Er existiert zwar nicht als Beobachtung in der Urliste, erlaubt jedoch
eine exakte 25-75-Einteilung der Urliste. hnliche Aussagen knnen wir auch ber
die nach Variante B bestimmten Quartile Q, und Q, machen.
Beispiel I 2-8

Quartile aus Urlisten

Die Auszhlung der Kassenbestnde in 11 Filialen einer Supermarktkette ergab folgende


gerundete und bereits der Gre nach sortierte Euro-Werte:
420 430 440 440 500 550 700 700 800 950 990
Bestimmen wir das 25 0/0-, 50 0/0- und 75 O/O-Quantil bzw. das untere (Q,), mittlere (0.) und
obere (Q,) Quartil aus dieser Urliste. Da aufgrund von n = 11 das Produkt Cln hier keine
ganze Zahl ergeben kann, runden wir Cln zur nachsten ganzen Zahl auf. Wir erhalten:

Q, ist der 110,25 = 3-te Beobachtungswert, d.h. Q, = 440 .

0. ist der 11 0,50 = 6-te Beobachtungswert, d.h. Q, = 550 .

Oa ist der

11 0, 75 = 9-te Beobachtungswert, d.h.

Oa = 800 .

Bei der Ermittlung von Quantilen aus Hufigkeitstabellen ist minimal anders vorzugehen, wie folgendes Beispiel zeigt. Hier ist entweder "im Hinterkopf" die Urliste
aus der Hufigkeitstabelle zu rekonstruieren oder die empirische Verteilungsfunktion zur Quantilsbestimmung heranzuziehen.
Beispiel I 2-9

Quartile aus Haufigkeitstabellen

Eine Fertigungsabteilung hat Ober einen Zeitraum von 30 Tagen die Anzahl von Ausschussteilen je Fertigungstag ermittelt. Dazu ergab sich folgende Hufigkeitstabelle:

1
2
3
4
5

Ausschussteile
a,
0

1
2
3

10

Anzahl der Tage mit aj Ausschussteilen


h(a~

6
6
9
3
6
30

f(a.)
0,20
0,20
0,30
0,10
0,20
1,00

F(a~

0,20

0,40
0,70
0,80

1,00

Ermitteln wir das 25 0/0-, 50 0/0- und 75 O/O-Quantil. Da fr Q, und Q, sowohl 0,25 . 30 = 7,5
als auch 0,75 . 30 = 22,5 nicht ganzzahlig sind, bestimmen wir diese nach der beschriebenen Aufrundungsmethodik. Bei Q, haben wir die Wahl zwischen den Varianten A und B.

30

I Deskriptive Statistik

0, ist der 0,2530 = 8-te Beobachtungswert, d.h. 0, = I Stck.

a. ist entweder der

0,5030 =15-te Beobachtungswert (Variante A), sodass 02 = 2


Stck, oder der Durchschnitt aus 15-tem und 16-tem Beobachtungswert (Variante B),
sodass 02 = (2 + 2)/2 = 2 Stck. Es spielt hier also keine Rolle, welches Verfahren wir
heranziehen.

Os ist der 0,75 30 = 23-te Beobachtungswert, d.h. Os = 3 StOck.


Diese Ouantile knnen wir auch mittels der empirischen Verteilungsfunktion bestimmen,
deren wesentliche Werte (die kumulierten relativen Hufigkeiten) in unserer Ausgangstabelle enthalten sind. 0, ist diejenige Ausprgung von al, fOr die F(x) den Wert 0,25 erreicht bzw. berschreitet. Fr 02 und 03 gilt selbiges fOr die Werte 0,50 und 0,75.
Im Falle klassierter Daten bedienen wir uns ebenfalls der empirischen Verteilungsfunktion zur Quantilsfindung. Als Ergebnis erhalten wir hier jedoch eine Klasse. Bei
der Verwendung eines konkreten Wertes aus der Klasse als Quantil besteht wieder
das Problem, dass das so bestimmte Quantil als Beobachtung in der Urliste vielleicht nicht existiert.

Beispiel I 2-10

Ouartile aus klassierten Hufigkeitstabellen

Nehmen wir an, uns liegt der folgende Auszug aus einer klassierten Hufigkeitstabelle vor:

aber
I
2
3
4
5

aj bis aj

0-100
100-200
200 - 300
300 - 400
400 - 500

aIm

Fj

50
150
250
350
450

0,20
0,25
0,70
0,80
1,00

Da die kumulierten Klassenhufigkeiten fOr Klasse 2 den Wert 0,25 erreichen, bestimmt
diese das Ouartil 0,. Wir knnen daher 0, = 200 angeben. Analog erhalten wir
= 250
und 03 = 350. Diese Ouartilsfindung knnen wir anschaulich im Summenpolygon der klassierten Hufigkeitsverteilung skizzieren. Ouartile werden darin dadurch gefunden, dass zunchst horizontale Linien bei 0,25, 0,50 und 0,75 eingezeichnet werden. Von den Schnittpunkten dieser Linien mit dem Summenpolygon werden dann Lote auf die x-Achse gefllt,
um so das entsprechende Ouartil ablesen zu knnen.

a.

1,00
0,75
0,50
0,25

250

500

2. Eindimensionale Hlufigkeitsverteilungen

31

2.2 Mazahlen
Neben Huflgkeitstabellen und Diagrammen knnen wir zur Beschreibung von
Hufigkeitsverteilungen auf statistische Mazahlen (Parameter) zurckgreifen. Sie
bringen die wichtigsten Charakterisika einer Verteilung zum Ausdruck und lassen
sich grob in Lage-, Streuungs-, Schiefe- und Konzentrationsparameter einteilen (vgl.
Abbildung I 9). Da mit der Berechnung von Mazahlen eine Verdichtung der Daten
und damit auch ein Infonnationsverlust verbunden ist, erlauben einzelne Mazahlen keinen Rckschluss auf den Typ der Verteilung. Sie werden erst kombiniert
aussagefhig.

v_

_rte

Lageparameter (Mittelwerte)

Komcntrationsparamctcr

Kennzeichnung des Zentrum/l eJner

Beschreibung der Verteilung der


Merkma.ls5urmne auf bestimmte

Statistische
Mazahlen

streuongsparameter
CVariabilits-, Variationsmae)
Be3Chreibung der Streuung der

BeschreJbung der Abweichung eJner


Verteilung von der Symmetrie

Einzelwerte um das Zentrum

Abbildung I 9: Statistische Mazahlen


Die Berechnung der Mazahlen bzw. deren Berechnungsformeln unterscheiden
sich je nach vorliegendem Datenmaterial (Urliste, Hufigkeitstabelle, Hufigkeitstabelle mit klassierten Daten). Fr den Fall klassierter Daten sei bereits vorweggenommen, dass hier immer mit einem reprsentativen Wert fr jede Klasse gerechnet wird. Dieser ist in der Regel die Klassenmitte. Da dies allerdings nur als
Nherung angesehen werden kann, ist die Berechnung von Mazahlen aus der DrUste oder der un.klassierten Hufigkeitstabelle zu bevorzugen. Wir greifen auf eine
derartige nherungsweise Berechnung in der Praxis in der Regel nur zurck, wenn
uns nur eine klassierte Huf.tgkeitstabelle (z.B. in statistischen Verffentlichungen)
und weder Urliste noch unklassierte Huf.tgkeitstabelle vorliegen.

2.2.1

Lagaparamatar

Lageparameter dienen der Kennzeichnung des Zentrums einer Verteilung durch lf1
eine einzige Zahl. Gerade diese Komprimierung ennglicht den Vergleich zweier ~
oder mehrerer Gruppen bezglich eines Merkmals (z.B. "In welchem von zwei Betrieben wird durchschnittlich besser verdient?").
Im Folgenden werden der Modus, der Median, das arithmetische Mittel und das

geometrische Mittel nher betrachtet. Es ist zu beachten, dass die Berechnung die-

32

I Deskriptive Statistik

ser Lageparameter von der Skalierung der zugrunde liegenden Daten abhngt. Abbildung I 10 zeigt deutlich, dass gewisse Lageparameter nur bei bestimmten Skalierungen angewendet werden drren. So ist das geometrische Mittel beispielsweise
nur bei verhltnisskalierten Daten sinnvoll.
Nominalskala
Ordinalskala

Modus
Median

Intervallskala
Verhltrtlsskala

artihm. Mittel
geom. Mittel

Es drfen zustzlich nur positive Werte vorliegen.

Abbildung I 10: Lageparameter und Skalierung


Auer mit der Berechnung O.g. Lagemae, werden wir uns mit wichtigen Eigenschaften der Mae auseinandersetzen. Wir werden dabei insbesondere Datentransformationen und Ausreier bzw. ihre Auswirkungen auf die Lagemae errtern.

Transformationen erleichtern uns die inhaltliche Interpretation und vor allem den
Vergleich von Daten, die z.B. in unterschiedlichen Einheiten gemessen werden. So
knnen wir z.B. das Zentrum zweier Umsatzverteilungen, die in verschiedenen
Whrungen errasst wurden, einfacher vergleichen, wenn wir die Beobachtungen
einer Verteilung in die Whrung der anderen umrechnen.
Ausreier stellen einzelne extreme Beobachtungswerte X, dar, die auerhalb des
Intervalls liegen, in dem sich der Groteil der anderen befindet, d.h. die weit vom
Zentrum der Verteilung entfernt liegen. Das Auftreten derartiger Beobachtungen
kann unterschiedliche Grnde haben. Ein Ausreier karm ein untypischer Wert
sein, der sich auf eine Sonderstellung des betroffenen Merkmalstrgers in der
Grundgesamtheit zurckfhren lsst. Ausreier knnen aber auch aufgrund von
Messfehlern entstehen. Besonders bei komplexen Messvorgngen sind Messfehler
ein hufiges Phnomen.
2.2.1.1

Modus

Der auch als dichtester Wert, hufigster Wert oder Modalwert bezeichnete Modus

x,..,. kann bei jedem Skalenniveau einer Merkmalsvariablen X ermittelt werden. Er


ist diejenige Merkmalsausprgung in einer Beobachtungsreihe, die am hufigsten
vorkommt, und ist fr nominalskalierte Merkmale der einzig sinnvolle Lageparameter. Der Modus muss dabei nicht eindeutig sein. Gibt es zwei oder mehr
Merkmalsausprgungen, die die gleiche maximale Hufigkeit aufweisen, dann ist
jeder dieser Werte ein Modus. Wir sprechen dann von einer multimodalen Verteilung. Um die Aussagekraft des Modus zu erhhen, sollte man ihn nur bei eingipfeligen Verteilungen verwenden.

2. Eindimensionale Hufigkeitsverteilungen

33

Modus aus der Urliste:

Ein einfaches Auszhlen ist zur Ermittlung des Modus ausreichend. Der Modus ist
jenes x" welches am hufigsten vorkommt.
Modus aus der Hufigkeitstabelle:

Der Modus ist hier jenes al' das am hufigsten vorkommt.


Modus aus der Hufigkeitstabelle mit klassierten Daten:

Bei klassierten Daten knnen wir lediglich eine sog. Modalklasse angeben. Dies ist
diejenige Klasse K, mit der grten Klassenhufigkeit 11, bzw. f;.! Als Modus knnte
man nun die Mitte dieser Modalklasse verwenden. Problem kann dann natrlich
sein, dass der so bestimmte Modus gar nicht als Beobachtung in der Urliste existiert
oder nicht der am hufigsten vorkommende Wert sein muss.
Beispiel I 2-11

Basisbeispiel fr die Berechnung von Lageparametern

Ein Assessment-Center beurteilte im Rahmen einer Einslellungsmanahme eines Unternehmens mittels diverser Intelligenz- und Leistungstests den 10 von 30 Bewerbern. Fiir die
lOs ergaben sich folgende sortierte Werte:
70 70 70 80 80 80 80 80 80 90 90 90 90 90 90 90 90 90 90 90 90 100 100
100 100 100 100 110 110 110
Da die Beobachtung 90 am hufigsten vorkommt, ergibt sich x..,. = 90.
Aus der vorliegenden Urliste erhalten wir folgende Hufigkeitstabelle. Bei Betrachtung der
Hufigkeiten wird darin deutlich, dass es sich bei der vorliegenden Verteilung um eine
symmetrische Verteilung handelt. Ihr Zentrum liegt bei aa = 90.
Lid. Nr.

1
2
3
4
5

10
aj

70
80

abs. Hufigkeit
h(aj)
3

90

100
110

6
12
6
3
30

rel. Hufigkeit

rel. Summenhufigkeit

f(a~

F(a~

0,10
0,20
0,40
0,20
0,10
1,00

0,10
0,30
0,70
0,90
1,00

Aus der Hufigkeitstabelle erhalten wir hier ebenfalls XMo. = 90, da die absolute Hufigkeit
der Beobachtung 90 mit12 maximal ist.

Eigenschaften des Modus:

Der Modus ist zwar einfach bestimmbar und auch anschaulich interpretierbar,
jedoch besitzt er einen geringen Informationsgehalt.

x.oo

sollte nur bei eingipfeligen Verteilungen und nominal- oder ordinalskalierten Daten verwendet werden, da sonst der Informationsverlust zu gro ist.

Der Modus ist unempfindlich gegenber Ausreiern, da solche nichts an der


Hufigkeit der Modusbeobachtung ndern.

1 In der Literatur wird hier auch gelegentlich vorgeschlagen, die normierten Klassenhufig-

keiten h; bzw. ~. nach (12: 16) zu verwenden.

34

I Deskriptive Statistik

2.2.1.2

Median

Ein weiteres Lagema ist der Median oder Zentralwert x...,. Er kann aus den n vorliegenden Merkmalswerten bestimmt werden, wenn diese der Gre nach geordnet
sind. Fr die Anwendung des Medians muss das untersuchte Merkmal X daher zumindest ordinalskaliert sein. Der Median ist dadurch charakterisiert, dass mindestens 50 % der Merkmalswerte kleiner oder gleich und mindestens 50 % grer oder
gleich x.., sind. Er stellt somit nichts anderes als einen Sonderfall der unter I 2.1.5
behandelten Quantile dar. Konkret gilt x.., - "0.,. - Q" d.h. der Median ist das
50 %-Quantil bzw. das Quartil Q,. Vereinfacht ausgedrckt wird auch hufig formuliert, dass der Median detjenige Merktnalswert ist, der genau In der Mitte der sortierten Beobachtungsreihe liegt.
Median aus der Urliste:
Aus einer sortierten Urliste der Form x, ,,; x, ,,; ... ,,; X n ergibt sich der Median bei
ungerader Beobacbtungszabl n als
(12: 17)

Ist n allerdings gerade, erfllt jeder Wert im Intervall [x n/"x n12+,] die Bedingung
(12: 17). Es ist hier blich, den Median als Mitte dieses Intervalls, d.h. als

x Med

;;;;;; - . (XII.

'

+ X.!l+l)

(12: 18)

anzugeben. Dieser berechnete Median existiert jedoch in der Urliste nicht, was ins-

besondere bei ordinalskalierten Merkmalen problematisch sein kann.


Median aus der Huftgkeltstabelle:
Der Median ist hier jener Merktnalswert al' bei dem die empirische Verteilungsfunktion F(x) den Wert 0,5 erreicht oder berschreitet.
Median aus der Huftgkeitstabelle mit klassierten Daten:

K, definiert, bei der F(x) den Wert 0,5 erreicht oder berschreitet. Es ist klar, dass hier
Medianwerte resultieren knnen, die in der Urliste nicht existieren, und wir das
Zenttum der Verteilung nur nherungsweise beschreiben knnen. Haben wir die
klassierte Hufigkeitstabelle selbst erstellt, werden wir diese Nherungslsung meiden und den Median stattdessen aus Urliste oder Hufigkeitstabelle bestimmen.
Nur bei klassierten Tabellen aus anderen Quellen nutzen wir diese Nherung.
Im Falle klassierter Daten wird der Median als die Mitte detjertigen Klasse

Beispiel I 2-12

Berechnung des Median

Berechnen wir fOr unser IQ-Datenmaterial aus Beispiel I 2-11 den Median. Da die Beobachtungszahl n - 30 gerade ist, erhalten wir den Median aus der Urliste Ober (12: 18) als
Mittelwert aus den Merkmalswerten der 15-ten und 16-ten Beobachtung zu
x. od = 0,5(x.., +X",+,) = 0,5,(x15 +X 16 ) = 0,5(90+90) = 90.
Auch in der Hufigkeitstabelle ist XMod = 90, da fOr aj = 90 die kumulierte relative Hufigkeit
den Wert 0,5 berschreitet.
Wrden wir den IQ-Datensatz um eine Beobachtung mit dem Wert 110 ergnzen (n = 31).
so wre der Median der Merkmalswert der 16-ten Beobachtung, d.h. x ... = x_ = x18 = 90 .

2. Eindimensionale Hufigkeitsverteilungen

35

Eigenschaften des Median:

Uegen die Merkmalswerte als Zahlen vor, hat die Summe der absoluten Abweichungen der Merkmalswerte von einer beliebigen Zahl ein Minimum,
wenn diese Zahl gleich x,..,. ist.
(12: 19)

MintlXI - I fr = XM,d
i=l

Dies ist die sog. Opttmalttts- oder Mlnlmumsetgenschaft des Medians.

Der Median ist unempfmdlich gegenber Ausreiern. Nehmen wir z.B. an, es
ist eine geordnete Urliste von Werten 1, 2, 3, 4, 5 gegeben. Der Median liegt
hier klar bei x,." - 3. Tritt nun an die Stelle des Wertes 5 der Wert 100, so
liegt ein Ausreier vor. Dieser hat jedoch keinen Einfluss auf den Median, da
der Wert 3 schlielich seine Position in der Mitte behlt.

Der Median ist das wichtigste Lagema fr ordinalskalierte Daten.

Arithmetisches Mittel
Der wohl bekannteste und wichtigste Lageparameter ist das auch als Durchschnittswert bezeichnete arithmetische Mittel x . Es findet bei zuntindest intervallskalierten Merkmalen Anwendung.

2.2.1.3

Arithmetisches Mittel aus der Urliste:


Liegt eine Urliste x t ,x2 , ... ,xn vor, so ermitteln wir das arithmetische Mittel
1
1 n
x=-,(x,+x,+",+xn)=-Lx, .
n

als

(12: 20)

i=-l

Es werden also lediglich alle Merkmalswerte aufsumntiert und durch die Anzahl der
Merkmalstrger n dividiert.
Arithmetisches Mittel aus der Huftgkeitstabelle:
Ist eine HufigkeitsverteUung vorhanden, erleichtert sich die Berechnung erheblich.
Zur Bestimmung des arithmetischen Mittels ist dann nmlich lediglich die Summe
der Produkte der Merkmale a, und ihrer absoluten Hufigkeiten h(a~ zu bestimmen
und diese durch n zu dividieren. Es gilt nmlich

x=!.(a
+ ... +a 1, +a. 2 + ... +a2.
+ ...,
+ak + ... +ak,)
n .1
h(~ )-mal

h(a,j-mal

h(ak )-mal

1
=-(h(a,)a, +h(a,)a, + ... +h(ak)ak ),
n

woraus
(12: 21)

folgt. Bringen wir 1/n in den Summenausdruck und substituieren h(a.) / n = f(a,),
erhalten wir folgende alternative Berechnungsfonnel mit relativen Huflgkeiten:
k

x=Lf(a,).a,
I- I

(12: 22)

36

I Deskriptive Statistik

Wir erkennen an (12: 22), dass das arithmetische Mittel ein Sonderfall des sog. gewogenen arithmetischen Mittels ist. Dieses ist definiert als
mit

O';;g,';;1

und

(12: 23)

!g,=1.
j .. l

Die Beobachtungswerte >; werden hier durch vorgegebene Zahlen & gewichtet und
aufsummiert. Die Gewichte mssen nichtnegative reelle Zahlen sein, deren Summe
sich auf Eins beluft. Das arithmetische Mittel (12: 22) erhalten wir, wenn wir in
(12: 23) die Beobachtungen a, mit ihren relativen Hufigkeiten f(a~ gewichten.
Arithmetisches Mittel aus der Hufigkeitstabelle mit klassierten Daten:
Da wir in der Praxis (z.B. in statistischen Verffentlichungen) die einzelnen Beobaebtungen niebt kennen, die einer klassierten Hufigkeitstabelle zugrunde liegen,
sind wir nur in der Lage, aus dieser ein approximatives arithmetisches Mittel Zu
bestimmen. Wir ersetzen dazu in den Formeln (12: 21) und (12: 22) die a, durch die
Klassenmitten aj bzw. (12: 15) als reprsentative Werte fr die einzelnen Klassen
und verwenden zugehrige Klassenhufigkeiten. Wir erhalten damit die Nherung

~h J -alm
-x=-,
1 L..J
n

bzw.

j_1

(12: 24)

x~ L~ aj.
j_1

Haben wir die klassierte Hufigkeitstabelle selbst erstellt, werden wir natrlich
niebt auf (12: 24), sondern auf die Urlistenformel (12: 20) zurckgreifen.
Beispiel I 2-13

Berechnung des arithmetischen Mittels

Fr unseren IQ-Datensatz aus Beispiel I 2-11 wollen wir nun das arithmetische Mittel aus
den verschieden aufbereiteten Daten berechnen:
Urliste:

x = 3~ (70+ 70+ 70+80+80+80+80+80+80+ ... +110+110+110) = 90


Hufigkeitstabelle:

x= ~.(3.
70+680+1290+6100+3110) = 90
30
Vergleichen wir Modus, Median und arithmetisches Mittel lr unseren IQ-Datensatz, so
stellen wir lest, dass alle drei Mae den Wert 90 annehmen. Wir werden unter I 2.2.1.6
sehen, dass fr den Fall einer symmetrischen unimodalen Verteilung Modus, Median und
arithmetisches Mittel stets identisch sind.
Huligkeitstabelle mit klassierten Daten:
Zwar kennen wir hier die Urliste und sollten daher das beschriebene Nherungsverfahren
nicht anwenden, doch wollen wir dies zur Veranschaulichung des entstehenden Rechenfehlers trotzdem tun. Wir fuhren dazu die folgende Klassierung ein:

1
2
3

ber aJ bis aJ

a Jm

hj

Ij

60 - 80
80 - 90
90 - 110

70
85
100

9
12
9
30

0,30
0,40
0,30
1,00

37

2. Eindimensionale Hufigkeitsverteilungen
Wir erhalten daraus nicht den Wert 90, sondern

x= ~.(9. 70+1285+9100) = 85.


30

Eigenschaften des arithmetischen Mittels:

Die Summe der Abweichungen der Merkmalswerte vom arithmetischen Mittel


ist stets Null. Wir sprechen hier auch von der Zentraleigenschaftvon X.
(12: 25)
Berechnen wir beispielsweise das arithmetische Mittel von 2, 4, 6 und 8, so

erhalten wir 5. Die Abweichungen der Einzelwerte von 5 sind -3, -1, 1 und 3,
was in der Summe genau Null ergibt.

Die Summe der quadrierten Abweichungen der Merkmalswerte von einer beliebigen Zahl A hat ein Minimum, wenn diese Zahl gleich x ist. Wir sprechen
hier auch von der Optimalitts- oder Minimumseigenschaft von X.
n

(12: 26)

MinL(xj-A)' fr A=X
1=1

Diese Eigenschaft knnen wir beweisen, indem wir zunchst die erste Ableitung der Summe nach A bilden und gleich Null setzen (notwendige Bedingung fr einen Extremwert):
n

n ,

L2,(x j -A)' (-1) =-2L(x j -A)';'O


1=1

1=1

Division durch -2 und Auflsen nach A liefert


n

Lx,-nA=O
1_1

Lx,=nA
1_ 1

1 n
A=-Lx,=X.
n

1_1

Hinreichende Bedingung fr ein Minimum ist eine positive zweite Ableitung


an der Stelle A = X, was gegeben ist, da die zweite Ableitung 2n lautet.

Werden die Merkmalswerte X, in der Form YI = a + b . Xl mit a, b E IR und


b "* 0 linear transformiert (vgl. Beispiel I 2-14), so kann das neue arithmetische Mittel y durch dieselbe Transformationsvorschrift aus x ermittelt werden. Es gilt nmiich

woraus wir nach Division durch n folgende Beziehung erhalten:


y=a+bx

Ist eine Gesamtheit in zwei Teilgesamtheiten zerlegt (n =

(12: 27)
01

+ n 2 ), so ermittelt

sich das arithmetische Mittel folgendermaen (vgl. Beispiel I 2-15):


_Xgcs = - -1- 0 (~
~) n,'xl+n,'x,
L...Jx j + L...Xj =
1..1
01 + n 2
\_ 1
n

(12: 28)

38

I Deskriptive Statistik

Liegen mehrere Teilgesamtheiten (n = n, + n, + ... + n rn ) vor, gilt


(12: 29)
Eine nhere Betrachtung von (12: 29) bzw. eine Umformung

Xges ;;;;;;

{'nk _
L..J-x.
k..l

zeigt, dass es sich hierbei um nichts anderes als ein gewogenes arithmetisches
Mittel der Mittelwette der Teilgesamtheiten handelt. Die jeweiligen Gewichte
ergeben sich zu n/n.
Das arithmetische Mittel reagiert empfindlich auf Ausreier, da in x anders
als beim Modus und Median alle Beobachtungswerte der Verteilung eingehen
und so ein einzelner extremer Wert Einfluss auf das Ma nehmen kann (vgl.
Beispiel I 2-16).

Beispiel I 2-14

Transformation und arithmetisches Mittel

Ein Vertriebsmitarbeiter erhlt ein fixes Grundgehalt von 1.500 . Als Provision stehen ihm
zustzlich 5 % des von ihm erwirtschafteten Umsatzes zu. Ferner sei bekannt, dass dieser
Mitarbeiter im Durchschnitt einen Umsatz von 10.000 je Monat erzielt. Bestimmen wir auf
Basis dieser Daten sein monatliches Durchschnittseinkommen:

Y= a+bj( = 1.500 +0,0510.000 = 2.000


Beispiel I 2-15

Arithmetisches Mittel aus Teilgesamtheiten

In einer Stadt mit 10.000 Einwohnern (6.000 Mnner, 4.000 Frauen) liegt das Durchschnittseinkommen der Mnner bei 2.500 und der Frauen bei 2.000 . Wie hoch ist das
durchschnittliche Einkommen aller Einwohner?
6.0002.500 +4.0002.000
10.000

Beispiel I 2-16

2.300

Arithmetisches Mittel und Ausreier

Haben 10 Personen ein Jahreseinkommen von 20.000 , liegt ihr Durchschnittseinkommen


bei 20.000 . Besitzt nun jedoch eine der Personen ein Jahreseinkommen von 500.000 ,
so erhalten wir ein Durchschnittseinkommen in Hhe von 68.000 , was ein "falsches" Bild
von der Einkommensverteilung liefert. Gerade hieran erkennen wir, dass Lageparameter
allein nicht ausreichen, um eine Hufigkeitsverteilung zutreffend zu beschreiben.

2.2.1A

Geometrisches Mittel

Ein weiteres in der Praxis bedeutendes Mittel ist das geometrische Mittel x..... Es
kann grundstzlich nur fr verhltnisskalierte Merkmale bestimmt werden, deren
Ausprgungen X, ausschlielich positive Werte aufweisen.

39

2. Eindimensionale Hufigkeitsverteilungen

Geometrisches Mittel aus der Url/ste:

Liegt eine Urliste n positiver Beobachtungswerte X, vor, so ergibt sich das geometrische Mittel als note Wurzel des Produkts aller Beobachtungen. Es wird also ber
(12: 30)
berechnet. Hufig sind diese X, im Zeitverlauf aufgezeichnete relative nderungen
(Wachstumsfaktoren) eines Merktnals, sodass ""0 Aussagen ber das durchschnittliche Wachstum des Merktnals ennglicht.
Beispiel 12-17

Geometrisches Mittel aus der Urliste

ber einen Zeitraum von 4 Jahren wurde die Mitarbeiterzahl z, eines Unternehmens jeweils zum Jahresende aufgezeichnet und in der nachfolgenden Tabelle niedergeschrieben.
Von Interesse ist nun das durchschnittliche Jahreswachstum der Belegschaft dieses
Unternehmens. Dazu werden zunchst zwischen den Perioden die Wachstumsraten

w _ Zt- Z t_1

,-

Zt_1

bestimmt, aus denen Wachstumsfaktoren x, = 1 + w, gewonnen werden. Wie zu erkennen


ist, wird im Zeitraum kontext das Subskript i meist durch t ersetzt. Auf die Gltigkeit der behandelten Formeln hat dies aber keinen Einfluss.

1
2
3

Jahr

Mitarbeiterzahl z,

Wachstumsrate w,

Wachstumsfaktor x,

2002
2003
2004
2005

2.300
3.000
2.700
3.500

0,3043
-{),1000
0,2963

1,3043
0,9000
1,2963

Setzen wir die x, in (12: 30) ein, so ergibt sich damit das geometrische Mittel zu

Xgoo = ~1, 3043 . 0, 9000 1, 2963 = 1,1502 ,


d.h. das durchschnittliche Jahreswachstum liegt bei (1,1502 -1)100 % = 15,02 % .

Um das Prinzip zu verdeutlichen, welches sich in Fonnel (12: 30) verbirgt, empfiehlt sich die Betrachtung des nachfolgenden Beispiels, welches eine "intuitive
Herleitung" des geometrischen Mittels im Wachstumsfaktorenkontext liefert.
Beispiel I 2-18

Prinzip des geometrischen Mittels

Nehmen wir an, der Umsatz UD eines Unternehmens steigt in den Folgequartalen um 2 %,
3 %, 4 % und 5 %. Die Umsatzsteigerungen beziehen sich dabei jeweils auf den Umsatz
des Vorquartals. Die Umsatzentwicklung zeigt sich daher wie folgl:

U, =UD (1+0,02)
u, = U, (1 +0,03) = UD (1 +0,02)(1+ 0,03)
U, = U,' (1 +0,04) = UD' (1 +0,02) (1 +0,03Hl +0,04)
U, = U, (1 +0,05) = UD (1 +0,02Hl +0,03Hl +0,04) (1 +0,05)

40

I Deskriptive Statistik
Eine durchschnittliche Zuwachsrate w der Quartalsumstze ist nun eine fOr alle Quartale
identische Zuwachsrate, die zum gleichen Jahresumsatz U. fOhrt. Setzen wir also obigen
Ausdruck mit U, = UD . (1 + w)' gleich, so erhalten wir folgendes Ergebnis:

Uo ' (1 +w)' = Uo (1 +0,02)-(1 +0,03)(1 +0,04) (1 +0,05)


(1 +w)' = (1 +0,02) (1 +0,03) (1+0,04) (1 +0,05)
l+w={lt,1473
w =0,0349 =3,49 %
Die Zeilen 2 und 3 lassen hier deutlich das geometrische Mittel und die in selbiges eingehenden Wachstumsfaktoren erkennen.

Geometrisches Mittel aus der Hufigkeitstabelle:


Liegen die positiven Merkmalswerte all ~, .. , a., und die dazugehrigen Hufigkeiten h(a,), h(a,), ... , h(a,) bzw. f(a,), f(a,), ... , fCa,) vor, so berechnen wir das geometrische Mittel wie folgt:

(12: 31)
(12: 32)
Durch Logarithmierung von (12: 30), (12: 31) und (12: 32) erhalten wir eine interessante Eigenschaft des geometrischen Mittels zu
1

1_ 1

1"'1

J=1

In>:..., =- ~)nxi =- Lh(aj).lna j = Lf(aj).lna j .

(12: 33)

Der Logarithmus des geometrischen Mittels ist also gleich dem arithmetischen Mittel
der logarithmierten Daten.
Das geometrische Mittel findet, wie bereits angesprochen, vor allem bei der Berechnung durchschnittlicher Wachsrurnsraten Anwendung. Einen besonderen Anwendungsbereich stellt daher die Berechnung von durchschnittlichen Zinsstzen
oder Renditen dar, da diese nichts anderes als Wachstumsraten von Kapital sind.
2.2.1.5

Exkurs: Renditen und Renditedurcbschnitte

Legen wir einen Geldbetrag K,-, zu Beginn einer Periode t-l zu einem Zins von r,d
bis zum Ende dieser Periode an, so ergibt sich am Ende der Periode t-l bzw. dem
Beginn der Periode tein Endkapital K, als
K, = (1 + r,d). KH .
(12: 34)
Wir bezeichnen die Gre r,d dabei auch als sog. diskrete Rendite. Sie ist nichts
anderes als die Wachstumsrate des Kapitals zwischen den Zeitpunkten t-l und t
und kann durch folgende allgemeine Formel bestimmt werden, die sich durch Umformung von (12: 34) herleiten lsst:
"K::I,:::-_K=,!.'
r d ;;;;;;t
K _
t 1

(12: 35)

41

2. Eindimensionale Hufigkeitsverteilungen

Die sog. geometrische Durchschnitts- oder zeitgewichtete Rendite r..., stellt


die fr jede Periode identische Rendite dar, die bei einer Kapitalanlage in Hhe
von K, ber n Perioden zum gleichen Endkapital K" fhrt, wie die n individuellen
Periodenrenditen. Fr die Kapitalstnde K, und K, kann deshalb entsprechend der
Vorgehensweise aus Beispiel I 2-18 der Zusammenhang
(1 + r,d). (1 + r:) ..... (1 + r:). Ko = ~1 + r",,)' . Ko,

K.

(12: 36)

i.

festgehalten werden, aus dem durch Umstellung

r..., = ~(1+r:). (1+ r:) .... (1+ r:)-l

(12: 37)

resultiert. Diesen Berechnungen unterliegt die Annahme, dass Zinsertrge auf dem
Anlagekonto verbleiben und daher in den Folgeperioden zustzlich zum Anfangskapital mitverzinst werden.
Von der sog. arithmetischen Durchschnittsrendite sprechen wir hingegen bei
-d

1 ~ d
=_.
L..ft
n

(12: 38)

t=1

Hierbei wird von der Annahme ausgegangen, dass jede Periode mit dem gleichen
Kapitaleinsatz startet, entstandene Zinsertrge also nicht reinvestiert werden.

Beispiel I 2-19

Diskrete Durchschnittsrenditen

Eine Anlage in Hhe von 1.000 ergab bei Jahreszinsstzen von 2 %, 3 % und 4 % und
Wiederanlage der Zinsertrge ein Endkapital von 1.000 . (1 + 0,02) . (1 + 0,03) . (1 + 0,04)
= 1.092,62 . Die geometrische Durchschnittsrendite ergibt sich daraus zu

r,~ = ~(1 +0,02) (1 +0,03) (1 +0,04) -1 = 0,0299 = 2,99 %.


Dies bedeutet, dass wir auch zu einem Jahreszins von 2,99 % htten anlegen knnen, um
(bei Wiederanlage der Zinsertge) den Endbetrag 1.092,62 zu erhalten.
Werden die Zinsertrge hingegen jedes Jahr entnommen, so erhalten wir lediglich ein
Endkapital von 1.000 . (1 + 0,02 + 0,03 + 0,04) = 1.090 . Die arithmetische Durchschnittsrendite ergibt sich daraus zu

Y" =~.(O,02+0,03+0,04) = 0,03 =3 %.


Dies bedeutet, dass wir durch Anlage zu einem Zins von 3 % pro Jahr (bei Entnahme der
Zinsertrge) ebenso ein Endkapital von 1.090 erreichen knnen.

Unterstellen wir eine stetige Verzinsung des Kapitals K,-, mit dem Satz r:, so ergibt
sich das Endkapital K, nach einer Periode als
(12: 39)

wobei e fr die Eulersche Zahl mit e = 2,718281. .. steht. Durch Logarithmierung


beider Seiten der Gleichung (12: 39)
InK t =rtS + In Kt _ 1

und anschlieender Umformung erhalten wir die sog. stetige Rendite

42

I Deskriptive Statistik

r: = InK, -lnK H =

In(~J
.
K

(12: 40)

_
t 1

Die Zusammenhnge, die zwischen stetigen und diskreten Renditen bestehen, sind
in Abbildung I 11 veranschaulicht.
Diskrete Verzinsung

Stetige Verzinsung

K, = (l+r,') K H

K,=e~ KH

Logarithmierung
[

[
InK, = In(1 + r,') + InK H
'---~)

LOgari~m~erung
InK t

(1) r: = In(1+ r,')

ft

""

+ In Kt _ 1

<;(-----'

(2)

Abbildung I 11: Zusammenhang zwischen stetigen und diskreten Renditen


Betrachten wir nun insgesamt n Perioden, so gilt zunchst unter Verwendung diskreter Renditen nach (12: 36) Kn = (1 + r,d) . (1 + r,d) ..... (1 + r:) . Ko ' Logarithmieren
wir diese Gleichung, erhalten wir unter Nutzung der Beziehung (1) aus Abbildung
I 11 den Zusanunenhang In Kn == r; + r; + ... + r: + In Ko , woraus wir

InK n -lnK o == frt

(12: 41)

1_'

ableiten knnen. Wir knnen also sagen, dass sich die stetige Rendite einer Gesamtperiode als Summe der stetigen Renditen der dazugehrigen Teilperioden ermitteln
lsst. Fr diskrete Renditen gilt ein solcher Zusammenhang nicht. Hier sind die um
Eins erhhten diskreten Teilperiodenrenditen miteinander zu multiplizieren und
Eins zu subtrahieren, um die Gesamtperiodenrendite zu erhalten.
Beispiel I 2-20

Mikro- und Makroperiodenrenditen

Eine Investition wirft innerhalb eines Jahres die stetigen Quartalsrenditen 1 %, 5 %, -2 %


und 3 % ab. Die stetige Jahresrendite ergibt sich daraus als

r:.

hr

= Lr~.rta't = 0,01 +0,05-0,02+0,03 = 0,07 =7 %.

,.,

Nehmen wir an, es handeH sich bei den gegebenen Renditen um diskrete Quartalsrenditen, so erhalten wir die diskrete Jahresrendite zu
rJ~h' =

rr,.,

(I +r~~"'It) -I = (I +0,01) (I +0,05) (1-0,02) (I +0,03) -I = 0,0704 = 7,04 %.

2. Eindimensionale Huligkeitsverteilungen

43

Spezieller Exkurs Finance:


Es soll nicht unerwhnt bleiben, warum gerade stetige Renditen in vielen statistischen Verfahren und Modellen Anwendung finden. Sie besitzen nmlich eher als
diskrete Renditen die Eigenschaften der Symmetrie und der Normalverteilung (vgl.
Abschnitt II 3.2.3), welche Voraussetzung fr diverse Verfahren der Finanzmarktstatistik und -konometrie sind.

Beispiel I 2-21

Symmetrie stetiger Renditen

Gegeben sei die Kapitalentwicklung K, =2Ko und K, =O,5K,. woraus sich die lolgenden stetigen und diskreten Renditen ergeben:

Stetig: r1s = In2

Diskret: r1d

r:

= InO,5
= 1 r: = -0,5
I

Bei den stetigen Renditen ist die Symmetriebedingung r,' = Ir;1 erfijllt, wohingegen bei den
diskreten Renditen r,' Ir:1 gilt.

Es ist auerdem interessant, dass die geometrische Durchschnittsrendite in stetiger


Schreibweise gleich dem arithmetischen Durchschnitt der stetigen Einzelrenditen ist.
Um diesen Zusammenhang zu erklren, betrachten wir zunchst die Formel (12: 36)
(1 + '",,)' = ~1 + r,d). (1 + r,") ..... (1 + r:~.
wachsnunsnniltlpllkator WM

Durch Logarithmierung erhalten wir daraus

n10(1 + fgeo);;;;;; fIS + r; + ... + r:,


was schlielich mittels Division durch n zum eingangs beschriebenen Zusammenhang fhrt:

ln(1+r )=r;+r;+ ... +r:


""

rS

02: 42)

Wir stellen fest, dass dieses Resultat (12: 33) entspricht.

Beispiel I 2-22

Stetige Durchschnittsrendite

Eine Aktienanlage wird vier Jahre betrachtet. Die diskreten Renditen der einzelnen Jahre
sind +30 %, -10 %, +50 % und -20 %. Das Vermgen ist gesamt von 100 aul 140,40
gestiegen. In diesem Beispiel lsst sich die stetige Durchschnittsrendite nun auf zwei verschiedene Arten berechnen:
1.

Berechnung der stetigen Einzelrenditen, Aufsummierung und Division durch n:


Die gegebenen diskreten Renditen werden zunchst mit der Formel r,' = In(1 H,d) in
stetige Renditen umgerechnet. Es ergeben sich +26,2 %, -10,5 %, +40,5 % und
-22,3 %. Addiert und durch 4 (Jahre) dividiert, ergibt sich so eine stetige Durchschnittsrendite von 8,48 %.

2.

Geometrische Ermittlung der diskreten Durchschnittsrendite und Darstellung in stetiger Schreibweise:

r,~ = ~(I +o.a)-(I-O,I) (1+0,5)(1-0,2) -I = ~I,404 -I = 8,85 %

44

I Deskriptive Statistik
Der sich hier ergebende Wachstumsmultiplikator von 1,404 kann schneller direkt als
Quotient aus Vermgensendbestand und -anfangsbestand ermittelt werden.
Die stetige Durchschnittsrendite ist damit 7' = In(1 + 7... ) = In(1 +0,0885) = 8,48 %.

2.2.1.6

Lageregeln

Fr jede Art von Verteilung (symmetrisch, rechtsschief, linksschief) gilt zwischen


dem geometrischen und arithmetischen Mittel die Beziehung x"", ~ x. Wie Abbildung I 12 skizziert, sind des Weiteren fr symmetrische Verteilungen arithmetisches
Mittel, Median und Modus immer identisch, d.h. es gilt
x = x Med = x Mod
Dies haben wir bereits in Beispiel I 2-13 gesehen. Fr linksschiefe Verteilungen
(auch rechtssteil genannt) gilt stets
x< x Med < X Mod '
d.h. das arithmetische Mittel ist stets kleiner als Median und Modus. Fr rechtsschiefe Verteilungen (auch linkssteil genannt) gilt dies umgekehrt, d.h. es liegt stets
x Mod < x Med < X
vor. Das arithmetische Mittel ist also hier stets grer als Median und Modus. Diese

"Grenverschiebung" des arithmetischen Mittels ist nicht berraschend, da linksschiefe Verteilungen einige besonders niedrige Merkmalsausprgungen und rechtsschiefe Verteilungen einige besonders hohe Merkmalsausprgungen aufweisen.
symmetrische Verteilung

I--

rechtsschiefe Verteilung

Abbildung I 12: Lageregeln

linksschiefe Verteilung

2. Eindimensionale Hlufigkeitsverteilungen

45

Wir erkennen, dass auer beim Auftreten von Ausreiern auch durch die Asymmetrie oder Schiefe einer Verteilung die Interpretation von Lagemaen erschwert
werden kann. Bei ausgeprgt schiefen Verteilungen ist die Frage nach dem geeigneten Lageparameter besonders schwer zu beantworten, da sich die Mae z.T.
deutlich unterscheiden. Hier empfiehlt sich zur Beschreibung der Verteilung die
Verwendung weiterer Parameter (siehe Abschnitt I 2.2.2 bis I 2.2.4).

2.2.2

Streuungs parameter

Die bisher behandelten Lageparameter dienten lediglich der Kennzeichnung des lf')
Zentrums einer Verteilung. ofunals ist jedoch von Interesse, wie stark die Einzel- ~
werte vom Zentrum abweichen, d.h. wie eng oder weit sie um das Zentrum der
Verteilung streuen. Zur Gewinnung dieser Informationen sind sog. St:rcuunpparameter geeignet, die wir im Folgenden nher betrachten. Sie setzen stets eine
Kardinalskala voraus.
Die Streuungsparameter, die wir im Folgenden behandeln, lassen sich grob in zwei
Kategorien einteilen. Zur ersten zhlen die Spannweite und der Quartilsabstand.
Bei diesen Maen dienen die Abstnde zwischen speziellen Beobachtungen der
Hufigkeitsverteilung als Ma fr die Streuung. Zur zweiten Kategorie zhlen die
mittlere absolute Abweichung, die Varianz und die Standardabweichung. Hier sind
die Abweichungen aller Daten von einem Lagema entscheidendes Kriterium fr
die Beurteilung der Streuung. Je kleiner diese Kennzahlen sind, desto strker sind
die Daten um den jeweiligen Lageparameter konzentriert.

2.2.2.1

Sponnwdle und Quartilsab.land

Die SPiUlD.weite SP gehrt zu den wohl einfachsten Streuungsmaen. Unter ihr


verstehen wir lediglich die Differenz zwischen dem grten und kleinsten Merkmalswert im vorliegenden Datenmaterial. Sie gibt uns allgemein Informationen ber
den Ausdehnungsbereich des Datenbestandes.
Aus einer der Gre nach sortierten Urliste errechnet sich die Spannweite als Differenz zwischen grtem (x.) und kleinstem (x) Beobachtungswert.

Aus der H4uftgkeitsvertetlung ermitteln wir die Spannweite ebenfalls als Differenz
zwischen grter (a,) und kleinster (a,) Merkmalsausprgung.

Beispiel I 223

Basisbeispiel fOr die Berechnung von Streuungsmaen

An 10 zeitpunkten wird der Kurs des A-Dollars und des B-Dollars notiert. Der A-Dollar
hatte folgende Notierungen: 1,10, 1,15, 1,10, 1,20, 1,25, 1,30, 1,30, 1,25, 1,20 und 1,15
8$. Der B-Dollar lag dreimal bei 1,SO, zweimal bei 1,80, viermal bei 2,30 und einmal bei

2.40 AS.

Wir wollen diese beiden Verteilungen nutzen, um die Berechnung der von uns vorgestellten Streuungsmae zu veranschaulichen. Bei EinfOhrung eines neuen Maes werden wir
jeweils wieder auf dieses Beispiel zuruckgreifen, weshalb die im Folgenden aufgestellten
Tabellen bereits Berechnungen enthalten, die wir erst nach und nach benOtigen werden.

46

I Deskriptive Statistik
Fr den A-Dollar zeigt sich die folgende Urliste:

'"

i
1
2
3
4
5
6
7
8
9
10

lx,-x...
0,10
0,10
0,05
0,05
0,00
0,00
0,05
0,05
0,10
010
0,60

1 ,10
1 ,10
1 ,15
1 ,15
1,20
1,20
1,25
1,25
1,30
1 30
12,00

x'I
1 ,21
1 ,21
1 ,32
1 ,32
1,44
1,44
1,56
1,56
1,69
1 69
14,44

Wir erhalten daraus die Spannweite


SP =x,-x, = x" -x, =1,30-1,10=0,20 A$.
Fr den B-Dollar ergibt sich folgende Haufigkeitstabelle:

aj

hj

hlal

1
2
3
4

1,60
1,80
2,30
2,40

3
2
4
1
10

4,80
3,60
9,20
2,40
20,00

hJ" I al -x...

1,35
0,50
1,00
0,35
3,20

a'I

hl a~

2,56
3,24
5,29
5,76

7,68
6,48
21,16
5,76
41,08

Dies liefert eine Spannweite von


SP = ak -a, = a, -a, = 2,40-1,60 = 0,80 B$.

Aufgrund der Tatsache, dass die Spannweite gerade durch ihr Wesen uerst empfindlich auf Ausreier reagiert und aufgrund der sehr geringen Ausnutzung des
Datenmaterials nur einen geringen Infonnationsgehalt besitzt, wird sie in der Praxis
kaum als Streuungsma eingesetzt. Vielmehr dient sie dazu, Hinweise auf Ausreier
zu geben. Ein anderes, der Spannweite sehr hnliches Ma, das hingegen robust

gegen Ausreier ist, findet hufiger Anwendung. Es handelt sich dabei um den sog.
Quartilsabstand QA, der als die Differenz zwischen oberem und unterem Quartil
deflOiert ist und nichts anderes als die Spannweite der 50 % mittleren Beobachtungswerte darstellt.
QA=Q, -Q,
Gelegentlich wird auch der sog. mittlere Quartilsabstand
1
QA=-(Q,-Q,).
2

(12: 45)

(12: 46)

als Streuungsma genutzt. Auch er ist robust gegen Ausreier und kann wegen

1
1
QA=2(Q, -Q')=2([Q, -Q21-[Q, -Q,])

als mittlerer Abstand der Quartile vom Median interpretiert werden.

47

2. Eindimensionale Hufigkeitsverteilungen
2.2.2.2

Mittlere absolute Abweichung

Definieren wir den Abstand eines Messwertes X; der Urliste vom Median x.... als
IX; - x.... 1 so ist die mittlere absolute Abweichung von x..... MA. das arithmetische Mittel dieser Abweichungen. d.h. es gilt
1 n
MA=-"'Ix.
I
~
1 -xMed.
n l=-1

(12: 47)

In Abschnitt I 2.2.1.2 haben wir gesehen. dass die Summe der absoluten Abwei-

chungen vom Median minimal ist. Die mittlere absolute Abweichung ist daher immer dann ein sinnvolles Streuungsma, wenn der Median als Lagema verwendet
wird. Das Zentrum einer Verteilung wird umso besser durch den Median beschrieben. je kleiner die mittlere absolute Abweichung ist. Gelegentlich wird bei der Berechnung von MA das arithmetische Mittel x herangezogen. Dadurch geht jedoch

die Optimalittseigenschaft verloren. Wird das arithmetische Mittel als Lagerna


verwendet. wird die Streuung meist durch die sog. Standardabweichung (vgl. Abschnitt I 2.2.2.3) gemessen.
MA aus der Hufigkeitsverteilung:

Bei Vorliegen einer Hufigkeitsverteilung knnen wir MA unter Verwendung von


absoluten und relativen Hufigkeiten bestimmen. Es knnen nmlich bestimmte
absolute Abweichungen mehrfach auftreten. sodass wir
1 k
MA = - . Lh(al) . lai n

J=1

x"",1 = Lf(al) Ial - XM'dl


k

(12: 48)

j=1

festhalten knnen.
MA aus der Hufigkeitsverteilung klassierter Daten:
Liegt das Datenmaterial in klassierter Form vor. werden an Stelle von al in Formel
(12: 48) die Klassenmitten ar und die jeweiligen absoluten bzw. relativen Klassenhufigkeiten herangezogen. Mit einer derartigen Vorgehensweise erhalten wir jedoch wieder nur eine nherungsweise Lsung.

Beispiel I 2-24

Berechnung der mittleren absoluten Abweichung

Berechnen wir fOr unsere verschiedenen Whrungsverteilungen aus Beispiel I 2-23 die
mittlere absolute Abweichung bezuglich des Median. Dazu bentigen wir zunchst die
Mediane der Verteilungen. Fur den A-Dollar ergibt sich x.... = 1.20 A$ und fr den
B-Dollar XMod = 2.05 B$. Wir erhalten damit den bereits in den Tabellen von Beispiel
I 2-23 enthaltenen Nebenrechnungen folgende Ergebnisse:
1 "

A-Dollar:

MA =-Llx,-xM.. =-0.60 =0.06 A$


n '_1
10

B-Dollar:

1 k
1
MA =-Lhj"lal-x... =-3.20=0.32 B$
n 1_1
10

48

I Deskriptive Statistik

Elgenscbaften der mittleren absoluten Abweicbung:

Die mittlere absolute Abweichung nimmt ihr Minimum an, wenn sie mittels

x... berechnet wird.

Im Vergleich zur Varianz, die wir unter I 2.2.2.3 vorstellen, weist sie nur

wenige befriedigende mathematische Eigenschaften auf. Deswegen wird sie in


der Praxis selten verwendet.

Die mittlere absolute Abweichung reagiert im Vergleich zur Varianz weniger


stark auf Ausreier.

Werden die Merkmalswerte X, linear transfonniert (YI = a + b XI' mit a, b E IR


und b 0), so kann die neue mittlere absolute Abweichung MAy aus der
mittleren absoluten Abweichung MA,~ der Ausgangsdaten hergeTeitet werden, ohne dass eine Neuberechnung notwendig wird. Dies geschieht ber

MA y_ =lblMA: 1 : _ '

(12: 49)

Wir erkennen daran, dass eine Transformation der Form YI = a + XI (b = 1)


die Streuung der Daten nicht verndert. Die Transformation bewirkt lediglich
eine Lageverscbiebung der Daten. Erst die Multiplikation der Ausgangsdaten
mit einer Konstanten b 1 fhrt ZU einer nderung der Streuung.

Beispiel I 2-25

Eigenschaften der mittleren absoluten Abweichung

Betrachten wir die Auswirkungen verschiedener Transformationen einer einfachen Ausgangsverteilung auf die neue mittlere absolute Abweichung.

4
2

Addieren wir zu den Beobachtungen des Merkmals X die Konstante a = 1, so bewirkt dies
eine Rechlsverschiebung der Verteilung, sodass sich ihre Lageparameter bzw. hier der
Median ndert. Die Streuung wird davon nicht beeinflusst. Bei a = -1 kommt es zu einer
Linksverschiebung bei unvernderter Streuung. Die Grafiken auf der Folgeseite veranschaulichen dies.
Multiplizieren wir mit einem Faktor zwischen 0 und 1 bzw. hier 0,5, so ndert sich sowohl
Lage als auch Streuung der Verteilung. Wir erkennen eine Linksverschiebung bei gleichzeitiger Verringerung der Streuung. Fr einen Faktor grer als 1 bzw. hier 1,5 beobachten
eine Rechlsverschiebung bei Erhhung der Streuung.

2. Eindimensionale Hufigkeitsverteilungen

49

YM., = 7

MA

YM., =5

,- =1

MA,- =1

4
2

bj

Y; =0,5 Xi

Yi=1,5'Xi

h{bll

h{b~

Y.od =3

Y.od =9

MA,_ =0,5

bj

MA,_ =1,5

468

2.2.2.3

bj

468

bj

Varianz und Standardabweichung

Die Varianz s' bzw. die sich aus ihr ergebende Standardabweichung s ist das in der
Praxis am hufigsten verwendete Streuungsma. s' ist definiert als arithmetisches
Mittel der quadrierten Abweichungen der einzelnen Merkmalswerte vom arithmetischen Mittel X. Gerade daher wird die Varianz auch hufig als mittlere quadratische Abweichung bezeichnet. s ist die positive Wurzel aus der Varianz.
Die Varianz und die Standardabweichung werden stets in Bezug auf das arithmetische Mittel berechnet, da fr x die Summe der quadrierten Abweichungen nach
der Optimalittseigenschaft des arithmetischen Mittels minimal ist. Das Zentrum
einer Verteilung wird also umso besser durch das arithmetische Mittel beschrieben,
je kleiner die Varianz bzw. die Standardabweichung ist.
Varianz aus der Urliste:
Die Varianz lsst sich in der Urliste ber
1 ~(
_)' rrut
.
s , ;;;;;;_.
L...J Xi -x
n

1_ 1

(12: 50)

berechnen. Die darin zur Anwendung kommende Quadrierung der Abweichungen


dient auf der einen Seite dazu, groen im Vergleich zu kleinen Abweichungen
mehr Gewicht zu verleihen. Dies unterscheidet die Varianz von der mittleren ab-

I Deskriptive Statistik

50

soluten Abweichung. Andererseits wird durch die Quadrierung verhindert, dass


sich positive und negative Abweichungen gegenseitig aufheben.

Zur Rechenvereinfachung lsst sich die Varianzfonnel umfonnen. Es handelt sich


bei dieser Umfonnung um einen Speztaifall des sog. Verschtebungssatzes:
eI2: 51a)

Version A:

~C Xi
-1 L..J

Version B:

~C

-)' ;;;;;;1 L..J X1-C )' -X


n

i=l

CX-C )'

02: 51b)

i_I

Fr Interessierte fhren wir die Herleitung des Verschiebungssatzes im Folgenden


kurz auf. Sie kann jedoch auch bersprungen werden, da sie fr das Verstndnis
des Folgetextes nicht relevant ist. Version A erhalten wir wie folgt:
:tex, -x)' = :tex, -c-ex-c)i
i=l

i=l

:tex,

-ci - 2 :tex, -

1=1

c) ex - c) + :tex - c)'

1=1

:tex,

-ci - 2 ex -

1=1

c) :tex, - c) +n ex -

1=1

,1=1

ci

n'i-nc

= :tex,

-ci -2nex-ci +nCx-c)'

= :tex,

-ci -nex-ci

1=1

Dividieren wir beide Seiten von Version A durch n J erhalten wir Version B.

Setzen wir nun in Version B des Verschiebungssatzes c = 0, so erhalten wir die


folgende alternative Berechnungsfonnel fr die Varianz aus der Urliste:
2

1 ~

-2

02: 52)

=-'L..JXj-X

i=l

Da diese Fonnel unter Statistikneulingen oft zu Verwirrung fhrt, wollen wir klar
darauf hinweisen, dass bei der Berechnung zunchst die Summe der quadrierten X,
durch n dividiert wird und erst im Anschluss daran das quadrierte arithmetische
Mittel abgezogen wird. Analog gUt dies auch fr die Fonneln in 02: 55).
Varianz aus der Hujigkeitsverteilung:

Liegt eine HufigkeitsverteUung mit k Merkmalswerten a" a" ... , ak mit den zugehrigen absoluten Hufigkeiten hea? bzw. relativen Hufigkeiten fea? vor, so erfolgt
die Berechnung der Varianz nach den folgenden Fonneln:
s'

=l. hCa.).Ca. -x)'


n

j..1

s' = LfCaJ)'CaJ -xi


j=1

mit

02: 53)

mit

x = LfCaJ).aJ
j=1

02: 54)

2. Eindimensionale Hufigkeitsverteilungen

51

Unsere Rechenvereinfachung (12: 52) liefert daraus

1 ~
, -,
s, ;;;;;;-.
L. h(aj ) aJ-x
n j-=t

bzw.

s' = Lf(al)a!
j_ 1

-x' .

(12: 55)

Zur Erleichterung einer von Hand durchgefhrten Varianzberechnung empfiehlt es


sich, die Arbeitstabelle aus Abbildung I 13 heranzuziehen. Wir erhalten daraus die
Varianz, indem wir vom Mittelwert (absolute Hufigkeiten) bzw. der Summe (relative Hufigkeiten) der letzten Spalte x' subtrahieren. x knnen wir dabei aus der
jeweiligen vorletzten Spalte ermitteln.
h(a,)' a,

h(a)

a,

h(a).a!

f(a)

f(a,)' a,

f(a l) a!

1
bzw.
k
n

1:

1,00

Abbildung I 13: Arbeitstabelle zur Varianzberechnung

Varianz aus der HufigkeltsverteIlung klassierter Daten:


Im Falle klassierter Daten werden zur nherungsweisen Berechnung in obigen

Formeln wieder lediglich die Werte a, durch die Klassenmitten a~ und die Hufigkeiten h(a,) und f(a,) durch die Klassenhufigkeiten h, und f, ersetzt.
Beispiel I 2-26

Berechnung von Varianz und Standardabweichung

Berechnen wir fr unser Whrungsbeispiel I 2-23 die Varianzen und Standardabweichungen. Wir erhalten unter Verwendung der bereits in Beispiel I 223 enthaltenen Arbeitstabellen und der arithmetischen Mittel
A-Oollar:

l'
1
x=-'Lx, =-12,00=1,20 A$
n 1_1
10

B-Oollar:

1
1 k
x =-Lhlal =-20,00=2,00 B$
n 1-1
10

folgende Ergebnisse:
A-Oollar:

~ ,
S,_I
- - . L.tXI
n

1_1

-x-,_14,44
- - - - 120'-00040A$'
,
-,
10

s = ,J0,0040 = 0,0632 A$
B-Oollar:

1 ~h (a,'
S' --'Lot

1- 1

_ 41,08
-0, 1080 B$'
-x-, - - - 200'
,
10

s = ,J0,1 080 = 0,3286 B$

52

I Deskriptive Statistik

Eigenschaften der Varianz (und der Standardabweichung):


Die Varianz s' (und damit auch die Standardabweichung s = ,fs2 ) ist stets grer oder gleich Null. Nimmt s' den Wert Null an, so liegt berhaupt keine
Streuung vor, d.h. alle Merkmalswerte sind identisch.

Die Dimension der Varianz ist das Quadrat der Dimension der einzelnen Beobachtungswerte. Die Dimension der Standardabweichung stimmt mit der der
betrachteten Merkmalswerte berein. Besitzt also z.B. ein Merkmal die Einheit
Euro, so ist die Dimension der Varianz ' und die der Standardabweichung .

Aufgtund der gleichen Dimension ist die Standardabweichung im Gegensatz


zur Varianz ein mit der mittleren absoluten Abweichung vergleichbares Ma.
Dabei gilt stets die Ungleichung

s ., MA ., MA._ .

(12: 56)

Verteilungen knnen bei gleichen arithmetischen Mitteln trotzdem unter-

schiedliche Varianzen und damit auch Standardabweichungen aufweisen.


Beispiel I 2-27

Arithmetisches Mittel und Varianz

Fr zwei Unternehmen wurde von einem Marktforschungsinstitut ber 4 Jahre eine Kundenzufriedenheitsanalyse durchgefOhrt. Der Anteil zufriedener Kunden ist in folgender
Tabelle angegeben.
Jahr
Unternehmen A
Unternehmen B

2002
0,70
0,30

2003
0,95
0,70

2004
0,50
1,00

2005
0,55
0,60

2006
0,80
0,90

Fr beide Unternehmen ergibt sich eine durchschnittliche Kundenzufriedenheit von = 0,7


bzw. 70 %. Bei Unternehmen B (s = 0,060) ist allerdings eine strkere Fluktuation der Kundenzufriedenheit festzustellen als bei Unternehmen A (s = 0,027).

Das sog. Tschebyscheff-Theorem (vgl. Abschnitt II 2.9) besagt, dass fr beliebige Verteilungen mindestens l-l/k' (%) der Beobachtungen in einem Intervall [x - k . S x + k . s) liegen.

Praxisregel: Fr eingipfelige Verteilungen gilt,2 dass im Intervall

[x - S x + sl zumeist zwischen 60 % und 80 %, fr fast symmetrische


Verteilungen ca. 70 % und fr sehr schiefe Verteilungen fast 90 % der
Beobachtungswerte liegen.

[x - 2 S x + 2 sl fr symmetrische Verteilungen ca. 95 % und fr sehr


schiefe Verteilungen bis fast 100 % der Beobachtungswerte liegen.
[x - 3 S x + 3 sl knapp 100 % der Beobachtungen liegen.

Wir hatten bereits angesprochen, dass der Grund dafr, dass die Varianz bezglich x bestimmt wird, darin liegt, dass die Summe der quadratischen Abweichungen der einzelnen Merkmalsausprgungen X, von einem beliebigen

2 Vgl. Bamberg und Baur (2004). Kapitel 3.

2. Eindimensionale Hufigkeitsverteilungen

53

Wert A dann ein Mirtimum hat, wenn A = x ist. Dies hatten wir bereits als Optirnalittseigenschaft des arithmetischen Mittels in (12: 26) festgehalten. Ist die
Summe der quadratischen Abweichungen minimal, ist es natrlich auch ihr

Mittelwert und damit die Varianz.

lineare Transformationen:
~ in der linearen Fonn Yi = a + b . Xi' mit
a, b E IR und b '" 0, so wissen wir bereits, dass nach (12: 27) fr das arithmetische Mittel y = a + b . x gilt. Fr die neue Varianz s~ und die neue Standardabweichung Sy gilt bei einer derartigen Transformation

Transfonnieren wir die Einzelwerte

,
1 ~(
-)' =-'L...Ja+
1 ~(b 'xj-a- b 'x
-)'
Sy=-'L...JYi-Y
n

1_ 1

1_ 1

2n

b
-222
=-'L(X, -x) =b s..
n j=-l
sodass wir insgesamt
(12: 57)

festhalten knnen. Dies zeigt, dass eine Transformation der Form y, = a + x"
d.h. mit b = 1, wie wir auch bereits bei der mittleren absoluten Abweichung
gesehen haben, keinerlei Einfluss auf Streuung und damit die Varianz und die
Standardabweichung des Datenmaterials hat. Es gilt nmlich dann s~ = s;
bzw.

Sy =5][.

Beispiel I 2-28

Uneare Transformationen und Varianz

Innerhalb einer Woche fielen vor Euroumstellung in der Filiale einer Bank folgende Kosten
(in DM) fOr den Versand von Geschftsbriefen an:
Mo

Di

Mi

Do

Fr

5,50

9,00

3,00

12,00

1,50

Es ergaben sich damit durchschnittliche Versandkosten von

x=~.(5,50+9,00+3,00+12,00+1,50) = 6,20 DM
bei einer Varianz und einer Standardabweichung von

s~ = ~. (5,50' +9,00' +3,00' + 12,00' + 1,50') -6,20' = 14,86 DM'


s, =v'14,86 =3,85 DM
Im Zuge der Euroumstellung werden nun die DM- in Euro-Werte umgerechnet. Die dazugehrige Transformationsformellautet
mit

a=O und b=

1..:....

Ohne auf die neuen Euro-Werte zugreifen zu mussen, knnen wir neben dem neuen Mittelwert y = 1..:... = 3,17 die neue Varianz und Standardabweichung bestimmen:

s: = ('.":"')'.14,86 = 3,88 ' und s, = 1,.95'...1.3,85 = 1,97 .

54

I Deskriptive Statistik

Zentrierung, Standardisierung:

Uegt eine Urliste x" x" ... , x,. mit dem arithmetischen Mittel
dardabweichung s, vor, so heit eine Uneartransformation
Yi = Xi - X

Yi = a + b Xi

und der Stan-

a = -x und b = 1

mit

(12: 58a)

Zentrlerung. Das Resultat einer solchen Zentrierung ist

y = 0 und

= s, .

Sy

(12: 58b)

Wir erhalten also ein neues arithmetisches Mittel von Null und die gleiche
Standardabweichung (Streuung) wie die Ausgangsdaten.
Von besonderer praktischer Bedeutung ist die sog. Standardisierung. Darunter verstehen wir eine Lineartransformation der Form

x. -x

mit

Z.=-'-

a=-- und b=-

(12: 59a)

Standardisierte Daten besitzen die besonderen Eigenschaften


2=0 und

Sz

(12: 59b)

=1,

was wir anhand von

b x 1_
z=a+ x=--+-x=O
Sx

Sx

s; =b' s; =(s:]' s; =1

--+

s, =1

anschaulich zeigen knnen. Die Tatsache, dass durch die Standardisierung der
Merkmalswerte ein arithmetisches Mittel von Null entsteht, bietet den Vorteil,
dass nun sofort erkennbar ist, ob die jeweiligen Merkmalswerte grer oder
kleiner als das arithmetische Mittel sind. Alle neuen positiven Merkmalswerte
liegen ber und alle neuen negativen Merkmalswerte unter dem Durchschnitt.
Wir sind auerdem in der Lage zu erkennen, um wie viele Standardabweichungen der jeweilige Wert vom arithmetischen Mittel abweicht. Dies wird
im nachfolgenden Beispiel klar.
Beispiel I 2-29

Standardisierung

Fr ein bestimmtes Jahr sind die Zahlen der bernachtungen pro Monat in einem Hotel
bekannt:
Jan

Feb

Mr

Apr

Mai

Jun

Jul

Aug

Sep

Okl

Nov

Dez

80

10

30

80

120

160

200

200

200

120

10

10

Wir fUhren nun eine Standardisierung dieser Werte mittels der Formel

x -x
s

ZI=_'-

durch, welche folgende Resultate liefert:

x, -l0l,67
73,24

2. Eindimensionale Hufigkeitsverteilungen

55

Jan

Feb

Mr

Apr

Mai

Jun

-0,30

-1,25

-0,98

-0,30

0,25

0,80

Jul

Aug

Sep

Okt

Nov

Dez

1,34

1,34

1,34

0,25

-1,25

-1,25

Wie wir erkennen, sind alle Merkmalswerte, die ehemals grer als das arithmetische Mittel waren, nun positiv, alle anderen hingegen negativ. Auerdem sehen wir z.B., dass die
Anzahl der bernachtungen im Juli um 1,34 Standardabweichungen ber dem arithmetischen Mittel liegt, was wir ber die Rechnung 101,67 + 73,24 . 1,34 = 200 zeigen knnen.

Fr die Varianz einer Gesamtheit n, die sich aus zwei Teilgesamtheiten

n, mit den Merkmalswerten x" und 'S, zusammensetzt, gilt allgemein

s!,. =-l-.(i;exli -xY + i;ex2l-xY),


fi 1

+ n2

i_I

und

(12: 60)

i_I

fi 1

x,

x,

wobei sich darin


nach (12: 28) ergibt. Bezeichnen wir mit
bzw.
und
s; bzw. s~ die arithmetischen Mittel und Varianzen der beiden Teilgesamtheiten, so ergibt sich die Gesamtvarianz ebenfalls mit
(12: 61)

Beispiel I 2-30

Gesamtvarianz aus Teilgesamtheiten

Die LeisbJngsbeurteilung (Bewertung 1 bis 7) in zwei Unterabteilungen A und B mit 12 und


14 Mitarbeitern der Controlling-Abteilung eines Unternehmens ergab folgendes Ergebnis:
AbteilungA:

122233334445

Abteilung B:

2 3 3 4 4 4 4 5 5 5 5 6 6 7

Wir erhalten daraus


XA =3,00

x. =4,50

S!=1,17
s~=1,68.

Um nun die Varianz der Gesamtabteilung Controlling zu bestimmen, knnten wir die Beurteilungsergebnisse beider Abteilungen zusammenlegen und aus der so entstehenden Gesamtheit die Varianz berechnen. Schneller erhalten wir das Ergebnis, wenn wir zunchst
nach (12: 28)
123,00+144,50
12+14

3,81

bestimmen und dieses Ergebnis in (12: 61) nutzen, um


,
Sg.
zu ermitteln.

121,17+141,68 12(3,00-3,81)' +14.(4,50-3,81)'


12+14
+
12+14

2,00

56

I Deskriptive Statistik

Fr m Teilgesamtheiten, deren jeweilige arithmetische Mittel x"""x m und

Varianzen s~, ... , s~ sowie das Gesamtmittel Xges nach (12: 29) bekannt sind,
berechnen wir die Varianz fr die Gesamtheit n = n 1 + ... + n m nach
2

Sge&

~
Varlam

1{'

= -. L."nk
n k=l

,1
{L."n
'
+ -.

Sk

'Varl:wzhmerhalb

k=l

( _ _ )'

k X k - Xge&

(12: 62)

'~--=''':'"-""",-~:w.-",:-~--~

der TeiJgesamIhelten

den Teilgesamtheiten

wobei der erste Summand hufig als interne Varianz (Varianz innerhalb der
Teilgesamtheiten) oder gewogenes Mittel der Teilgesamtheitsvarianzen (Gewichte n/n) und der zweite als externe Varianz (Varianz zwischen den Teilgesamtheiten) bezeichnet wird. Die angegebene Berechnung wird deshalb
auch als Formel der Streuungszerlegung bezeichnet. An dieser Darstellung
lsst sich gut erkennen, ob sich die Varianz der Daten vor allem durch die
Variation innerhalb der Gruppen oder durch Unterschiede zwischen den
Gruppen ergibt.

Praxishinweis: Auf Finanzmrkten wird hufig die Standardabweichung der


Renditen (nicht der Kurse) als Ma fr die Beschreibung des Risikos verschiedener Finanzanlagen verwendet. Wir sprechen in diesem Zusammenhang von

der Volatilitt (vg).. Abschnitt I 2.2.2.4).


2-2-2A

Exkurs: Volatilitt

Die Einschtzung des Risikos verschiedener Anlagefonnen (Aktien, Anleihen, etc.)

ist in der finanzwirtschaftlichen Praxis von erheblicher Bedeutung, da das mit einer
Anlage verbundene Risiko ein wesentliches Kriterium dafr ist, ob eine Investition
erfolgt oder unterbleibt. Unter Risiko ist dabei allgemein die Mglichkeit eines unerwnschten Ausgangs der Investitionsaktivitt zu verstehen. Da ein unerwnschter
Ausgang von den Prferenzen und Zielsetzungen des Investors abhngig ist, kann
er unterschiedliche Formen, wie etwa den Verlust von Kapital,3 die Verfehlung einer Mindestrendite oder lediglich die Renditeschwankung im Zeitablauf annehmen.
Wie im vorhergehenden Abschnitt erwhnt wurde, wird zur Beurteilung des Risikos
von Finanzanlagen in der Praxis meist die Standardabweichung der Renditen r,
herangezogen 4 Es wird dabei jedoch nicht exakt auf (12: 50) zurckgegriffen, sondern die Volatilit 0 einer Finanzanlage ber
_

0=

{--(

_)'

--'L..,. l j - r

n-1

(12: 63)

j=l

geschtzt. 5 Wie die nachfolgenden Beispiele zeigen, hat dieses Ma vor allem beim
Vergleich der Vorteilhaftigkeit von Wertpapieren und der Beurteilung der Fragilitt
der Lage auf Aktien- und Anleihenmrkten groe Bedeutung.

3 VeIfolgen Investoren das Ziel des Kapitalerhalts, so mssten sie unter Inflationsbercksichtigung keine Mindestrendite von 0 %, sondern eine in Hhe der Inflationsrate anstreben.
4

Zur Renditedefinition vgl. Abschnitt I 2.2.1.5 bzw. die Formeln 02, 35) und 02, 40).

5 Die genaue Bedeutung der Division durch n - 1 anstatt durch n werden wir im Rahmen
der induktiven Statistik in Kapitel III behandeln.

57

2. Eindimensionale Hufigkeitsverteilungen

Beispiel I 2-31

Volatilitt

Die Jahresrenditen einer Aktie A lagen in den Jahren 2002 bis 2006 bei -15, 40, 30, -40
und 35 %. Anhand dieser Daten und einer anderen Aktie B (mittlere Rendite von 6 % und
Standardabweichung der Rendite von 30 % fr den gleichen Zeitraum) wollen wir nun die
Vorteilhaftigkeit des Papiers A beurteilen:

7 =~.(-{l,15+0,40+0,30-0,40+0,35) = 0,10 =10 %


" =

~ 5~ l' [(-{l,15-0,1 0)2 + ... +(0,35-0,1 0)2] = "0,1263 = 35,54 %

Da das Papier B bei niedrigerer Durchschnittsrendite eine niedrigere Standardabweichung


aufweist, hngt die Vorteilhaftigkeit des Wertpapiers A von den Prferenzen des Investors
ab. Ist der Investor bereit, fijr hhere Ertragschancen zustzliche Risiken einzugehen, so
wird er sich fijr Papier A entscheiden.
Wrden beide Papiere unter sonst unvernderten Bedingungen die gleiche Durchschnittsrendite aufweisen, so wre Papier B als vorteilhafter einzustufen, da bei geringerem Risiko
die gleiche Durchschnittsrendite erzielbar ist wie bei Papier A.

Da die "nonnale" Standardabweichung aus (12: 63) auch positive Abweichungen


vorn Durchschnitt bercksichtigt, die ja fr den Investor nicht unbedingt ein Risiko
darstellen mssen, verwendet man zum Teil sog. Downside-Risikomae, welche
nur negative Abweichungen aufnehrnen 6 Zu diesen zhlt etwa die Semi-Volatilitt,
welche wir aus historischen Daten mittels

""

"ml

lL"(-)'
= -,
r,-r
I
n

1=1

schtzen knnen, wobei ii fr die Anzahl negativer Abweichungen von


Beispiel 11 2-32

r steht.

Semi-Volatilitt

ber einen Zeitraum von n = 8 Werktagen ergaben sich fr eine Aktie folgende Renditen
(mit 7 = 0,0025):

r, - r

-0,02
-0,0225

0,02
0,0175

-0,03
-0,0325

0,01
0,0075

0,00
-0,0025

-0,01
-0,0125

0,0075

0,0375

Mit ii = 4 negativen Abweichungen ergibt sich daraus die Semi-Volatilit zu


"Hm'

~. [(-{l,0225)2 +(-0,0325)2 + (-{l,0025)2 +(-{l,OI25)2] = 0,0147.

Diese Semi-Volatilit fllt hier natrlich niedriger aus als die Volatilitt, die auch positive
Abweichungen berOcksichtigt (" = 0, 0225), da erstere nur 4 quadrierte Abweichungen
aufnimmt.

6 Einen umfassenden berblick ber Risikomae und deren Implementierung geben z.B.
Auer, B.R., Seitz, F. (2008). Praktische Anwendungen fmden sich z.B. bei Rottmann, H.,
Franz, T. (2007, 2008).

I Deskriptive Statistik

58

Die volatilitten aus den Beispielen 11 2-31 und 11 2-32 sind nicht direkt miteinander vergleichbar, da (abgesehen von der Tatsache, dass verschiedene Risikomae
verwendet werden) in Beispiel 11 2-31 Jahresdaten und in Beispiel D 2-32 Tagesdaten verwendet wurden. In der Praxis wird daher eine sog. AnnuaJ1s1erung mit

folgenden Formeln vorgenommen:

bei Monatsdaten:

b _ = b _ '/252
O.."..,.uen = a___ .Ji2

bei Quartalsdaten :

'annuaIiIien = (JQualtllldaIeD.

bei Tagesdaten :

J4

hs2

Bit

In Beispiel TI 2-32 ergibt sich somit 0"0DDU1laIer\ = 0, 0225


= 0,3572. Wie wir unschwer erkennen, ist die Zahl unter der Wurzel stets die Anzahl der ZU bercksichtigenden Subperioden. Bei Tagesdaten ist dabei zu beachten, dass Handelstage und
nicht tatschliche Kalendertage zu verwenden sind.
Volatilitaten auf Aktien- und AnleihenmArkten

Bel.plell 2-33

In der Praxis geben uns VolatilitAten vor allem Auskunft Ober die Fragilitt der Lage auf
den Rnanzmarkten. Betrachten wir dazu folgende Tabelle, die die annualisierten Renditestandardabweichungen der Aktienindizes COAX (Deutschland) und S&P 500 (USA) sowie
des REX (Index fOr deutsche Staatsanleihen) fOr die Jahre 2003 bis 2010 zeigt. Die annualisierten Standardabweichungen wurden aus den Tagesrenditen der jjWeiligen Jahre ermittelt, d.h. ihnen liegt die oben behandelte Fonnel a-........I111111 = a-T~"' 252 zugrunde.

2003
2004
2005
2006
2007
2008
2009
2010

CDAl<

S&P 500

REX

27,0746
14,5774

17,0676
11,0935

3,7965
2,7339

11,1793
14,9402

10,2835
10,0253

2,9039
2,5242
2,9950
7,0120
3,7660
3,2983

15,6750

15,9856

38,3501

40,8733

27,5225
18,2851

27,2850
18,0517

Wie deutlich zu erkennen ist. kommt es im Zuge der im Jahr 2008 verstrkt zu Tage
tretenden Finanzmarklkrise auf allen Mrkten (Aklien- und Anleihenmarkl) zu stark gestiegenen VolatililAten. Insbesondere auf dem amerikanischen Aktienmarkl ist eine starke
Steigerung der Renditeschwankungen zu verzeichnen. Selbst die Anleihenmrkle, die gewhnlich durch niedrigere VolatilitAten gekennzeichnet sind, warden durch die Krise in Mitleidenschaft gezogen. Nach 2008 zeigt sich eine Beruhigung der MArkte.
Zur genaueren Analyse (bzw. besseren Verdeutlichung) der sich zeitlich verndemden
Volalilitt auf den Mrkten empfiehlt sich auch eine Betrachtung auf Monatsbasis. Wir berechnen dazu aus den Tagesrenditen fOr jeden Monat des Betrachtungszeitraums die geschtzte Volatilitit und annualisieren diese wiederum mit a-..n"_~ = aTIIg_n .1252 . Die
daraus resultierende Volalilittsentwicklung ist in den nachfolgenden Grafiken abgebildet.
Die monatliche Betrachtung stellt den krisen bedingten Anstieg noch deutlicher dar als die
Betrachtung auf Jahresbasis. Erneut zeigt sich, dass der Volatilittsanstieg auf den Aktienmrkten strker ausfiel als auf den Anleihenmriden. Auch auf Monatsbasis ist eine sich
anschlieende Marklberuhigung zu erkennen.

2. Eindimensionale Hufigkeitsverteilungen

59

w,-----------------------,

w,-----------------------,

.,
'"

.,
.,'"

Ol

...'"
00

01

02

03

04

05

06

f11

(11

0IiI

10 11

w',-----------------------,

.,

.,
.,

00

2.2.2.5

01

02

04

O!i

Oll

fIT

06

Oll

10 11

Variationskoeffizient

Soll die Streuung zweier Verteilungen mit stark verschiedenen Mittelwerten verglichen werden, sind die absoluten Streuungsmae Varianz und Standardabweichung oftmals ungeeignet, da sie nicht das Niveau der Daten bercksichtigen.
Nehmen wir etwa an, wir stellen fr zwei Verteilungen A und B die Mittelwerte
10.000 und 1 und jeweils eine Varianz von 10 fest. Fr Verteilung A wrden wir die
Varianz als gering bewerten, bei Verteilung B hingegen als eher gro. Ohne die
gleichzeitige Betrachtung der Mittelwerte htten wir eine solche Schlussfolgerung
nicht treffen knnen. Zudem ist es in der Regel so, dass die absoluten Streuungsmae bei zahlenmig greren Merkmalswerten grer ausfallen als bei kleineren. So fallt z.B. die Standardabweichung bei Pkw-Preisen hher aus als jene bei
Kaugummi-Preisen, was auch hier einen direkten Vergleich erschwert. Um den-

noch aussagekrftige Vergleiche durchfhren zu knnen, empfiehlt sich die Verwendung sog. relativer Streuungsmae, die das Niveau der Daten bercksichtigen.
Sie werden konstruiert, indem ein Streuungsma zu dem entsprechenden Lagema
ins Verhltnis gesetzt wird. Relative Streuungsmae sind dimensionslose Gren,

d.h. sie besitzen keine Einheit, und sind daher besonders bei Vergleichen von Verteilungen mit unterschiedlichen Maeinheiten wertvoll. Das gebruchlichste relative
Streuungsma ist der Variationskoefflzient VC, der auf der Standardabweichung
und dem arithmetischen Mittel basiert:

VC=lxl

02: 64)

60

I Deskriptive Statistik

Der Variationskoeffizient wird in der Praxis gelegentlich als Ma fr die Streuung


der Wechsel- oder Wertpapierkurse verwendet. Generell hat sich jedoch die Standardabweichung der Renditen als Volatllittsma durchgesetzt.
Beispiel I 2-34

Variationskoeffizient und Aktienvolatilitt

Der Kurs der X-Aktie weist in einem Zeitraum von 200 Handelstagen bei einem Mittelwert
von x=49,30 eine Standardabweichung von s,=35,14 auf. FOr den identischen
Zeitraum ergab sich fOr die V-Aktie ein Mittelwert von y = 385,17 und eine Standardabweichung von s, = 179,55 .
Ein Vergleich der Variationskoeffizienten
VC = s, = 35,14 =0 71
, lxi 49,30
'
VC = s, = 179,55 =0 47
, lyl 385,17
'
zeigt, dass trotz geringerer Standardabweichung die X-Aktie strker streute.

Beispiel I 2-35

Variationskoeffizienten im Basisbeispiel

Fr unser Wechselkursbeispiel I 2-23 erhalten wir folgende Variationskoeffizienten:


A-Dollar:

VC = .!. = 0,0632 = 0 0527


lxi
1,20
'

B-Dollar:

VC=.!.= 0,3286 =0 1643


lxi
2,00
'

Um nun einen umfassenden Variationsvergleich durchfOhren zu knnen, wollen wir die Ergebnisse der bisher berechneten Streuungsmae (unter Zusatzangabe der dabei verwendeten Lagemae) in folgender Tabelle zusammenfassen:

X Mod

x
SP
MA
s'
s
VC

A-Dollar
1,20 A$
1,20 A$

B-Dollar
2,05 B$
2,00 B$

0,20 A$

0,80 B$
0,32 B$

0,06 A$
0,0040A$'
0,0632A$

0,1080 B$'
0,3286 B$

0,0527

0,1643

SP, MA, s' und s sind als absolute Mae der Streuung beim B-Dollar am grten. Auch
der Variationskoeffizient als relatives Streuungsma erlaubt die Schlussfolgerung, dass
der B-Dollar strker streut als der A-Dollar. In diesem speziellen Fall macht es also keinen
Unterschied, ob wir absolute oder relative Mae fr den Streuungsvergleich heranziehen.
Dies lsst sich damit begrOnden, dass hier anders als im Beispiel I 2-34 der Unterschied
zwischen den Mittelwerten nicht sonderlich gro ist. Wir knnten also genau so gut auch
auf die Verwendung relativer Mae verzichten.

61

2. Eindimensionale Hlufigkeitsverteilungen

Weitere relative Streuungsmae lassen sich aus den Quartilen einer Verteilung bestinunen. So wird gelegentlich der sog. Quartilskoefftzient Coder QuartilsdispersionskoeffizienO

QK
berechnet. Unter Verwendung anderer Quantile knnen des Weiteren noch andere
Quanfilsverbltnisse, wie etwa X O9 I~,l oder ~.9 I XO.'l' zur Beschreibung der
Streuung gebildet werden.
BOI-Whisker-Plot

Neben den bisher behandelten Methoden werden in der Praxis zum. Vergleich von n
Verteilungen gelegentlich sog. BoI-Whfsker-Plots eingesetzt. Sie fassen die in ~
einem Datenbestand enthaltene Infonnation mit Hilfe von 5 Zahlen, ~, Ql' x-, Q"
x", zusammen und stellen damit Lage, Streuung, Schiefe und Ausreierwerte der
Verteilung grafisch dar. Wie Abbildung I 14 zeigt, setzt sich ein einfacher BoxWhisker-Plot aus folgenden Bestandteilen zusammen:

Skala der Merkmalswerte ~


Rechteck (Box) vom unteren Quartil Ql bis zum. oberen Quart1l Q,
Senkrechte Striche zur Markierung von Median ~ und der beiden Extremwerte ~ und x..
Waagerechte Striche von der Box zu den beiden senkrechten Extremwertstrichen
Das Zentrum von mit Box-Whisker plots visualisierten Verteilungen wird durch den
Median X- lokalisiert. Die beiden Extremwerte ~ und x.. infonnieren ber den
Datenausdehnungsbereich. Die Box zeigt den zentralen 50 %-Anteil der Daten. Die
linke und rechte Seite der Box stellt jeweils 25 % der Daten dar. Die waagerechten
Striche links und rechts von der Box symbolisieren jeweils 25 % der Randdaten.

SP
Xlll~d

x,

I I

x.

QA
0

Q,

Q,

x,

Abbildung I 14: Einfacher Box-Whisker-Plot


Hinsichtlich der Schiefe der Verteilung lsst sich mit einem Box-Whisker-plot sagen,
dass ein rechts (links) von der Mitte der Box liegender Median eine linksschiefe
Crechtsschiefe) Verteilung aufzeigt. Befindet sich der Median in der Mitte der Box,
liegt eine symmetrische Verteilung vor. Bei einer solchen Vorgehensweise bercksichtigen wir allerdings nur die mittleren 50 % der Beobachtungen zur Beurteilung
der Schiefe.

I Deskriptive Statistik

62

Bei der Interpretation von Box-Whisker-Plots ist zu bercksichtigen, dass die Lnge
der waagerechten Striche von der Box zu den beiden Extrema durch wenige Ausreierwerte stark beeinflusst werden kann. Deswegen werden extreme Werte meist

gesondert behandelt. Dazu werden zunchst sog. Ausreierzune definiert, die zur
Identifikation von Ausreiern dienen sollen. Diesen liegt der Gedanke zugrunde,
dass Werte, die weit auerhalb der Box liegen, als potenzielle Ausreier betrachtet
werden knnen. Wir berechnen den sog. inneren Zaun als
[Q, -1,5'QA; Q, +1,5'QAl
und den sog. ueren Zaun als
[Q, -3'QA; Q, +3QAl.
Mit diesen Zunen knnen wir nun z.B. sagen, dass ein Wert, der ber den inneren

Zaun hinausgeht als potenzieller Ausreier betrachtet werden kann. Ein solcher
Ausreier ist als weniger krass einzustufen als einer, der den ueren Zaun berschreitet. In der Praxis werden fr Werte innerhalb des inneren Zauns BoxWhisker-Plots nach der eingangs beschriebenen Methodik gezeichnet. Treten Werte
auerhalb des inneren Zauns auf, werden diese als Zahlenwerte im plot angegeben, um eine Zu starke Streckung der Grafik ber die Spannweite SP zu vermeiden.
Die senkrechten Striche dienen in einem solchen Plot fr den kleinsten Wert x",
der grer oder gleich Q, -1,5 QA ist, und den grten Wert x.' der kleiner oder
gleich Q, + 1, 5 . QA ist. Abbildung I 15 skizziert dies.
[Q, -1,5'QA; Q, +1,5'QAl
X Med

Liste der xWerte links

des inneren
Zauns

-\'

I I

llste der xWerte rechts

x.

des inneren
Zauns

QA

Q,

Q,

Abbildung I 15: Spezieller Box-Whisker-Plot

2.2.3

Momente und Schietemae

Nach Lage und Streuung ist die Schiefe ein drittes wichtiges Einzelcharakteristikum
von Hufigkeitsverteilungen. Wie wir bereits gesehen haben, fhren die Lageparameter x,..., x.", und x nur bei symmetrischen Verteilungen zu einheitlichen Ergebnissen. Bei asymmetrischen oder schiefen Verteilungen fallen die Ergebnisse auseinander. Die Auswahl und Interpretation von Lagernaen wird hier zum Problem.
Um das Ausma der Schiefe einer Verteilung abschtzen zu knnen, ist es sinnvoll,
die Schiefe anband einer Kennzahl zu messen. Hier bietet sich der Schiefekoeffizient an, der aus dem Konzept der Momente entsteht.

63

2. Eindimensionale Hlufigkeitsverteilungen

2.2.3.1

Empirische Momente

Beim Konzept der Momente handelt es sich um ein einheitliches System von Kennzahlen fr metrische Merkmale, mit dem wir in der Lage sind verschiedene Eigenschaften von HufigkeitsverteUungen (insbesondere auch Lage, Streuung und
Schiefe) zu beschreiben.
Ist eine Urliste ~, ~, ... ,x" gegeben und ist 6 eine natrliche Zahl, so erhalten wir
das sog. 6-te Moment um Null als

m,(O) =- LX:
n

,~

und das zentrale Moment der Ordnung 8 als

m.Ci) = ! t(x j -x)~ .


n~

Einige dieser Momente sind uns bereits begegnet. Das erste Moment um Null entspricht nmlich dem arithmetischen Mittel

ml(O)=!~::X:=x
n

1_1

und das zentrale Moment zweiter Ordnung der Varianz

m~(x) =! t(~
n

_X)l

= Sl.

I_I

Aufgrund der Zentraleigenschaft des arithmetischen Mittels ist das zentrale Moment
erster ordnung immer Null:
_

_,

1~

~(x)=-,L..(x!-x)

2.2.3.2

1_1

1~
_
=-,L..xl-x=O

l-l

Scldefemae

fJi

Fr symmetrische Verteilungen nehmen die zentralen Momente m,ex) ungemd


Ordnung a - 3,5,7, ... den Wert Null an. Aus m 5 (x) =I:. 0 fr ein 6 E (3,5,7, .. J kn- ~
nen wir daher auf eine schiefe Verteilung schlieen. Jedes dieser zentralen Momente ist daher theoretisch zur Messung der Schiefe geeignet. In der Praxis hat sich jedoch ein dimensionsloses Schiefema durchgesetzt. welches auf den zentralen
Momenten m1ex)=sl und m,(x) basiert und als ScbfcfckodBzicnt bezeichnet
winI.
Den Schiefekoeffizient &i berechnen wir in der Urliste als
m 5 ex)

m, (x)

gM=-S-'-= (SlY5 =

1 ~(
_)'
-,L..~-x
~n,,-~,.~,_ _ _=

(l.:t(XI-X)l)''
n

,~

64

I Deskriptive Statistik

Fr die Hufigkeitstabelle gilt

~. thCaj ) . Ca j n

gM =

x)'

j-l

tfCa j ) . Ca j

x)'

_!::j-~1_ _ _ _ _~

(~. thca;). Ca; _ xY)"5 = ( t fca;). Ca; _ xY)"5


n

(12: 69)

Liegt eine Hufigkeitstabel/e mit klassierten Daten vor, so werden zur nherungsweisen Berechnung in (12: 69) lediglich die a, durch die aj und die Hufigkeiten
durch Kiassenhufigkeiten ersetzt.
Eigenschaften des Schiefekoeffizienten:

Die Division durch

S3

generiert ein dimensionsloses Schiefema, welches den

Vergleich zwischen verschiedenen Verteilungen ennglicht.

Die Wahl von 3 an Stelle von 2 als Exponent bei der Abweichungsberechnung im Zhler bewirkt, dass groe Abweichungen strker ins Gewicht fallen
und die Vorzeichen der Abweichungen erhalten bleiben.

Das Vorzeichen des Schiefekoeffizienten gibt Auskunft ber die Schiefe der
Verteilung. Es gilt konkret
gM > 0
gM < 0
gM = 0

~
~

rechtsschief
linksschief
symmetrisch

(12: 70)

Je grer der Betrag IgM Ider Kennzahl ist, desto schiefer ist die Verteilung.
Beispiel I 2-36

Schiefekoeffizient

In einem Konzern mit 50.000 Mitarbeitern wurde von der Personalabteilung aufgrund bevorstehender Entlassungen eine Erhebung zur Anzahl der Kinder je Mitarbeiter (0 bis 3)
durchgefUhrt. Da kinderlose Mitarbeiter aufgrund der sozialen Entlassungspolitik zuerst
ausgestellt werden, sind die Ergebnisse von besonderer Bedeutung.

Es liegt nun dazu folgende HAufigkeitstabelie (mit = 0,77) vor. In diesem einfachen, bersichtlichen Fall kann bereits aus der Hufigkeitstabelle eine Aussage ber die Schiefe
der Verteilung gemacht werden. Aufgrund der kleiner werdenden Werte von f(al), ist nmlich eine rechtsschiefe Verteilung zu vermuten. Bei komplexeren Verteilungen sind konkrete Aussagen jedoch nur noch Ober den Schiefekoeffizenten mglich.

2
3
4

aj

h(a~

f(aj)

aJ-x

f(a;). (aj -

0
1
2
3

24.510
15.430
7.050
3.010
50.000

0,49
0,31
0,14
0,06
1,00

-0,77
0,23
1,23
2,23

0,29
0,02
0,21
0,30
0,82

x)'

f(a;). (a; -0,22


0,00
0,26
0,67
0,71

x)'

2. Eindimensionale Hufigkeitsverteilungen

65

Es ergibt sich daraus ein positiver Schiefekoeffizient von

g,. = 0,7,t, = 0,96,


0,82'
der anzeigt, dass die vorliegende Verteilung rechtsschief ist.

Neben g. existiert in der Literatur eine Vielzahl weiterer Schiefemae. Da er im


Vergleich zu g. unempfindlich gegenber Ausreiern ist, ist davon vor allem der
Schiejequarti/skoejfizlent von Bowley interessant. Er ist definiert als
(Q, gQ =

X M,.) -

(x"", - Q,)

QA

(12: 71)

Auch fr ihn gilt (12: 70) analog. Die Division des Zhlers durch den Quartilsabstand bewirkt eine Nonnierung der Kennzahl auf das Intervall -1 ,:; &, ,:; 1. Bei
ausgeprgter Rechtsscruefe gilt Q, = x."" woraus &, = 1 folgt. Analog gilt bei ausgeprgter Linksschiefe x.", = Q" woraus &, = -1 folgt.

2.2.4

Konzentrationsmessung

In den Wirtschaftswissenschaften bezeichnen wir eine Ballung der Verfgungsgewalt ber Produktionsfaktoren (natrliche Ressourcen, Beschftigte, usw.) oder
eine Ballung wirtschaftlicher Ertrge (Umstze, Gewinne, Einkommen, usw.) in den
Hnden weniger Wirtschaftssubjekte als Konzentration. Konzentration knnen wir
mittels spezieller Mazahlen quantifizieren. Diese lassen sich grob in zwei Klassen
einteilen: Mazahlen der absoluten Konzentration untersuchen, ob der Groteil
des gesamten Merkmalsbetrages (z.B. Umsatz) auf eine kleine Anzahl von Merkmalstrgern (z.B. Unternehmen) entfllt. Jene der relativen Konzentration messen, ob der Groteil des gesamten Merkmalsbetrages auf einen kleinen Anteil von
Merkmalstrgern entfllt.

Ein in der Praxis bedeutendes Einsatzgebiet der Konzentrationsmessung ist die Abschtzung von Ausma und Entwicklung der Ballung wirtschaftlicher Macht auf
einzelne oder wenige Unternehmen (Unternehmenskonzentratton). Die Beherrschung eines Marktes durch wenige groe Unternehmen beeintrchtigt nmlich
den Wettbewerb unter den Unternehmen. Gerade daher hat das Statistische Bundesamt ein Berichtssystem zur kontinuierlichen Beobachtung von Konzentrationsprozessen geschaffen. Zudem existieren mit dem Bundeskartellamt und der Mono-

polkommission Instanzen, die die Unternehmenskonzentration begutachten und


berwachen. Ein weiteres Einsatzgebiet der Konzentrationsmessung ist die Untersuchung der Einkommens- oder Vermgensverteilung von Wirtschaftssubjekten in
einer Volkswirtschaft (Einkommens- und Vermgenskonzentration). Diese ist von
Bedeutung, da sie die Entscheidungsgrundlage fr eine staatliche Verteilungspolitik
liefert. Auch einige betriebswirtschaftliche Fragestellungen lassen sich mit der Konzentrationsmessung beantworten. So knnen Konzentrationsmae z.B. zur Analyse
der Kostenstruktur von Beschaffungsgtern im Rahmen der sog. ABC-Analyse eingesetzt werden. In der Regel konzentriert sich nmlich ein hoher Anteil der Beschaffungskosten auf wenige Gter (sog. A-Gter), die es zu identifizieren gilt, damit ihre Beschaffungspolitik optimiert werden kann.

66

I Deskriptive Statistik

2.2.4.1

Mazahlen der abaoluten Konzentration

Voraussetzung fr viele Verfahren der Konzentrationsmessung ist zunchst, dass


Xz S; S; gilt. Die
sog. Merkmalssurnme MS ergibt sich daraus als

~ die n Merkmalswerte der Groe nach geordnet sind, also ~ S;

MS=

x..

ix,.
,~

Wir untersuchen ausschlielich metrisch skalierte Merkmale X, die nur nJchtnep._


dvc Zahl." als Werte annehmen knnen Cz.B. Unternehmensumstze, Haushaltseinkommen, Kosten von Beschaffungsgtern, usw.) und fr die nicht alle x..
gleichzeitig Null sind. Nur dann knnen wir nmlich die Anteile der einzelnen
Merkmalswerte an der Merkmalssumme
X,

([2, 73)

PI= MS

bestimmen, fr welche aufgrund der Sortierung der einzelnen Merkrnalswerte PI S;


Pz S; s: Pn gilt. Aus diesen Anteilswerten lassen sich die Konzentrationsrate, der
Herfmdahl-Index und der Exponentialindex berechnen:

1. Konzentrationsra:te
Unter der Konzentrationrate (-koeffizient) CR (engL concentration ratio) verstehen
wir den Anteil an der Merkmalssumme MS, der auf die m grten Merkmalstrger
entfllt. Er ist definiert als
CR =

i
i:,.,

x,

1... -",+1

XI

(12, 74)

p,

~_111.+1

und ergibt sich also durch einfache Addition der Anteilswerte der m grten
Merkmalswerte. Das "+ 11 in der Fonnel ergibt sich dadurch, dass wenn wir Z.B. die
3 grten Werte aus einer sortierten Uste von 7 Werten betrachten wollen, wir uns
konkret fr die Werte Ne. 5, 6 und 7 interessieren. Um die Nr. des Startwerts (hier
also 5) zu erhalten, knnen wir also nicht einfach 3 von 7 subtrahieren.
E~genscha.ften

der KonzentraUonsrate:

Die Anwendung von CR ist in der Praxis sehr beliebt, da sich dieses Ma
durch seine einfache Berechenbarkeit auszeichnet.

Durch Beschrnkung auf ein einziges, oft willkrlich festgelegtes m bleibt die
gesamte sonstige, in der Verteilung enthaltene Information unausgeschpft.
Bei der Beurteilung von Konzentrationsunterschieden in verschiedenen Verteilungen knnen wir leicht zu Fehlschlssen gelangen, wenn der Vergleich
ausschlielich fr einen einzigen Wert m durchgefhrt wird. Durch geschickte
Wahl von m kann das Ergebnis eines Vergleichs sogar beeinflusst werden.

Bei Gleichverteilung der Merkmalssumme MS auf die n Merkmalstrger gilt


1

PI = Pl'''=P.. =n

-+

CRm =

:t

1...,-m+1

~=m.
n

(12, 75)

2. Eindimensionale Hufigkeitsverteilungen

67

Beispiel I 2-37

Basisbeispiel zur Konzentrationsmessung

Grundlage fr die Beispiele, die wir in den nachfolgenden Abschnitten verwenden, sind
folgende Tabellen. Sie zeigen 8 Verteilungen {A-H} von Unternehmensumstzen. Betrachten wir z.B. Verteilung D, so knnen wir sagen, dass Firma 4 genau,,", = 280 Mio. Euro
Umsatz bzw. p. = 0,14 = 14 % des Gesamtumsatzes {bzw. der Merkmalssumme MS} aller
5 Unternehmen dieser Verteilung aufweist.
Verteilungen {Umsatz in Mio.}
B
e

A
Firma
1
2
3
4
5
MS

X,

~I

0
0
0
0
2.000
2.000

0,00
0,00
0,00
0,00
1,00
1,00

E
Firma

1
2
3
4
5

X,

PI

440
480
520
560
2.000

0,11
0,12
0,13
0,14
0,50

4.000

1,00

6
7
8
9
10
MS

Xi

400
400
400
400
400
2.000

~I

0,20
0,20
0,20
0,20
0,20
1,00

Xi

120
160
400
600
720
2.000

~I

0,06
0,08
0,20
0,30
0,36
1,00

Verteilungen {Umsatz in Mio.}


F
G
x,
Xi
PI
PI
60
60
80
80
200
200
300
300
360
360
2.000

0,03
0,03
0,04
0,04
0,10
0,10
0,15
0,15
0,18
0,18
1,00

200
200
200
200
200
200
200
200
200
200
2.000

0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
1,00

D
Xi

~I

220
240
260
280
1.000
2.000

0,11
0,12
0,13
0,14
0,50
1,00

H
Xi

1
1
1
1
1
399
399
399
399
399
2.000

PI
0,0005
0,0005
0,0005
0,0005
0,0005
0,1995
0,1995
0,1995
0,1995
0,1995
1,00

Vergleichen wir nun zunchst die Konzentration in den Verteilungen A, Bund e mittels der
Konzentrationsrate fr m = 3, liegt der Anteil der drei grten Unternehmen am Gesamtumsatz in den Verteilungen bei
eR: = Ps +P. +p, =1,00+0,00+0,00 =1,00

e~=~+~+~=~~+~~+~~=~OO

e~=~+~+~=~~+~~+~~=~OO,

was uns zeigt, dass die Verteilung A die hchste absolute Konzentration aufweist. Dies ist
auch nicht verwunderlich, da in dieser der gesamte Umsatz von nur einem Unternehmen
erwirtschaftet wird.

Zur einfachen Veranschaulichung der Manipulierbarkeit des Konzentrationsverhltnisses


bestimmen wir den Anteil der m = I, m = 2 und m = 3 grOten Unternehmen am Gesamtumsatz in den Verteilungen e und D. Wir erhalten damit folgende Werte:

68

I Deskriptive Statistik

CR~ = Ps = 0,36

CR~ =0,50

CRi = Ps +P. = 0,36+0,30 =0,66

CR~ = 0,50+0,14 = 0,64

CRi = Ps +P. +p, =0,36+0,30+0,20 = 0,86

CR~ = 0,50+0,14+0,13 = 0,77

Whlen wir also ein m grer als 1, so ist die Konzentration in Verteilung C hher. Entscheiden wir uns hingegen fiir m = 1, ist die Konzentration bei D hher. Der Leser statistischer Verffentlichungen sollte sich einer derartigen Problematik bewusst sein.

2_ Herfindahl-Index
Der Hetftndahl-Index H ist die Summe der quadrierten Anteile p. der Merkmalstrger an der Merkmalssumme MS. Da alle Anteile p, in die Berechnung eingehen,
mssen diese hier nicht der Gre nach geordnet sein.

i-I

(12: 76)

Eigenschaften des Heifindahl-Index:

Der Herfindahl-Index lsst sich sehr einfach aus nicht sortierten Merkmalsausprgungen berechnen und schpft die gesamten in der Verteilung enthaltenen
Infonnationen aus. Anders als bei der Konzentrationsrate eR kommt es bei
ihm also zu keiner Infonnationsvemachlssigung.

Haben alle Merkmalswerte den gleichen Anteil an der Merkmalssumme, so


liegt minimale Konzentration vor. Der Herfmdahl-Index ist in diesem Fall
gleich l/n. Es gilt nmlich
1

H=n-=-.
n' n

p, = p, = ... = Pn =n

(12: 77)

Im Falle maximaler Konzentration entfllt die gesamte Merkmalssumme auf


einen Merkmalstrger , wobei alle anderen Merkmalstrger einen Anteil von
Null an der Merkmalssumme haben. Der Herfmdahl-Index ist dann 1, da

PI = P2 = ... = Pn-l = 0, Pn = 1

H=1

(12: 78)

gilt. Aufgrund dieser Eigenschaft bewegt sich H im Intervall

~~H~I.

(12: 79)

Zwischen dem Herfindahl-Index und dem Variationskoeffizienten VC bzw.


der Varianz s' lsst sich folgender Zusammenhang feststellen:
1 ( VC,
H = ~.

1
+ 1) = ~.

(s'x'

+1

(12: 80)

In dieser Darstellung fonnulieren wir den Variationskoeffizienten nicht wie in


(12: 64) mit Absolutstrichen, da wir ja unsere Betrachtungen nur auf nichtnegative X, beschrnken.

69

2. Eindimensionale Hufigkeitsverteilungen

Beispiel I 2-38

HerfindahHndex

Fr die Verteilungen A, Bund C aus Beispiel I 2-37 erhaUen wir die folgenden HerfindahlIndizes:

HA = 0,00' +0,00' +0,00' +0,00' +1,00' = 1,00

H" = 0,20' +0,20' +0,20' +0,20' +0,20' = 0,20


He = 0,06' +o,oa' +0,20' +0,30' +0,36' = 0,27
Fr Verteilung A nimml H den Wert 1 an, was maximale Konzentration belegt. FOr Verteilung B erhalten wir 0,20 = 1/5 = l/n, sodass hier minimale Konzentration besttigt wird.
Betrachten wir die Verteilungen D und E, so ist festzustellen, dass eine proportionale Vernderung (z.B. Verdoppelung) der Merkmalswerte keinerlei Auswirkung auf den Herfindahl-Index hat. Es gilt HD = HE = 0,31.
Vergleichen wir die Verteilungen Bund H, zeigt sich, dass das Hinzufgen einer Anzahl
von sehr kleinen Merlkmalstrgern kaum Einfluss auf den Wert des Herfindahl-Index hat.
Es gilt nmlich He = 0,200 und HH = 0,199.
Der Herfindahl-Index der Verteilung B mit He = 0,20 ist doppelt so hoch wie der der Verteilung G mit HG = 0,10. Es macht also einen Unterschied, ob sich die Merkmalssumme
von 2.000 gleichmig Ober 5 oder 10 Merkmalstrger verteilt. hnliches gilt auch fOr die
Verteilungen C (He = 0,2696) und F (HF = 0,1348).

3_ExponentlaUndex
Potenzieren wir alle AnteUswerte p, mit sich selbst und multiplizieren diese Potenzen miteinander, erhalten wir den ExponentIalIndex E als
(12: 81)

Eigenschaften des Exponenttallndex:

pi

Bei Auftreten von Anteilswerten Pi ; ; ; 0 ist

E kann wie der Herfindahl-Index Werte zwischen 1In und 1 annehmen.

;;;;;;

1.

Beispiel I 2-39

Exponentialindex

Fr die Verteilungen A, Bund C aus Beispiel I 2-37 erhalten wir folgende Werte IOr den
Exponentialindex:

EA = 0' 0' 0' 0' 1' = 1


E. = 0,20'20 0,20'20 0,20'20 0,20,,20 0,20,,20 = 0, 20
Ee = 0,06"" + O,Oa"oe + 0, 20,,20 + 0, 30,,30 + 0, 36,,36 = 0, 24
Wie beim Herfindahl-Index wird auch hier bei Verteilung A maximale Konzentration (E = 1)
und bei B minimale Konzentration (E = 0,20 = 1/5 = l/n) besttigt.

70

I Deskriptive Statistik

2.2.4.2

MaRzNen der relativen Konzentration

Das wohl wichtigste grafische Hilfsmittel zur Bestimmung von Konzentrationstendenzen ist die sog. Lorenz-Kurve. Zu ihrer Konstruktion werden n Punkte (UI , VI)
einer in Urlistenform vorliegenden Verteilung bestimmt, zusammen mit einer Diagonalen und einem Punkt (0; 0) in ein quadratisches Schaubild Cvgl. Abbildung I
16) eingezeichnet und miteinander verbunden. Der entstehende Streckenzug heit
Lorenz..Kurve der Konzentration.

VO

r-----------------------------------_o. ~D

v,
v,
~~---~------------------~~

U,

Uo

U,

u,

Abbildung I 16: Konstruktion der Larenz-Kurve


Die n Punkte (UI! VI) werden folgendermaen ermittelt:

Grundvoraussetzung zur Berechnung der genannten Punkte sind wieder eine


der Gre nach sortierte urliste xl:S x 2 S ... S x n und nichtnegative Xi. die eine positive Merkmalssumme MS garantieren.

Die y-Koordinaten VI Ci - 1, "', n) geben die relativen Anteile der Merkmalssumme MS an, den die i kleinsten Merkmalstrger auf sich vereinigen und
werden daher durch Summierung der Anteile PI der i kleinsten Merkmalstrger
an der Merkmalssumme bestinunt:

LXI
I
VI=~=LPI
MS

(12, 82)

J-1

Die x-Koordinaten u, Ci - 1, ... , n) entsprechen den relativen Anteilen der i


kleinsten Merkmalstrger an der Gesamtzahl n der Merkmalstrger:

2. Eindimensionale Hufigkeitsverteilungen

71

Hufig werden die Anteilsstze u, und v, in Prozent ausgedrckt. Die Lorenz-Kurve


verluft dann durch den Ursprung (0; 0) sowie die n Punkte (u, . 100 %; v, . 100 %).
Formal gesehen ist die Lorenz-Kurve eine auf dem Intervall [0; 11 definierte monoton wachsende, konvexe Funktion L(u,) von u" deren Werte die 45'-Diagonale
(Winkelhalbierende) nicht bersteigen. Ein Wert L(u,) . 100 = v, . 100 gibt an, welcher prozentuale Anteil an der Merkmalssumme auf u, . 100 Prozent der kleinsten
Merkmalstrger entfallt. Entsprechend gibt (1 - L(u,)) . 100 = (1 - v) . 100 an, welcher prozentuale Anteil der Merkmalssumme auf (1 - u,) . 100 Prozent der grten
Merkmalstrger entfallt.
Beispiel I 2-40

Lorenz-Kurve

Fr die Umsatzverteilungen A und B aus Beispiel I 2-37 ergeben sich die im Folgenden
dargestellten Koordinaten (u"v,) und die daraus resultierenden Lorenz-Kurven.
Verteilung A

1
2
3
4
5

X;

PI

u,

v,

0
0
0
0
2.000
2.000

0
0
0
0
2.000

1/5=0,20
2/5 = 0,40
3/5 = 0,60
4/5 = 0,80
5/5=1,00

0/2.000 =
0/2.000 =
0/2.000 =
0/2.000 =
2,000/2,000 =

0,00
0,00
0,00
0,00
1,00
1,00

MS = 2.000
n=5

Verteilung B

2
3
4
5

u,

Pi

X;

400
400
400
400
400
2.000

400
800
1.200
1.600
2.000

V,

400 / 2.000 =
800/2.000 =
1.200/2.000 =
1,600/2,000 =
2.000/2.000 =

1/5 = 0,20
2/5= 0,40
3/5= 0,60
4/5= 0,80
5/5=1,00
1,0

1,0

Verteilung A

Verteilung B

0,8

0,8

0,6

0,6

0,'

0,'

0,2

0,2

0,0
0,0

0,20
0,40
0,60
0,80
1,00
3,00

MS -2.000
n=5

0,2

0,'

0,6

0,8

1,0

0,0
0,0

0,2

0,'

0,6

0,8

1,0

72

I Deskriptive Statistik
Die Verteilungen A und B zeigen zwei Extremflle von Konzentration. In Verteilung A liegt
maximale Konzentration vor. Ein Merkmalstrger vereint die gesamte Merkmalssumme auf
sich. Die Lorenz-Kurve verluft bis zum Punkt ((n--I )/n, 0) auf der x-Achse und steigt dann
geradlinig zum Punkt (1; 1) an. Die Funktion ist uerst stark durchgebogen und die Rche zwischen der 45-Diagonale und der Lorenz-Kurve umfasst nahezu die gesamte
Quadrathlfte unterhalb der Diagonalen.
Verteilung B zeigt minimale Konzentration. Jeder Merkmalstrger weist den gleichen Anteil
an der Merkmalssumme auf. Es entfallen auf (iln) . 100 % der kleinsten Merkmalstrger
immer (Vn) . 100 % der Merkmalssumme. Die Lorenz-Kurve fllt mit der 45-Diagonale zusammen und die Flche zwischen Lorenz-Kurve und 45-Diagonale ist logischerweise Null.
Wir knnen daraus schlieen, dass je strker die Konzentration ist,

desto grer ist das FlchenstOck zwischen Diagonale und Lorenz-Kurve,

desto strker ist die Lorenz-Kurve "gebaucht" bzw. desto strker "hngt sie durch".

Betrachten wir auch Verteilung C, stellen wir fest, dass weder minimale noch maximale
Konzentration vorliegt. Die Lorenz-Kurve zeigt hier einen typischen in der Praxis beobachteten Verlauf. Wir wollen nun diese Verteilung nutzen, um die typische Interpretation der
Werte der Lorenz-Kurve zu veranschaulichen. Wir knnen nmlich hier z.B. sagen, dass
auf die U2 . 100 % = 40 % der umsatzschwchsten Unternehmen genau V2 . 100 % = 14 %
des Gesamtumsatzes entfllt. Die (1 - U2) 100 % = 60 % der umsatzstrksten Unternehmen realisieren (1 - V2) 100 % = 86 % des Marktumsatzes.
Verteilung C

1
2
3
4
5

x;

p;

U;

v;

120
160
400
600
720
2.000

120
280
680
1.280
2.000

1/5=0,20
2/5=0,40
3/5 = 0,60
4/5 = 0,80
5/5= 1,00

120/2.000 =
280/2.000 =
680/2.000 =
1.280/2.000 =
2.000/2.000 =

,,0,------------7/
0,8

86 %

0.6
0,4

14 %

0,0

~::::::::-=----_...L

0,0

0,2

40%

0,4

________.l
0,8

0.6

60%

1,0

0,06

0,14
0,34
0,64
1,00
2,18

MS = 2.000
n=5

2. Eindimensionale Hufigkeitsverteilungen

73

Kommt es beim Vergleich der Konzentration zweier Verteilungen anhand ihrer


Lorenz-Kurven zu sich schneidenden Lorenz-Kurven, so kann nicht immer anhand
reiner optischer Analyse ausgesagt werden, welche die strkere Konzentration aufweist. Hilfreich wre also eine aussagekrftige Kennzahl zur Quantifizierung
relativer Konzentration. Wie wir bereits in Beispiel I 2-37 festgestellt haben, ist mit
steigender Konzentration auch eine Zunahme der Flche zwischen 45'-Diagonale
und Lorenz-Kurve verbunden. Diese Flche, die auch als Konzentrationst1che F
bezeichnet wird, kme also theoretisch als Konzentrationsma in Frage. Wie sich
zeigen lsst, knnen wir die Konzentrationsflche ber
1

F=---

(12: 84)

mit

bestimmen? Dividieren wir die Konzentrationsflche F durch die Flche zwischen


der 45'-Diagonalen und der x-Achse (Dreiecksflche mit Flcheninhalt 0,5), so erhalten wir den sog. Gini-Koefflzienten als Ma der relativen Konzentration Zu
G

=...!..= 2F =1- 2V
0,5

(12: 85)

Wir wissen bereits, dass die Konzentrationsflche im Falle minimaler Konzentration


den Wert Null annimmt, da dann 45-Diagonale und Lorenz-Kurve genau aufeinanderfallen. Auch G nimmt im Falle minimaler Konzentration den Wert Null an, da
sich G schlielich direkt aus F ergibt. Bei maximaler Konzentration nimmt F aufgrund der Tatsache, dass die Summe der v, dann gleich 1 ist (vgl. Beispiel I 2-37),
den Wert (n-l)/2n und damit G den Wert (n-1)/n an. Wir knnen damit festhalten,
dass sich G im Intervall
0:S;G:s;n-1
n

(12: 86)

bewegt. Es zeigt sich also, dass selbst im Fall maximaler Konzentration anders als
z.B. beim Herfindahl-Index oder Exponentialindex das Ma G nicht den Wert 1
annimmt, was jedoch eine wnschenswerte Eigenschaft fr ein Konzentrationsma
ist. Da auerdem das Maximum des Gini-Koeffizienten von n abhngt, kann dies
bei Vergleichen von Datenstzen unterschiedlicher Gre problematisch sein. Zur
Korrektur dieser Schwchen des Gini-Koeffizienten wird der Koeffizient daher hufig mit dem Kehrwert von (n-l)/n multipliziert. Wir bezeichnen das dadurch entstehende relative Konzentrationsma auch als normierten Ginl-Koefflzlenten:
G

nonn

=~'G
n-1

(12: 87)

Goo~ weist damit im Falle maximaler Konzentration den Wert Eins auf. Es gilt also
insgesamt

(12: 88)

7 Eine detaillierte Herleitung dieser Pannel ber die Berechnung diverser Dreiecksflchen

unter der Lorenz-Kurve findet sich z.B. in Bleymller, J., Gehlen, G., Glicher, H. (2004),
Kapitel 26.

74

I Deskriptive Statistik

Es lsst sich G und damit ber (12: 87) zudem G"~ auch direkt durch die Daten der
Urliste ausdrcken. So gilt unter Verwendung der Merktnalswerte X,
n

G=

2~>.x, -(n+1)~>,

ntx

1_ 1

(12: 89)

1_ 1
i

und bei Verwendung der Anteilswerte p,

i~)Pi -(n+1)
G

(12: 90)

Zusammengefasst knnen wir fr F, G und Gnorm festhalten, dass alle drei Mae im
Falle minimaler Konzentration den Wert Null annehmen und hohe Konzentration
ntit hohen Werten der Mae einhergeht. Bei maximaler Konzentration ist die Konzentrationsflche fast 0,5 bzw. (n-1)/2n, der einfache Gini-Koeffizient (n-1)/n und
der nonnierte Gini-Koeffizient 1.
Beispiel I 2-41

Gini-Koeffizient aus Urliste

Fr die Verteilungen A, Bund C, deren Lorenz-Kurven wir in Beispiel I 2-40 skizziert


haben, ergeben sich die in folgender Tabelle dargestellten relativen Konzentrationsmae.
Wir knnen darin sehr schn erkennen, dass die Formel (12: 94) zur Bestimmung des normierten Gini-Koeffizienten aus dem einfachen Gini-Koeffizienten exakt funktioniert, da im
Falle der Verteilung A genau ein Wert von 1 (maximale Konzentration) resultiert.
Verteilung A

(V -

F
G

Gnorm

1,00 - 0,50 - 0,50)


.1._ 0,50 =0 40
2
5
'

Verteilung B
!V - 3,00 - 0,50 - 2,50)

.1._ 2,5=000
2

'

.1._ 1,68=016
2

0,00=000
0,50
'
5
0,00- =0,00
5-1

0,40 =0 80
0,50
'
5
0,80-=1,00
5-1

Verteilung C
!V - 2,18 - 0,50 - 1,68)

'

0,16=032
0,50
'
5
0,32-=0,40
5-1

Die bisher behandelten Formeln haben sich auf die Konstruktion der Lorenz-Kurve
und die Bestimmung des Gini-Koeffizienten aus der Urliste bezogen. Liegt nun
aber keine Urliste, sondern eine Hujigke/tstabel/e vor, so gilt fr die Ermittlung
der nun k Punkte CUp v) der Lorenz-Kurve zunchst
,

Vi

L P; =
;=,

:th(al ) a l
.'-1_.0..'- - -

MS

mit

MS = LhCa;) a;

(12: 91)

j=l

Die v, werden also mit den auf die einzelnen Ausprgungen entfallenden Merkmalssummen h(a~ . al gebildet. Die u, erhalten wir durch Sumntierung der relativen
Hufigkeiten f(a~ der relevanten Merktnalsausprgungen:

75

2. Eindimensionale Hufigkeitsverteilungen

(12: 92)
Unter Verwendung dieser Werte erhalten wir die Konzentrationsflche F zu
1

1=1

F = - - - ~)(a) . (Vi

+ Vi_I)

(12: 93)

und dantit den Gini-Koeffizienten


k

G=l- ~)(a).(vi
i_I

+ Vi_I)

(12: 94)

Formel (12: 94) ist natrlich auch auf die Urliste anwendbar, wenn wir die relativen
Hufigkeiten durch 11n ersetzen und die v, nach (12: 82) bestinunen.
Zur Berechnung von G aus einer Hufigkeitstabelle empfiehlt sich die Verwendung
der Arbeitstabelle aus Abbildung I 17. Den normierten Gini-Koeffizienten erhalten
wir durch Einsetzen von (12: 94) in (12: 87).

a,

h(a)

fCa)

h(a,) ai

MS

Lh(a,).a,

,-,

u,

v,

VI

+ V 1_ 1

f(a i ) (Vi + Vi_I)

1:

Abbildung I 17: Arbeitstabelle zur Berechnung des Gini-Koeffizienten


Beispiel I 2-42

Gini-Koeffizient aus Hufigkeitstabelle

Eine statistische Untersuchung ergab, dass sich in einem Land 61 Firmen einen 300 Mio.
Euro Markt fr Schweinehlften wie folgt teilen:
Umsatz in Mio. Euro
ai
1
2
3

Anzahl der Firmen


h{a~

40
10

5
5

200
300

61

Berechnen wir nun daraus den normierten Gini-Koeffizienten und versuchen, darauf basierend, Aussagen ber die Konzentration auf diesem Markt zu machen:

76

I Deskriptive Statistik

,
a;
1
2
3
4
5

1
2
3
5
200

h{a;)

I{a;)

40
10
5
5
1
61

0,66
0,16
0,08
0,08
0,02
1,00

h{a,)' a,

Lh{al)al

u;

v;

40
60
75
100
300

0,66
0,82
0,90
0,98
1,00

0,13
0,20
0,25
0,33
1,00

1_'

40
20
15
25
200
300

Vi

+ Vi-1

!(a;) (v; + V;-1)

0,13
0,33
0,45
0,58
1,33

0,09
0,05
0,04
0,05
0,03
0,26

Es ergibt sich daraus


k

G = 1- LI{a,) . (v, +v,_,) = 1-0,26 = 0,74

,-,

norm

n
61
=-G=--074=075
n-1
61-1'
I

Die Konzentration auf diesem Markt kann also als sehr stark angesehen werden, was nicht
verwunderlich ist, da ein Unternehmen 2/3 des Umsatzes auf sich vereint.

Bei Vorliegen klassierter Daten sind fr die Konstruktion der Lorenz-Kurve


folgende Besonderheiten zu beachten:
Fall 1: Sind fr jede der k Klassen die Klassenhufigkeiten hl und die auf die Klas-

sen entfallenden Merkmalssummen

bekannt, so gehen wir wie soeben beschrie-

ben vor, d.h. wir verwenden die Klassenmerkmalssummen in (12: 91). Sind die
arithmetischen Mittel der Klassen gegeben, so ist entsprechend m l = h l . x fr die
J
jeweilige Merkmalssumme der Klasse j Zu verwenden. Die Berechnung der u, erfolgt unter Verwendung der h, bzw. f, analog Zu (12: 92).
Fall 2: Liegen nur Klassenhufigkeiten und -grenzen vor, behelfen wir uns damit,

fr das arithmetische Mittel der Klassen die jeweiligen Klassenmitten


heranzuziehen.

(a~

+ a~) / 2

Die Berechnung des Gini-Koeffizienten kann im Falle klassierter Daten analog zu

(12: 94) unter Verwendung relativer Klassenhufigkeiten


aus Abbildung I 17 durchgefhrt werden.
Beispiel I 2-43

f, und der Arbeitstabelle

Gini-Koeffizient aus klassierter Huligkeitstabelle

Betrachten wir lolgende liktive Einkommensverteilung. Die lr 7,6 Mio. Brger erhobenen
Einkommen sind in 4 Einkommensklassen eingeteilt. Fr jede der Klassen liegen die Anzahl hl (in Mio.) und der Anteil II der Brger vor, die in diese Klasse lallen. Auerdem kennen wir die Einkommenssumme mj (in Mrd. Euro), die den Brgern einer Klasse zulliet,
sowie den Anteil pj dieser Summe am Gesamteinkommen aller 7,6 Mio. Brger.
Einkommensklasse

ber a~ bis af
1
2
3
4
E

5.000
9.000
13.000

5.000
9.000
13.000
35.000

Einkommensbezieher
hl
2,0
2,0
1,8
1,8
7,6

II
0,26
0,26
0,24
0,24
1,00

Einkommen pro Klasse


ml
5
11
11

25
52

PI
0,10
0,21
0,21
0,48
1,00

77

2. Eindimensionale Hufigkeitsverteilungen

Hier erleichtert sich die Berechnung der Werte u, und v, erheblich, da die zur Kumulation
bentigten Daten fj und pj bereits vorliegen. Durch eine Kontrollrechnung wie P1 = m, / MS
= 5 / 52 = 0,10 erkennen wir jedoch, dass sich dahinter genau die geschilderte Vorgehensweise (Fall 1) verbirgt.
Zur Berechnung des Gini-Koeffizienten stellen wir die folgende Arbeitstabelle auf:

1
2
3
4

f,

p,

u,

v,

V 1+VI_1

f,,(v,+vl-1)

0,26
0,26
0,24
0,24
1,00

0,10
0,21
0,21
0,48
1,00

0,26
0,52
0,76
1,00

0,10
0,31
0,52
1,00

0,10
0,41
0,83
1,52

0,03
0,11
0,20
0,36
0,70

Daraus ergibt sich ein Gini-Koeffizient von G = 1 - 0,70


0,30. Es liegt also eine
relativ schwach ausgeprgte Konzentration vor. Eine Normierung des Gini-Koeffizienten ist
hier nicht erforderlich, da der Normierungsfaktor aufgrund des hohen Wertes fijr n
(7.600.000) ziemlich genau bei 1 liegt.

Wir haben bisher gesehen, dass wir relative Konzentrationsmae fr komparative


Konzentrationsuntersuchungen verschiedener Verteilungen einsetzen knnen.

Kritisch ist in diesem Zusammenhang jedoch anzumerken, dass der Lorenz-Kurve


und dem Gini-Koeffizienten gewisse Grenzen gesetzt sind. Die Anstze fhren zu
eindeutigen Ergebnissen, wenn fr zwei Verteilungen A und B die Lorenzkurve der
Verteilung A stets unterhalb der von B liegt. Es gilt dann offensichtlich GA > GD' Bei
sich schneidenden Kurven knnen nun jedoch Kompensationseffekte auftreten, so
dass GA = GD gilt. Die Ergebnisse sind in einem solchen Fall schwer interpretierbar,
wie das folgende Beispiel verdeutlicht. Eine Konzentrationsmessung sollte daher
nicht allein durch den Gini-Koeffizienten erfolgen, sondern durch die Lorenz-Kurve
untersttzt werden.
Beispiel I 2-44

Grenzen des Gini-Koeffizienten

Zwei Mrkte A und B werden durch 10 Unternehmen beliefert. Auf Markt A besitzen 9 Unternehmen einen 50/9 % Marktanteil. Der Marktanteil des 10. Unternehmens betrgt 50 %.
Auf Markt B weisen 5 Unternehmen jeweils einen 2 % und 5 Unternehmen jeweils einen
18 % Marktanteil auf. Die nachfolgende Grafik zeigt, die zugehrigen Lorenzkurven.

"0,------------....,,
,.
,:/.
0,8
,, ./
0,6

,,

,:

/
/

,'.", ..... A

0,4
/

0,2

.....

",''1
,,

"

'
B
0,0 .....:.--::.--------------'
/

". "': __ -- .. ----

0,0

0,2

0,4

0,6

0,8

1,0

78

I Deskriptive Statistik
Rein optisch erkennen wir sofort, dass die Konzentrationsflchen FA und Fe identisch sind.
Wir knnen zudem leicht berechnen, dass GA = Ge = 0,4 gilt. Obwohl also auf Markt A die
deutlich strkere Konzentration vorliegt, wOrden wir durch einen Vergleich der GiniKoeffizienten zu dem Schluss gleicher Konzentration kommen. Die Gini-Koeffizienten allein
reichen also zum Vergleich nicht aus.

Beschlieen wollen wir diesen Abschnitt mit einer kurzen Diskussion der unterschiedlichen Reaktion absoluter und relativer Konzentrationsmae auf nderungen
der zugrunde liegenden Verteilungen:
Fr die Verteilungen E und D aus Beispiel I 2-37 ergibt sich derselbe Wert fr den
normierten Gini-Koeffizienten. Dieser ist somit wie auch der Herfmdahl-Index invariant gegenber einer proportionalen Vernderung des auf die einzelnen Merkmalstrger entfallenden Merkmalsbetrages.
Beim Vergleich der Hetfindahl-Indizes der Verteilung Bund G ergab sich HB = 0,20
und HG = 0,10, d.h. ein doppelt so hoher Indexwert (vgl. Beispiel I 2-38). Es macht
also einen Unterschied, ob sich die Merkmalssumme von 2.000 gleichmig ber 5
oder 10 Merkmalstrger verteilt. Vergleichen wir die normierten Gini-Koeffizienten
beider Verteilungen, so erhalten wir in beiden Fllen den Wert Null.
Ein Vergleich von Verteilung Bund H hatte beim Hetfindahl-Index nahezu denselben Wert ergeben. Der normierte Gini-Koeffizient reagiert jedoch auerordentlich empfindlich auf die Hinzufgung von fnf Firmen mit ganz geringem Anteil
am gesamten Merkmalsbetrag. Whrend sich fr die Verteilung B ein Wert von
G_ = ergab, erhalten wir fr Verteilung H den Wert G_ = 0,55. Diese Eigenschaft des normierten Gini-Koeffizienten ist jedoch nicht als Schnheitsfehler anzu-

sehen. Sie zeigt auf, dass in der praktischen Anwendung der Untersuchungszweck
ber die Wahl absoluter oder relativer Konzentrationsmae entscheiden sollte:

Wird die Stellung von Unternehmen auf einem Markt analysiert, so wird der Markteintritt umsatzschwacher Unternehmen den normierten Gini-Koeffizienten stark er-

hhen, wohingegen der Hetfindahl-Index nahezu unverndert bleibt. Ist also die
Analyse von Wettbewerbsprozessen Untersuchungsgegenstand, so ist die Verwendung absoluter Konzentrat/onsmae zu empfehlen. Die Marktmacht der etablierten
Unternehmen wird durch die Markteinritte umsatzschwacher Unternehmen trotz in-

tensiveren Wettbewerbs zunchst nicht empfindlich beeintrchtigt werden. Deshalb


ist ein Konzentrationsma whlen, das sich kaum verndert. Ein relatives Konzentrationsma wie der Gini-Koeffizient wrde hingegen in einer solchen Situation
stark ansteigen und eine zunehmende Konzentration und damit schwcheren Wettbewerb anzeigen.
Bei der Darstellung von E/nkommensvene/lungen ist die letztgenannte Eigenschaft
relativer Konzentrationsmae eventuell problematisch. Die dabei verwendeten Daten werden blicherweise der Einkommensteuerstatistik entnommen. Wird der
Mindestbetrag angehoben, ab dem die Steuerpflicht besteht, fallen am unteren
Ende der Verteilung ein Teil der bisher Einkommensteuerpflichtigen heraus, d.h.
sie werden bei der Untersuchung nicht bercksichtigt. Damit verschiebt sich die
Lorenz-Kurve nach links, obwohl sich an der Verteilung der Einkommen nichts gendert hat. Vor allem bei internationalen Vergleichen ist daher grte Vorsicht geboten. Hhere oder niedrigere Konzentration der Einkommen hngt vielfach vornehmlich davon ab, welche Untergrenze in den einzelnen Lndern besteht. Da auf-

2. Eindimensionale Hufigkeitsverteilungen

79

grund der Grenunterschiede zwischen den Lndern und aus inhaltlichen Erw-

gungen hier relative Konzentrat/onsmae zu empfehlen sind, ist nun der Gebrauch
der Lorenz-Kurve und des nonnierten Gini-Koeffizienten nicht von vornherein ab-

zulehnen. Vielmehr ist bei der Interpretation der Ergebnisse auf solche Probleme
zu achten.

Zweidimensionale
Hufigkeitsverteilungen

Im vorhergehenden Abschnitt haben wir gesehen, dass durch die Erfassung nur eines
Merkmals von einer Grundgesamtheit von Merkmalstrgem eindimensionale Hufigkeits-

verteilungen entstehen, die sich durch eine Reihe von Kennzahlen charakterisieren lassen. Werden mehrere Merkmale erfasst, entstehen mehrdimensionale Hufigkeitsverteilungen. Auch diese knnen durch gewisse Mazahlen komprimiert dargestellt werden.
Diese Mazahlen und Grundlagen derartiger Verteilungen sind Thema dieses Abschnitts.

3.1 Grundlagen
In vielen statistischen Untersuchungen werden bei statistischen Einheiten gleich-

zeitig mehrere Merkmale erfasst. So kann etwa bei einer personenbezogenen Erhebung sowohl Einkommen, Geschlecht, Alter, Bildung, Berufserfahrung, u.. aufgezeichnet werden. hnliche Beispiele finden sich auch bei der Analyse von Unternehmen (Umsatz, Gewinn, Investitionen, Beschftigtenzahl, ... ), der Ertragsfhigkeit landwirtschaftlicher Nutzungsflchen (Ertrag je Hektar, Dngemitteleinsatz, .. .)
oder dem Bremsverhalten von Fahrzeugen (Geschwindigkeit, Bremsweg, ... ). Fr
jeden der n Merkmalstrger wird also ein m-Tupel von Merkmalswerten betrachtet.
Die Drliste muss daher n m Einzeldaten enthalten.
Bei solchem Datenmaterial ist hufig von Interesse, ob es Zusammenhnge zwischen den auftretenden Merkmalen gibt und wie stark diese sind. Wir stellen uns
also die Frage, ob es eine wechselseitige Abhngigkeit zwischen den Merkmalen
gibt. Auf die Beantwortung solcher Fragestellungen werden wir im Abschnitt I 3.2
CKorrelationsanalyse) nher eingehen. Im Folgenden mssen aber zunchst grundlegende Begriffe wie Kontingenztabelle, Randhufigkeit, bedingte Hufigkeit und
Streuungsdiagramm geklrt. werden. Wir beschrnken uns dabei auf zweidimensionales Datenmaterial (m - 2).

3.1.1

Kontlnganztaballa

Werden bei n statistischen Einheiten die Merkmale X und Y mit den Ausprgungen
~,Xz, ... ,x" und Y1'Y1' ... 'Yn erhoben, so erhalten wir fr die i-te statistische Einheit ~
einen Merkmalswert ~ der Variablen X und einen Merkmalswert Yj der Variablen Y.
Zur i-ten statistischen Einheit gehrt somit ein Wertepaar (:x;, y). Die Ur&te besteht daher aus allen n zweidimensionalen Wertepaaren (:x;, y) fr i - 1,2, ... ,n.
Aus Grnden der bersichtlichkeit kann die DrUste allgemein in zwei Formen dargestellt werden. Erstens kann ein sog. St:reud:iagramm erstellt werden, in welchem
alle n Wertepaare Cx" y) als Punkte in ein Koordinatensystem eingetragen werden
(vgL Abbildung I 18). Diese Vorgehensweise empfiehlt sich allerdings nur, wenn
sich alle oder fast alle Wertepaare voneinander unterscheiden.
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_3, Springer Fachmedien Wiesbaden 2015

82

I Deskriptive Statistik

y! ------ --- -- --- ----- ----~ ----- -----.

P(X"y,)

x
Abbildung I 18: Streudiagramm
Zweitens kann eine sog. Kontl:ngenztabelle aufgestellt werden, wobei es sich um
eine tabellarische Darstellung der Hufigkeitsverteilung handelt. Sie sollte herangezogen werden, wenn viele Wertepaare identisch sind. Da sie auerdem Grundlage
fr weitere Analysen des erhobenen Datenmaterials ist, wollen wir uns im Folgenden nher mit ihr beschftigen. Da es sich bei einer Kontingenztabelle um eine
Hufigkeitstabelle handelt, bezeichnen wir in dieser die verschiedenen Ausprgungen des Merkmals X mit a. Ci - 1,2, ... ,k) und jene des Merkmals Y mit bJ
Ci - 1,2, ... ,r). Zur Erstellung der Kontingenztabelle ist auszuzhlen, bei wie vielen
Beobachtungswerten der Drliste die Ausprgungskombination (a,. b) auftritt. Der
resultierende Zahlenwert wird als gemdnsam.c absolute Hliuflgkdt h(a" b) oder
h.(a" b) der Kombination (a,. b) bezeichnet, die wir im Folgenden zumeist mit ~
abkOtzen. Fr diese gilt wie bei eindimensionalen Huflgkeitsverteilungen. dass sie
zwischen Null und n liegen und ihre Summe n ergeben muss:
OSh~

Sn

Die gemdnsame relative HIu6gkdt fCa., b) oder f.,(a., b) bzw. abgekrzt f~ ist
der Anteil der Beobachtungswerte in der UrUste, bei denen die Kombination (a,. b)
auftritt. Die Regeln eindimensionaler Verteilungen, also im Detail U2: 3), (12: 4) und
02: 5), knnen daher analog bertragen werden:
h
f~ =----'l
n

03,2)

Die tabellarische Darstellung dieser k . r Huftgkeiten (absolut oder relativ) mittels


Abbildung I 19 nennt man Kontl:ngenztabelle oder Kreuztabelle. Die Menge aller
Tripel (apbJ,ty bzw. (a.,1~i!:::rei - 1, ... ,k und j - 1, ... ,r bildet die sog. zweidimensionale absolute bzw.
Hilufigke.J'Siuh JblOl von X und Y. Gelegentlich
wird auf dreidimensionale Stabdiagramme zur grafischen Darstellung zweidimensionaler Hufigkeitsverteilungen zurckgegriffen (vgl. Beispiel I 3-1). Im Falle klassierter zweidimensionaler Hufigkeitsverteilungen kommen dabei auch dreidimensionale Histogramme zum Einsatz, deren Praxisrelevanz jedoch eher gering ist.

3. Zweidimensionale Hufigkeilsverteilungen

~n
von Y

83

b,

b,

b,

a,

hu

h"

h"

a,

h"

h"

h"

a"

h",

h.,

Ausprgungen
von X

Abbildung I 19: Kontingenztabelle


Im Falle ordinal- oder metrisch skalierter Daten ist auerdem die Definition der ab-

soluten kumulIerten gemeinsamen Hufigkeit


H(x,y)=H(X:S;x,Y:S;y)=

L L h(ai,b

03: 3)

j)

llj:!!OIbj:!i:y

(kurz H,) sinnvoll, fr welche


O:S;H(x,y):S;n

und

03: 4)

H(X:S;ak,Y:S;b,)=n

gilt. Sie gibt die Anzahl der Merkmalstrger an, die bei Merkmal X hchstens die
Ausprgung x und gleichzeitig bei Merkmal Y hchstens die Ausprgung y aufweisen (zur ungewhnlichen Summenschreibweise vgl. Abschnitt I 2.1.2).
Analog ergibt sich die relative kumulIerte gemeinsame Hufigkeit F(x, y) (kurz
F~. Sie gibt den Anteilssatz der Merkmalstrger an, deren Merkmale X und Y beliebig vorgegebene Zahlenpaare (x, y) nicht bersteigen:
F(x,y)= F(X:S;x,Y:S;y)=

03: 5)

Lf(ai,b j )

:lf:!>IbJ:S:y

Wir sprechen bei F(x, y) auch von der gemeinsamen empirischen Verteilungsfunktion der Merkmale X und Y. Sie nimmt stets Werte im Intervall [0; 1] an.
Beispiel I 3-1

Konlingenzlabelle

Von 80 Studienanfngern wurden die Abiturnoten in den Fchern Mathematik (X) und Englisch (Y) erfasst. Aus der Erhebung ergab sich die folgende bereits geordnete Urliste:
(1;1), (1;1), (1;1), (1;1), (1;2), (1;2), (1;3), (1;3), (1;3)
(2;1), (2;1), (2;1), (2;2), (2;2), (2;2), (2;2), (2;2), (2;3), (2;3), (2;3), (2;3), (2;3), (2;3), (2;3),
(2;3), (2;4), (2;4), (2;5), (2;5)
(3;1), (3;1), (3;2), (3;2), (3;2), (3;2), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3), (3;3),
(3;3), (3;3), (3;3), (3;3), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;4), (3;5),
(3;5), (3;5)
(4;1), (4;1), (4;2), (4;2), (4;2), (4;3), (4;3), (4;3), (4;4), (4;4), (4;4), (4;4), (4;4), (4;5)
(5;3), (5;3), (5;4), (5;5), (5;5)

84

I Deskriptive Statistik
Eine Aufbereitung dieser Urliste liefert die folgende Kontingenztabelle:

Mathematiknote

2
3
4

1
4
3
2
2

2
2
5
4

Englischnote Y
4
3
3
8
2
13
10

3
2

5
2
3

5
2

Die Anzahl der Studenten, die sich z.B. sowohl mit einer Eins in Mathematik als auch in
Englisch auszeichneten, lag somit bei 4.
Da hier Wertepaare hufiger auftreten, ist ein Streudiagramm nicht zur Visualisierung der
Hufigkeitsverteilung geeignet. Ein dreidimensionales Stabdiagramm (komfortabel erzeugbar mit dem Befehl "stem3" in der Software Matlab 2009a) ergbe im vorliegenden Fall folgende Gestalt:

4
5

Interessieren wir uns dafOr, wie viele Studenten im Fach Mathematik nicht schlechter als
Drei und in Englisch nicht schlechter als Zwei waren, knnen wir diese Hufigkeit aus einer
Tabelle ablesen, die die absoluten gemeinsamen Hufigkeiten kumuliert:

Mathematiknote
X

2
3
4
5

4
7
9
11
11

Englischnote Y
3
9
25
20
44
25
52
25
54
2
6
14

4
9
27
56
69
72

5
9
29
61
75
80

Als Summe der Hufigkeiten im grau schattierten Bereich der Kontingenztabelle erhalten
wir die kumulierte gemeinsame Hufigkeit 20, d.h. genau 20 Studenten sind in Mathematik
nicht schlechter als Drei und gleichzeitig in Englisch nicht schlechter als Zwei. Obige
Tabelle zeigt auerdem auf, dass H{s., b,) = n = 80 gilt. Dividieren wir die Werte der Tabelle durch 80, erhalten wir die relativen Hufigkeiten der gemeinsamen empirischen Verteilungsfunktion.

85

3. Zweidimensionale Hufigkeitsverteilungen

3.1.2

Randhuligkeilen und -verteilungen

Die Bestimmung sog. lIa.ndhAu:6gkeitcn in einer Kontingenztabelle erfolgt duoch lFll


Bildung der Zeilen- und Spaltensummen der gemeinsamen Hufigkeiten. Durch ~
dieses Summieren der gemeinsamen Huflgkeiten wird jeweils ein Merkmal neliminiert", sodass innerhalb der zweidimensionalen Hufigkeitsverteilung die eindimensionalen Huftgkeitsverteilungen von X bzw. Y mit abgebildet werden.
Im Folgenden bezeichnen wir die Anzahl derjenigen Merkmalstrger, die bzgl. des
Merkmals X die Ausprgung a. aufweisen (gleichgltig welches die jeweilige Ausprgung des Merkmals Y isO, mit h(a) und entsprechend die Anzahl derjeniger
Merkmalstrger, die bzgl. des Merkmals Y die Ausprgung bJ aufweisen, mit h(b~.
Fr diese absoluten Randhuftgkeiten (relative Randhuftgkeiten analog) gilt damit
fonnal

h(a,) =

i>"

fr i = 1,2, ... ,k

,"'

und

h(b,) = ~>. fr j = 1,2, ... ,r.


,~

Die Zeilensummen (hufig auch bezeichnet mit hJa) oder h i .) liefern also die
Huflgkeiten der eindimensionalen Verteilung des Merkmals X und die Spaltensummen (huflg auch bezeichnet mit h,(b~ oder h. J ) die Huflgkeiten der eindimensionalen Verteilung des Merkmals Y. Diese bilden zusammen mit den jeweiligen Merkmalsausprngungen die sog. RandietlelbJOgcn von X und Y und sind in
Abbildung I 20 dargestellt. Da sie eindimensionale Verteilungen sind, knnen auf
sie die bereits behandelten Auswertungsmglichkeiten angewendet werden.
y

a,
a,
X

..
a,

Spaltensununen
(Randverteilung Y)

h"
h.

...
...
...

h,

h"

...

h"
h(b,)

h.

... h" ... h.


... h(b? ... h(b)

b,

b,

h"
h"

h(b,)

Zeilensummen
(Randverteilung X)

h"
h,

...
...
...

h"
h.

h(a l )

h,

.. .

h"

h(a,)

b,

h(a,)

h(a,)
n

Abbildung I 20: Kontingenztabel1e mit Randhufigkeiten


Die relativen Randhufigkeiten ffa) und

~)=~)
n

f(b~

bestimmen wir wie bisher ber

~)=~)
n

~m

I Deskriptive Statistik

B6

Eine wichtige Eigenschaft der absoluten Randhufigkeiten ist aus Abbildung I 20


abzulesen. So ist die Summe der Zeilensununen stets gleich der Swnm.e der Spaltensummen. Dies gilt auch fr die relativen Randhufigkeiten.

Beispiel I 3-2

Konllngenzlaballe und Randvertellungen

Fur die Kontingenztabelle der Schulnoten aus Beispiel I 3-1 ergibt sich:
Englischnote Y

Mathematikn018
X

h(bU

1
2
3
4
5

1
4
3
2
2

2
2
5
4
3

11

3
3
8
13
3
2
29

14

2
10
5
1
18

2
3
1
2
8

h(al)

9
20
32
14

5
80

Daraus lassen sich nun die eindimensionalen HAufigkeitsverteilungen der Englisch- und

MBlhematiknoten ableiten, fUr die wieder die bekannten Kennzahlen berechenbar sind:
Englischnote
HAufigkon h(bJ

3_1_3

,.
2

11

MathemaUknote

HAufigkeit h(BI)

20

29

18

3
32

4
14

5
5

Bedingte Huligkeiten und Verteilungen

Bei der Untersuchung des Zusanunenhangs zweier Merkmale X und Y spielen die
sog. bedJngten Hi'...ftgkeJten eine besondere Rolle. Sie geben an, mit welcher
relativen Huftgkeit eine Ausprgung eines Merkmals auftritt, wenn (unter der Bedingung, dass) das andere Merkmal auf einem bestimmten Wert festgehalten wird.
Die relative Hufigkeit der Ausprgung aj des Merkmals X unter der Bedingung.
dass das zweite Merkmal Y die konstante Ausprgung b j besitzt, bezeichnen wir im
Folgenden mit f,.(a, I b j ) fr i - 1.2 ..... k. Anders ausgedrUckt. betrachten wir also
die relative HufIgkeit. mit der die Ausprgung a,. bei denjenigen Merkmalstrgem
auftritt, die bzgl. des Merkmals Y die Ausprgung bJ aufweisen. Analog verwenden
wir f,.(b j I a,) fr j - 1.2 ... ,r. Diese bedingten Hufigkeiten knnen leicht aus einer
vorliegenden Kontingenztabelle errechnet werden. Sie entstehen durch Division
der gemeinsamen Hufigkeiten durch die entsprechenden Zeilen- oder Spalten-

3. Zweidimensionale Hufigkeitsverteilungen

87

summenhufigkeiten (Randhufigkeiten der Bedingungen). Es spielt dabei keine


Rolle, ob absolute oder relative Hufigkeiten zur Berechnung der bedingten Hufigkeiten herangezogen werden.

hij
-

h.

Va, I b j ) =

h(~I) = h(~j) = f(~I)

(13: 10)

h
h 'l

'l

f
f(b l a ) - - - - - - -'ly I I - h(a) - h(a) - f(a)
~

(13: 11)

Wie im unbedingten Fall, sind die bedingten relativen Hufigkeiten auf Eins normiert, d.h. es gilt
k

(13: 12)

LVa, I b j ) = Lfy(b j I a,) = 1.


1=1

j=l

Beispiel I 3-3

Bedingte Hufigkeiten

Eine Befragung von 1.000 berufsttigen Personen (Freiberufler, Angestellte, Beamte, ... )
ergab unter anderem, dass 250 Freiberufler nie beim Einzelhndler A einkaufen. Insgesamt meiden 500 der Befragten den besagten Einzelhndler. Die Anzahl der befragten
Freiberufler lag bei 400.
Wir erhalten aus diesen Angaben folgende (unvollstndige) Kontingenztabelle:
Einkaufsverhalten
Berufsgruppe
Freiberufler (= a,)

...

Randhufigkeiten

Nie bei Einzelhndler A


(= b,)
hl1 = 250

...

h{b,) = 500

...

Randhufigkeiten

...

h{a,) = 400

...

n = 1.000

...

...

In diesem Beispiel lsst sich berechnen, dass die relative Hufigkeit der Freiberufler unter
den Personen, die niemals beim Einzelhndler A einkaufen, bei 50 % liegt:

f,(Freiberuflerl Niemals Kauf bei Einzelhndler A) = f,(a,1 b,) =

h~~:) = ~~~ = 0,50

Die relative Hufigkeit der Personen, die nie beim Einzelhndler A einkaufen, liegt unter
den Freiberuflern bei 62,50 %:
f,(Niemals Kauf bei Einzelhndler AI Freiberufler) = f,{b,Ia,) =

h~~) = :~~ = 0,625

Aus (13: 10) und (13: 11) lassen sich sog. bedingte Verteilungen ableiten. Die bedingte Verteilung des Merkmals X bei gegebener Ausprgung b l des Merkmals Y
ergibt sich dabei aus den Ausprgungen al,a2""'~ und den zugehrigen bedingten
Hufigkeiten f.(a, I b j ), f.(a, I b j ), ... , f.(a k I b j). Es existieren also insgesamt r

88

I Deskriptive Statistik

Ci = 1 ... r) bedingte Verteilungen von X. Die bedingte Verteilung des Merkmals Y


bei gegebener Ausprgung a, des Merkmals X ergibt sich analog aus b"b" ... ,b, mit
fyCb, I a), t;, Cb, Ia), ... , t;, Cb, Ia,), sodass insgesamt k Ci = 1 ... k) bedingte Verteilungen von Y aufstellbar sind.
Beispiel I 3-4

Bedingte Verteilungen

Zum bekannten Schulnotenbeispiel I 3-2 wollen wir nun die bedingte Verteilung der
Mathematiknoten fijr die gegebene Englischnote 2 aufstellen. Dazu bentigen wir folgende
(grau schattierte) Daten:
Englischnote Y

4
3
2
2

2
2
5
4
3

11

14

1
Mathematiknote
X
h(b~

2
3
4
5

3
3
8
13
3
2
29

2
3
1
2
8

10
5
1
18

h(a,)

20
32
14
5

80

Die gesuchte bedingte Verteilung erhalten wir daraus durch Division der gemeinsamen
Hufigkeiten durch die zugehrige Spaltensumme. Dies erklrt auch, warum die bedingten
Hufigkeiten in der Summe Eins ergeben miissen.

a,
2
3
4
5
1:

f (a; I Y = 2) =

hi2

2/14
5/14
4/14
3/14
0/14

2
5
4
3
14

h2
'
h(Y=2)

= 0,14
= 0,36
= 0,29
= 0,21
= 0,00
1,00

Wie die Randverteilungen sind auch die bedingten Verteilungen eindimensionale


Hufigkeitsverteilungen, sodass wir hier ebenfalls die in Kapitel I 1 vorgestellten
Mazahlen zur verdichteten Beschreibung verwenden knnen. Wir bezeichnen sie
in diesem Kontext als bedingte Mazahlen. Ihre Berechnung erfolgt unter
Nutzung der bedingten relativen Hufigkeiten.
Liegen zwei Merkmale X und Y mit den Realisationsmglichkeiten a, Ci = 1,2, ... ,k)
bzw. b, Ci = 1,2, ... ,r) sowie die zugehrigen bedingten Hufigkeiten fCa, Ib~ fr
i = 1,2, ... ,k bzw. f(hjla) fr j = 1,2, ... ,r vor, dann ist z.B. der bedingte Mittelwert
von X gegeben Y = b j gleich
k

xlb j =La, f.Ca, Ib j )


1=1

03: 13)

3. Zweidimensionale HAufigkeitsveneilungen

89

und der bedingte Mittelwert von Y gegeben X - a, gleich

,-,

YIa, = tb, f,Cb, la,l .


Die bedingte Varianz von X gegeben Y - bJ ist

s! Ib j =La~ !,..Ca j Ibj)-Cxlb/

,-,

und die bedingte Varianz von Y gegeben X - a

s~ Iaj = ~>:
,., f,.Cbj Iaj)-Cy I~Y .
In entsprechender Weise knnen bedingte Mediane, bedingte Modi und andere

bedingte Mazahlen definiert werden.

Beispiel I 3-5

Bedingte Mazahlen

Bestimmen wir tOr die in Beispiel I 3-4 aufgestellte bedingte Veneilung der Schulnoten
bzw. die HAungkeltsvenellung der Mathematlknoten unter den Studenten mit der EnglIschnote 2 den bedingten Mittelwen und die bedingte Varianz. Wir erhalten
x I (Y = 2) = 10, 14+20,36+ ... +50,00 = 2,57,
d.h. der Mathematiknotendurchschnitt unter den Studenten mit der Englischnote 2 liegt bei
2,57 bei einer Varianz von

s: I(Y = 2) =1

3.1.4

O,14+~ .0,36+ ... +52 O,OO-2,5~ =0,95.

Statistische Unabhngigkeit

Von statistischer Unabhngigkeit sprechen wir, wenn sich zwei Merkmale X und Y If1
einer Hufigkeitsverteilung nicht beeinflussen, d.h. das Eintreten der verschiedenen ~
Merkmalsausprgungen beim einen Merkmal unabhngig davon ist, welchen Wert
das andere Merkmal annimmt. Ob Abhngigkeit oder Unabhngigkeit vorliegt,
kann anhand der bedingten Verteilungen geprft werden. Statlstfsch.c UmtbhnaJgkcJt liegt vor, wenn die bedingten Verteilungen von X alle identisch sind und mit
der jeweiligen Randverteilung bereinstimmen. Analoges muss fr Y gelten.
!,..Caj Ib1 )=f",Ca,lb2 )==!,..Ca j Ibr) =
bodIngIe VCltdl_

f,.Cb j la1 )=fyCb j la1)==fyCb j lai') =


bodIngte VCltdl_

fCa l )

fr

i=l, ... ,k

03: 17)

fr

j=l, ... ,r

03: 18)

Iand~

fCb j )

IandYClte!lun!!

Bedingungen bezglich Y haben also keinen Einfluss auf die Verteilung von X und
Bedingungen bezglich X auch keinen Einfluss auf die Verteilung von Y. X und Y
sind statistisch unabhngig.

90

I Deskriptive Statistik

Beispiel I 3-6

Statistische Unabhngigkeit

Gegeben sei folgende zweidimensionale Verteilung der Merkmale X (Ausprgungen a,)


und Y (Ausprgungen bJ), die in Form absoluter und relativer Hufigkeiten vorliegt:

a,

a.
a,
h(bJ)

b,

b2

b,

h(a,)

2
6
4
12

5
15
10
30

3
9
6
18

10
30
20
60

a,

a.
a,
f(bJ)

b,

b2

b,

f(a,)

0,03
0,10
0,07
0,20

0,08
0,25
0,17
0,50

0,05
0,15
0,10
0,30

0,17
0,50
0,33
1,00

Um zu prfen, ob die Merkmale X und Y unabhngig voneinander sind, bentigen wir die
bedingten Verteilungen von X und Y. Die bedingten Verteilungen von X gegen Y sind in
folgender Tabelle enthalten:

a,

a.
a,

b,

b2

b,

0,17
0,50
0,33

0,17
0,50
0,33

0,17
0,50
0,33

Rechenbeispiel :
h
6
f (a I b )=-'-' = - =0 50
' , ,
h(b,) 12
'

Wir erkennen, dass die bedingten Verteilungen (Spalten) alle identisch sind und mit der in
der Ausgangstabelle schattierten Randverteilung von X bereinstimmen.
Die bedingten Verteilungen von Y gegen X haben folgende Gestalt:
b,
a,

a.
a,

0,20
0,20
0,20

b2

b,

0,50
0,50
0,50

0,30
0,30
0,30

Rechenbeispiel :
h
6
f (b la )=_21_ =-=0 20
' , ,
h(a,) 30
'

Auch hier ist zu sehen, dass die bedingten Verteilungen (Zeilen) alle Obereinstimmen und
der schattierten Randverteilung von Y aus der Ausgangstabelle entsprechen.
Die beiden Merkmale knnen damit als statistisch unabhngig bezeichnet werden. Warden
die Werte der bedingten Verteilungen von der beschriebenen Vorschrift abweichen, wren
die Merkmale X und Y, wenn auch ggf. nur geringfgig, statistisch abhngig.

Aus 03: 10) und dem Fakt, dass bei statistischer Unabhngigkeit f,(a, I b j ) = f(a,)
gilt, kann
03: 19)
gefolgert werden. Dies bedeutet, dass bei statistischer Unabhngigkeit die gemeinsamen relativen Hufigkeiten gleich dem Produkt der jeweiligen relativen Randhufigkeiten sind. Die gemeinsamen absoluten Hufigkeiten erhalten wir, indem wir
(13: 19) wie folgt umformen:
nfxy(apb j )=

n f(a.) n f(b.)
1

03: 20)

3. Zweidimensionale Hufigkeitsverteilungen

91

Die gesamte Infonnation ber die gemeinsame Verteilung ist also im Falle von Unabhngigkeit bereits in den beiden eindimensionalen Verteilungen von X und Y
enthalten. Ist dies nicht der Fall, liegt statistiscbe Abbngigkeit vor. Zwischen den
Merkmalen bestehen sog. Interdependenzen.
Beispiel 13"7

Statistische Abhngigkeit

Eine Untersuchung unter 1.000 Personen zu den Merkmalen Raucher (X) mit den Ausprgungen "Rauche(' (R) und "Nichtraucher" (NR) und Lungenkrebs M mit den Ausprgun
gen "Lungenkrebs" (L) und "kein Lungenkrebs" (NL) ergab folgende Kontingenztabelle:

Raucher

nein [NR]
ja [R]

h(b;) (f(b;ll

Lungenkrebs Y
nein [NL]
ja [L]
650 (0,65)
50 (0,05)
250 (0,25)
50 (0,05)
900 (0,90)
100 (0,10)

h(a,j (f(a,ll
700 (0,70)
300 (0,30)
1.000 (I,O)

Anhand des zuletzt behandelten Zusammenhangs (13: 19) soll nun untersucht werden, ob
die Merkmale Raucher und Lungenkrebs statistisch unabhngig sind. Dazu wird eine sog.
hypothetische Kontingenztabelle aufgestellt. Die gemeinsamen relativen Hufigkeiten werden darin durch Multiplikation der relativen Randhufigkeiten bestimmt. Stimmen diese mit
denen der urprnglich vorhandenen Tabelle Oberein, liegt statistische Unabhngigkeit vor.
Kommt es zu Abweichungen, so kann diese Aussage nicht mehr gemacht werden.
Hypothetische
Kontingenztabelle
Raucher

nein [NR]
ja [R]
f,(b;}

Lungenkrebs Y
nein [NL]

ja [L]

f,(a,}

0,63
0,27

0,07
0,03

0,70
0,30

0,90

0,10

1,0

Die gemeinsamen relativen Hufigkeiten f'j weichen hier alle von denen der Ursprungstabelle ab. Die Merkmale X und Y sind also voneinander statistisch abhngig.
Wrde anhand der Formel (13: 18) auf Unabhngigkeit geprOft, so kme man zum gleichen
Schluss. Es gilt nmlich (in vereinfachter Schreibweise):

f(N~NR}=0,65=093

f (N~ R) = 0,25 = 0 83
,
0,30'

f,(LINR}

f,(LIR}

0,70'

= 0,05 =0 07
0,70
'

= 0,05 =0 17
0,30
'

Die Bedingungen haben also einen Einfluss auf die Verteilung von Y.

Von besonderer Bedeutung im Kontext des Begtiffs der Unabhngigkeit ist, dass
die von uns in diesem Abschnitt behandelten Unabhngigkeitsaussagen im Grunde
nur fr eine vorliegende Grundgesamtbeit gelten. In einer Stichprobe wird es nmlich fast immer zufallsbedingt Abweichungen von der Unabhngigkeit geben, selbst
wenn die beschtiebenen Unabhngigkeitsbedingungen in der Grundgesamtheit erfllt sind. Das Problem der Unabhngigkeit zweier Vatiablen wird deshalb in der
induktiven Statistik differenziert behandelt (vgJ. Kapitel III).

92

I Deskriptive Statistik

3.2 Korrelationsanalyse
Im Rahmen der Korrelationsanalyse werden diverse Mazahlen zur Quantiftzierung
des Ausmaes des statistischen Zusammenhanges zwischen verschiedenen Merkmalen berechnet. Im Folgenden beschrnken wir uns dabei wieder auf nur zwei
Merkmale X und Y und werden fr diese die Kovarianz, den Bravais-PearsonKorrelationskoeffizienten, den Speannan-Rangkorrelationskoeffizienten sowie den
Kontingenzkoeffizienten nher behandeln. Die Anwendbarkeit der Mazahlen
hngt entscheidend vom Skalenniveau der Variablen X und Y ab. Abbildung I 21
zeigt, fr welche Skalierungen welche Konelationsparameter heranzuziehen sind.
Zudem gibt sie einen ersten berblick darber, welche Infonnationen durch die
jeweilige Messzahl gewonnen werden knnen.
y

kardinal

ordinal
nonllnal

kanIinal

onlinal

nominal

Bravai.s.-PearsonKorrelation&koeff12ient1

SpeannanRangkorre1ationskoeffizient'

...
...

...

Kontingenzkoeffizient'

1: Misst Strke und Richtung eines linearen Zusanunenhangs


z: Misst Strke und Richtung eines monotonen Zusammenhangs

': Misst nur die Strke eines Zusammenhangs


Abbildung I 21: Korrelationsmae und Skalierung

3.2.1

Kovarianz und Bravals-Pearson-Korrelatlonskoefflzlent

Fr zwei metrisch skalierle Merkmale X und Y liege eine Urliste vor, in der weder
alle ~-Werte noch alle YrWerte identisch sind. Zudem seien x und y die jeweiligen arithmetischen MitteL Da ZU jedem ~ nur gerade ein Yj gehrt, knnen wir auf
den Index j verzichten, d.h. i-i. Damit ist die sog. KovarIanz definiert als

Im Falle einer vorliegenden Huftgkeitstabelle erhalten wir sie als


(13, 22)

3. Zweidimensionale Hufigkeitsverteilungen

93

Eine erste Betrachtung der Formel der Kovarianz zeigt, dass die Kovarianz eines
Merkmals X mit sich selbst gleich seiner Varianz ist, d.h. Cov"" = s~ gilt.
Zur Interpretation des Werts der Kovarianz betrachten wir Abbildung I 22. Es enthlt drei typische Streudiagramme zweidimensionaler Hufigkeitsverteilungen. Jedes der Streudiagramme wurde durch ein Fadenkreuz ergnzt, dessen Mittelpunkr
der Schwerpunkr (x, y) des jeweiligen Datensatzes ist. Es entstehen so in jedem
Diagramm 4 Quadranten I, 11, III und IV.
Y

11

III

IV

II

III

IV

II

III

IV

Abbildung I 22: Interpretation der Kovarianz


In den ersten beiden Streudiagrammen ist jeweils eine gemeinsame Tendenz der

Beobachtungen von X und der von Y zu erkennen. Im ersten Diagramm liegen die
Beobachtungspaare (x" y) berwiegend in den Quadranten I und III. Groe XWerte gehen hauptschlich mit groen Y-Werten und kleine X-Werte mit kleinen
Y-Werten einher. Es liegt ein sog. positiver Zusammenhang vor. Im zweiten Diagramm liegt die Mehrzahl der Beobachtungen in den Quadranten 11 und IV. Groe
X-Werte korrespondieren mit kleinen Y-Werten und umgekehrt. Es liegt ein sog.
negativer Zusammenhang vor. Das dritte Diagramm lsst keinen Zusammenhang
erkennen, da korrespondierend zu kleinen Werten der einen Variablen hnlich
viele kleine wie groe Werte der anderen Variablen zu beobachten sind. Die Begriffe "klein" und "gro" sind hier relativ zum jeweiligen Mittelwert zu sehen.
Den Schlssel zum Verstndnis der Kovarianz bilden die Abweichungsprodukte
(x, - x)(y, - V). Liegt ein Beobachtungspaar (x" y) in

x, y, > y

Quadrant I

gilt

X, >

Quadrant III

gilt

Quadrant 11

gilt

x,< x, y, < Y
x,< X, y,> Y

~ (Xi - X)(Yi ~

(Xi - X)(Yi -

(Xi - X)(Yi -

y)
y)
y)
y)

> 0,
> 0,
< 0,

< 0.
x,> X, YI< Y ~ (Xi - X)(Yi Da die Kovarianz das arithmetische Mittel der Abweichungsprodukte darstellt, gilt:
Liegen die Datenpunkte hauptschlich in den Quadranten I und III, so besteht
ein positiver Zusammenhang. Covxy ist positiv.
Liegen die Datenpunkte hauptschlich in den Quadranten 11 und IV, so besteht ein negativer Zusammenhang. Covxy ist negativ.

Quadrant IV

gilt

Sind die Punkre gleichmig auf die Quadranten verteilt, besteht kein Zusammenhang. Positive und negative Abweichungsprodukte heben sich bei der
Mittelung weitgehend auf und Covxy liegt nahe bei Null.

1Deskriptive Statistik

94

Ebenso wie fr die Varianz gilt auch fr die Kovarianz ein Verschtebungssatz. Dieser liefert den Ausdruck
1
CovXY =-

L xy
n
i_1

-xy

(13: 23)

Im Falle einer Hufigkeitsverteilung hat (13: 23) die Fonn

(13: 24)
Die Kovarianz ist in der Lage den empiriscben Zusammenhang zweier Variablen X
und Y anzuzeigen. Covxy > 0 zeigt einen positiven, Covxy < 0 einen negativen Zu-

sammenhang. Die Kovarianz ist also in der Lage die Richtung, nicht jedoch die
Strke des Zusammenhangs aufzuzeigen. Ein sehr groer positiver Wert bedeutet
beispielsweise nicht zwangslufig, dass ein sehr starker positiver Zusammenhang
vorliegt. Die Kovarianz ist nmlich eine dimensionsbehaftete Gre, die allein
durch die nderung der Maeinheit grer oder kleiner werden kann. Um diesem
Problem zu begegnen, wird eine normierte Kovarianz als Kenngre verwendet:
Dividieren wir die Kovarianz Cov= durch das Produkt der Standardabweichungen
von X und Y, also "x und Sy, erhalten wir den Bravais-Pearson-Korrelationskoeffizienten r=, d.h.

(13: 25)

bzw. vereinfacbt

rxy

=-r='~~~===============

t(x, -x)' t(y, -V)'


1=1

1=1

In (13: 25) knnen entsprechend auch die Fonneln verwendet werden, die sich des
Verscbiebungssatzes bedienen und/oder auf der Hufigkeitstabelle basieren. Durcb
die Division durch das Standardabweichungsprodukt (Nonnierung) ist r= automatiscb mastabs/os und verluft im Intervall
-1Srxy S+1 bzw. Ir=1 SI.

(13: 26)

r= - 1 gilt genau dann, wenn zwischen X und Y eine exakte Uneare Beziehung
besteht. Existiert nmlich die lineare Beziehung y, - a + bx" dann gilt
y=a+bx

und

S'y --

b's'x '

1 Den rechnerischen Beweis der Gltigkeit dieses Zusammenhangs berlassen wir in Aufgabe MH6 dem Leser.

95

3. Zweidimensionale Haufigkeitsverteilungen

Ferner ist
CovXY

:t
! :t

=!
=

j ...l

i_I

(x, - x)(a + bx, - [a + bxl)


(x, - x)(b[x, - xl)

b~(
-)'
X
=-L.Xi;;;;;;
n

b'
Sx

i_ I

Daraus folgt schlielich


f xy -

COV xy
Sx'Sy

;;;;;;

bsi

~=1.

sx1blsx

Ibl

Aufgrund der genannten Eigenschaften des Korrelationskoeffizienten knnen wir


nun folgern, dass der Korrelationskoeffizient rxy (und damit natrlich auch die Kovarianz Covxy) ein Ma fr den ltnearrm Zusammenhang zweier Variablen X und Y
ist. Gilt Irxv I - 1, besteht eine exakte ltneare Beziehung. Der lineare Zusammenhang ist umSQ schwcher, je kleiner der Absolutbetrag If n I des Koeffizienten ist.
Gilt rxy - 0, besteht keine lineare Beziehung. Im Fall rxy - heien die Merkmale X
und Y unkorreliert, im Fall Irxy I - 1 peifekt korreliert. Bei rxy > bzw. rxy < bezeichnen wir sie als positiv korreltert bzw. negativ korreliert. Bei Irxy I ;:, 0,8 ist von
starker, bei I rxy I S 0,5 von schwacher Korrelation auszugehen. Abbildung I 24, die
auf Seite 98 zu finden ist, illustriert diese Aussagen.

Beispiel I 3-8

Bravais-Pearson-Korrelationskoeffizient

Bei n Filialen einer Firma wurden die Variablen X - Verkaufsflache und Y - Umsatz erhoben. Es soll geprft werden, ob zwischen diesen beiden Merkmalen ein linearer Zusammenhang besteht. Wir verwenden dazu folgende Arbeitstabelle:

2
3
4
5
6
7
8
9
10

Xi

y,

100
150
110
140
160
200
110
130
180
190
1.470

800
1.000
800
900
1.200
1.600
600
1.000
1.500
1.300
10.700

...

y~
640.000
1.000.000
640.000
810.000
1.440.000
2.560.000
360.000
1.000.000
2.250.000
1.690.000
12.390.000

10.000
22.500
12.100
19.600
25.600
40.000
12.100
16.900
32.400
36.100
227.300

xl'Y.
80.000
150.000
88.000
126.000
192.000
320.000
66.000
130.000
270.000
247.000
1.669.000

Es ergeben sich daraus zunchst die folgenden arithmetischen Mittel:

1"
1
x=-.
LX;
=-1.470 =147
n
10
i_1

1"

Y=-'LY; =-10.700=1.070
n

i_1

10

96

I Deskriptive Statistik
Anhand der mittels Verschiebungssatz umgestellten Formel ergibt sich rxy zu

1.669.000 147.1.070

10
rxv = r===c==~~F.===C==~~
= 0,936.
227.300 -147'. 112.390.000 1.070'
IJ 10
10

Der Wert des Korrelationskoeffizienten ist positiv und liegt nahe 1. Es liegt also eine starke
positive Korrelation vor. Dies kann nun bedeuten, dass die Filialen durch eine Vergrerung der Verkaufsflche tendenziell eine Umsatzsteigerung erreichen oder auch, dass Filialen mit hohem Umsatz eher in der Lage sind grere Verkaufsflchen zu finanzieren. Die
Korrelationsanalyse kann also keine Aussagen uber Ursache und Wirkung (Kausalitt)
machen (vgl. Abschnitt I 3.2.6).

Beispiel I 3-9

Anscombe's Korrelationsdaten

Die folgende Tabelle enthlt vier von Anscombe, F.J. (1973) konstruierte zweidimensionale
Datenstze, die alle eine starke positive Korrelation von rxy = 0,82 aufweisen. Die Datenstze 1 bis 3 haben alle dieselben X-Werte.
Datensatz
Merkmal

1 bis 3

10
8
13
9
11
14
6
4
12
7
5

8,04
6,95
7,58
8,81
8,33
9,96
7,24
4,26
10,84
4,82
5,68

9,14
8,14
8,74
8,77
9,26
8,10
6,13
3,10
9,13
7,26
4,74

7,46
6,77
12,74
7,11
7,81
8,84
6,08
5,39
8,15
6,42
5,73

8
8
8
8
8
8
8
8
8
8
19

6,58
5,76
7,71
8,84
8,47
7,04
5,25
5,56
7,91
6,89
12,50

Die dazugehrigen Streudiagramme auf der Folgeseite zeigen jedoch vollstndig unterschiedliche Datenstrukturen. Betrachten wir zunchst die Datenstze 3 und 4, dann wird
aufgrund der Streudiagramme ersichtlich, dass Covxy und rxy keine robusten Mazahlen
sind. Sie sind empfindlich gegenber Ausreiern. Einzelne extreme Beobachtungswerte
knnen dazu fUhren, dass die Mazahlen einen starken linearen Zusammenhang unterbewerten (Datensatz 3) oder flschlicherweise eine stark lineare Beziehung ausweisen
(Datensatz 4). Fr die Datenstze 1 und 2 nimmt der Korrelationskoeffizient identische
Werte an, obwohl, im Gegensatz zu Datensatz 1, zwischen den Variablen in Datensatz 2
eine perfekte Beziehung besteht. Hier muss berucksichtigt werden, dass COvxy und rxy
nicht Mae fr statistische Zusammenhnge schlechthin sind. Sie beurteilen lediglich die
lineare Beziehung zwischen zwei Variablen. In Datensatz 2 liegt aber eine nichtlineare Beziehung vor.

97

3. Zweidimensionale Hufigkeitsverteilungen

Y
Datensatz 1

Datensatz 2

Y
Datensatz 3

Datensatz 4

I
I

~--------------~X

~--------------~X

Gerade dieses Beispiel zeigt, dass eine Korrelationsrechnung immer durch eine grafische
Beschreibung der Daten mittels eines Streudiagrammes begleitet werden sollte.

Beispiel I 3-10

Nichtlinearer Zusammenhang

Betrachten wir folgenden zweidimensionalen Datensatz:

x,
y,

-3
9

-2
4

-1

o
o

2
4

3
9

Wir erkennen sofort, dass /Ur die Kovarianz und den Korrelationskoeffizienten gilt:
1 7
_
Cov xv =- LX'y,-xy=O-O=O

i- 1

-->

rxv =0

Die Variablen weisen keine lineare Beziehung auf. Es gibt jedoch eine exakte Beziehung
zwischen ihnen, da y, = x~ gilt. Der Zusammenhang ist quadratisch, also nichtlinear, und
kann somit nicht vom Bravais-Pearson-Korrelationskoeffizienten aufgedeckt werden.
Im Falle statistisch unabhngiger Merkmale X und Y nimmt rxv den Wert 0 an. Sind
X und Y unkorreliert, dann sind sie nicht unbedingt auch statistisch unabhngig.
Es besteht dann lediglich kein linearer Zusammenhang. Eine z.B. quadratische Abhngigkeit knnte durchaus bestehen.

98

I Deskriptive Statistik

Irxy =

-11

Irxy

=+11

x
y

Irxy

stark negativ I

Irxy stark positiv I

x
y

y
Irxy schwach positiv I

Irxy=o l

Abbildung I 23: Bravais-Pearson-Korrelationskoeffizient und Streudiagramm

3.2.2

Kreuzkorrelation

Bisher haben wir Korrelationen zwischen zwei Merkmalen X und Y berechnet, indem wir ihre Realisationen X, und y, fr n verschiedene Lnder, Unternehmen oder
Personen verwendeten. Ein Wertepaar (x" y,) charakterisierte also immer ein Land,
ein Unternehmen oder eine Person zu einem bestimmten Zeitpunkt. Genausogut ist
es aber mglich, sich auf nur ein Land zu konzentrieren und hier die Ausprgungen der Merkmale zu unterschiedlichen Zeitpunkten (Tagen, Monaten, Jahren) zu

3. Zweidimensionale HAufigkeitsveneilungen

99

erfassen. Man dokumentiert dann unter Verwendung einer etwas modifizierten Notation die Realisationspaare (x., Y) zu den Zeitpunkten t - 1, ... , T und berechnet
Korrelationen auf dieser Datenbasis. Eine Korrelation zwischen Auftragseingang
und Bruttoinlandsprodukt knnen wir also beispielsweise berechnen, indem wir in
einem Quartal beide Merkmale fr verschiedene Lnder erfassen oder uns z.B. auf
Deutschland konzentrieren und hier die Ausprgungen beider Merkmale in jedem
der letzten 20 Quartale messen. Man spricht im ersten Fall von einer Berechnung
der Korrelation unter Nutzung von Querschnitt8daten (engI. cross-sectional correlation). Im letzten Fall verwendet man Zeitreihen oder Zeitrelhendaten~, ... , Xr
und YI, ... ,YT , da diese Abfolgen von Merkmalsausprgungen Entwicklungen der
Merkmale im Zeitverlauf beschreiben (engl. time-series correIation).
Bei Nutzung von Zeitreihen ist in der Praxis der Begriff der Kreuzkorrelatton von
besonderer Bedeutung. Hier werden den Beobachtungen X. eines Merkmals zu den
Zeitpunkten t Beobachtungen des anderen Merkmals ZU nachfolgenden Zeitpunkten (z.B. Yt+I) oder zu vorhergehenden Zeitpunkten (z.B. Y.) gegenbergestellt. Es
wird also z.B. der Auftragseingang eines Quartals nicht dem Bruttoinlandsprodukt
des gleichen sondern z.B. des Folgequartals gegenbergestellt. Dies ist sinnvoll, da
ein hherer Aufuagseingang in einem Quartal nicht nur zu einer Erhhung des
Bruttoinlandsproduktes im gleichen Quartal sondern auch in spteren quartalen
fhren kann. Der Auftragseingang ist ein sog. vorlaufender Konkunkturlndikator.
Ein hherer Wert in einem Quartal impliziert ein hheres Bruttoinlandsprodukt in
spteren Quartalen. Anders verhlt es sich bei sog. nacblaufenden Konjunkmrlndikatoren. Im Zuge eines Konjunktureinbruches (sinkendes Bruttoinlandsprodukt)
wird Z.B. aufgrund von Kndigungsschutz nicht die Arbeitslosenquote des gleichen
Quartals steigen. Hier ist es daher sinnvoll Arbeitslosenquoten spterer Quartale in
Korrelationsana1ysen zu verwenden.

Be18ple113-11

Kreuzkorrelatlon Q .

AnknOpfend an unsere theoretische Argumentation zur Kreuzkorrelation wollen wir in diesem Beispiel die Korrelation zwischen der Wachstumsrate des deutschen Brunolnlandsprodukts und zwei Konjunkturindikatoren (der Vernderung des Auftragseingangs und der
Vernderung der Arbeilslosenquole) berechnen. Wir verwenden dazu (saison- und kalenderbereinigtes) Zahlenmaterial aus der leitreihendatenbank der Deutschen Bundesbank
von 2006 bis 2012. Konkret nutzen wir den auf Quanalsbasis vorliegenden realen Kettenindex das Brunoinlandsprodukts (BIP) und Monatsdaten zum realen Auftragseingang (AE)
der Industrie und zur Arbeilslosenquote (ALQ) bezogen auf alle zivilen Erwerbspersonen.
Aufgrund der unterschiedlichen Datenfrequenz legen wir bei AE und ALQ zur Vereinfachung das arithmetische Mittel der jeweiligen drei Monate als Quartalswerl fast und berechnen daraus die Vernderungen von AE und ALQ. Die Wene zu den jeweiligen Quartalen t, d.h. BIP-Wachstumsrate (BIPWF\), AE-VerAnderung (AEVtl und ALQ-VerAnderung
(ALQVtl, sind in der Tabelle auf der Folgeseite zu sehen.
Berechnen wir die Korrelation zwischen BIPWR und AEV auf Basis dieser Ausgangsdaten
(sog. kontemporre Korrelation), erhalten wir einen Wen von 0,76. Mit gestiegenem Auftragseingang geht also tendenziell ein gesUegenes BIP einher. Wie bereits erwAhnt, handelt es sich beim AE um einen vorlaufenden KonjunkbJrindikator, sodass davon auszugehen ist, dass eine hhere Korrelation zu beobachten ist, wenn wir dem BIP eines Quartals
den Auflragseingang des Vorquartals gegenOberstelien. Dies geschieht in der vienen Spalte unserer Datentabelle durch Verwendung von AEVt_1. (Man beachte dabei, dass bei einer solchen Vorgehensweise die Datenbasis um eine Beobachtung verkOrzt wird.) Berechnen wir nun erneut den Korrelationskoeffizienten, so erhalten wir, wie erwanet, einen hhe-

I Deskriptive Statistik

100

ren Wert von 0,78, der auch deuUich hher ist als die Kreuzkorrelalion bei Verwendung
von AEVtt-l (nachfolgend nicht tabelliert; 0,33). Ein gestiegener AE in der Vorperiode 1-1 ist

also tendenziell mit einem gestiegenen BIP in der aktuellen Periode I verbunden.

Berechnen wir auf Basis der Ausgangsdalen die Korrelation zwischen BIPWR und ALQV,
so ergibt sich ein Wert von -0,55. Aufgrund des negativen Vorzeichens geht also mit ge-

stiegenem (gesunkenem) BIP tendenziell eine fallende (steigende) ALQ einher. Aufgrund

des nachlaufenden Charakters der ALQ ergibt sich ein Korrelationskoeffizient von -0,71,
wenn dem BIP eines Quartals die ALQ des Folgequarials gegenubergsslelll wird. Dies ge-

schieht durch Nutzung von ALQVt+l in der letzten TBbellenspalle. (Man beachte, dass Buch

hier eine Beobachtungsperiode verloren geht.) Wieder ist die Kreuzkorrelation absolut betrachtet hher als die kontemporre Korrelation und die Kreuzkorrelation bei Verwendung
von ALQV'-1 (nachfolgend nichtlabeliiert; -0,15). Der Unterschied zur Standardkorrelation
fllt hier deutlich hOher aus als fOr den AE.
Quartal

012006
Q2 2006
Q3 2006
Q4 2006
Q12007
Q2 2007
ca 2007
Q4 2007

012008
Q2 2008
Q3 2008

0,97
1,30
0,59
0,57

0,83
0,35
1,00
-0,38
-0,45

Q4 2008
Q12009
Q2 2009
Q3 2009
Q4 2009
Q12010
Q2 2010
Q3 2010
Q4 2010
Ql 2011
Q2 2011
2011
Q4 2011

-1,98
-4,13
0,25
0,74

AEVt

0,87
1,90
3,60
0,07
4,10

3,43
-0,97

6,23
-3,30

-3,n

AEVt1

AlQVt

ALQVt+1

0,87

-0,03
-0,40

-0,40
-0,47

-0,47
-0,47

-0,60

1,90

3,60

-0,60

--0,37

-0,37

3,43
-0,97
6,23
-3,30

-0,30
-0,30
-0,47
-0,20
-0,20
0,00
0,30
0,33
-0,03
-0,13

-0,30
-0,30
-0,47
-0,20
-0,20
0,00

-5,30

-3,n

-5,30
-17,33
-13,03

3,73
7,80
1,20
4,83
6,67
2,10

-3,43

0,10

-2,30

012012
Q2 2012
Q3 2012

0,66
-0,08
0,20

Q4 2012
Korrelation

--0,46

3,13
3,70
1,57

--0,47

0,07
4,10

-17,33
-13,03

1,03
0,48
2,00
0,81
0,84
1,53
0,09
0,43

ca

3.2.3

BIPWRt
1,09
1,49

3,73
7,80

0,30

0,33
-0,03
-0,13

-0,10

1,20

-0,10

-0,27

4,83
6,67

-0,27
-0,17

-0,17
-0,17

2,10
3,13
3,70
1,57

-0,17
-0,10
-0,10
-0,10

-0,13
-0,37
-1,73

-3,43
-2,30
-0,13
-0,37

--0,10
-0,23
-0,10
-0,10
-0,07

-0,07
-0,03
0,03

-0,03
0,03
0,10

0,87
0,76

-1,73
0,78

-0,55

-0,23

0,10
--0,71

SpaarmanRangkorrelallonskoefflzlent

Der sog. Spearman-Rangkorrelationskoefflzient ist eine robuste Variante des Bravais-Pearson-Korrelationskoeffizienten, die zudem auch bei ordinalen Merkmalen

3. Zweidimensionale Hufigkeitsverteilungen

101

einsetzbar ist. Er basiert nicht direkt auf den Merkmalsausprgungen X, und y, der
Merkmale X und Y, sondern auf ihnen zugeordneten Rangnummem R~ und Ri.
Im Zuge der Berechnung des Rangkorrelationskoeffizienten wird der grten Ausprgung von X der Rang 1, der zweitgrten Ausprgung von X der Rang 2, usw.
zugeordnet. Tritt ein Wert des Merkmals X mehrmals auf, d.h. liegen sog. Bindungen vor, dann wird diesen das artihmetische Mittel der entsprechenden Rangzahlen
zugeordnet. Entsprechend werden auch den Ausprgungen des Merkmals Y Rangzablen zugeordnet.

Beispiel I 3-12

Zuordnung von Rangzahlen

Gegeben sei folgendes Datenmaterial:

'YI"

2
3

8
2
3
2

R',
RY,

3
9

10

5
4,5

2
4,5

5
7
2

4
2

Die Beobachtungen von X weisen keine Bindungen auf. Wir knnen daher dem Wert 10
den Rang 1, dem Wert 9 den Rang 2, usw. zuordnen. Die Beobachtungen von Y weisen
Bindungen auf. Der grte Wert 2 tritt dreimal auf. Mit diesen drei Werten wren die Rnge
1, 2 und 3 verbunden, die nun gemittelt werden und so den Werten 2 einheitlich der Rang
(1 + 2 + 3}/3 = 2 zugeordnet wird. Der Wert 1 weist erneut eine Bindung auf, sodass beiden Werten 1 der Rang (4 + 5}/2 = 4,5 zugeordnet wird.

Wenden wir den Bravais-Pearson-Korrelationskoeffizienten auf die ennittelten


Rangziffem an, so erhalten wir den Spearman-RangkorreIationskoeflZient

1. L....
~(R', -R')(R,Y -RY )
n

i ..l

03: 27)

wobei R' und RY die Mittelwerte der jeweiligen Rangziffern darstellen. Gibt es
keine Bindungen, knnen wir r~ alternativ auch ber
n

6 L(R~

-Rn'

r SP = 1- --"'-"'-,-:;--,-XY

n.(n'-1)

6'LD;
1..1

n(n' -1)

03: 28)

berechnen. Die D, werden dabei als Rangdifferenzen bezeichnet. Sind irn Datensatz
relativ zum Stichprobenumfang n wenige Bindungen vorhanden, liefert (13: 28)
noch einen guten Nherungswert fr 03: 27).
Unabhngig von der Art der Berechnung kann r~ wie auch r"" Werte irn Intervall
-1 :s; r~ :s; +1

03: 29)

annehmen, da der Spearrnan-Rangkorrelationskoeffizient eine nonnierte, dirnensianslose Gre ist. r~ = 1 gilt genau dann, wenn eine beliebige monoton wachsende bzw. eine beliebige monoton fallende Funktion f(x) existiert, sodass y, = fex)

I Deskriptive Statistik

102

erfllt ist. Wir sagen dann auch, dass zwischen X und Y ein monotoner Zusammenbang besteht. Fr den Fall strikter Gleicblufigkeit der Rangzablen (R~ = Ri
fr i = 1,2, ... ,n) nimmt der Rangkorrelationskoeffizient den Extremwert +1 an. Dies
wre z.B. der Fall, wenn in einer Untersuchung des Zusammenhangs zwischen
Gre und Gewicht von Personen die grte Person zugleich die schwerste, die
zweitgrte Person zugleich die zweitschwerste, ... und die kleinste Person zugleich die leichteste ist. Der andere Extremwert -1 wird bei strikter Gegenlufigkeit
der Rangnummern (bei nicht vorliegenden Bindungen R~ = n + 1- Ri fr
i = 1,2, ... ,n) erreicht. Dies wre z.B. der Fall, wenn die grte Person zugleich die
leichtetste, ... und die kleinste Person zugleich die schwerste ist. Abbildung I 24
veranschaulicht diesen und andere Flle.

I r~ =-11

I r~ =+11

0
0

0
0

00

0
0

0
0
0

0
0

00

=stark negativ I

Ir~
0

Ir~ ;;;;;; schwach positiv I

00

0
0

0
0

0
0
0

x
y

y
Ir"
n-

01

Ir"
n-

01

0
0

0
0

0
0

0
0

0
0

0
0

Abbildung I 24: Spearman-Rangkorrelationskoeffizient und Streudiagramm

103

3. Zweidimensionale Hufigkeitsverteilungen

Beispiel I 3-13

Spearman-Rangkorrelationskoeffizient

10 Betriebswirtschaftsstudenten erreichten in ihren Drittversuchen in den Klausuren Statistik und Wirtschaftsmathematik folgende Gesamtpunktzahlen:
Student
Statistik
Wirtschaftsmathematik

2
41
38

33
37

4
55
49

3
45
32

33
44

6
27
21

7
20
11

8
15
11

9
13
11

10
18
28

Untersuchen wir nun hier/ur, ob sich ein Zusammenhang zwischen den Leistungen in den
beiden Fchern feststellen lsst. Zur Berechnung des Rangkorrelationskoeffizienten verwenden wir die folgende Arbeitstabelle. Diese ist nahezu selbsterklrend. Lediglich zwei
Wertegruppen verdienen nhere Aufmerksamkeit. Da x, und Xs identisch sind, teilen wir
die Rnge 4 und 5 gleichmig auf diese beiden Beobachtungswerte auf, sodass wir fr
beide den Rang (4 + 5)/2 = 4,5 erhalten. Ein hnliches Problem liegt bei Y7, Y. und y, vor.
Diesen teilen wir daher den Rang (8 + 9 + 10)/3 = 9 zu.

1
2
3
4
5
6
7
8
9
10

x;
33
41
45
55
33
27
20
15
13
18

y;

R',

R',

37
38
32
49
44
21
11
11
11
28

4,5

4
3
5
1
2
7
9
9
9
6
55

3
2
1

4,5
6
7
9
10
8
55

(Rn'

R~Rr

D;

D',

20,25
9
4

16
9
25

18
9
10

20,25
36
49
81
100
64
384,5

4
49
81
81
81
36
383

9
42
63
81
90
48
371

0,5
0
-3
0
2,5
-1
-2
0

0,25
0
9
0
6,25
1
4
0

(Rn'

4
25,5

Aus dieser Tabelle ergibt sich nun der Rangkorrelationskoeffizient nach (13: 27) unter Bercksichtigung des VersChiebungssatzes fr die Kovarianz und die Varianz zu

55 55

10. 371 -10'10


1

(55)2

10. 384,5- 10 .

1
(55)2 10 383- 10

6,85

.J8,2 .}8,05

0,8431.

Es liegt also ein stark positiver Zusammenhang zwischen den Leistungen in Statistik und
Wirtschaftsmathematik vor. Dies bedeutet, dass Studenten, die im Drittversuch gut in Statistik sind auch tendenziell besser in Wirtschaftsmathematik abschneiden oder umgekehrt.
Eine Anwendung von (13: 28) trotz vorhandener Bindungen ergbe

n.(n'-I)

625,5
10(100-1)

0,8455.

Trotz der kleinen Stichprobe und der vorhandenen Bindungen erhalten wir also einen sehr
guten Nherungswert.

=========:. . ____~'~D~.=.k~r=iP~tive=_S='=at=ist=i=k

104 ________
Beispiel I 3-14

Anscombe's Korrelationsdaten

Berechnen wir fOr die vier Datenstze aus Beispiel I 3-9 den Spearman-Rangkorrelationskoeffizienten, so erhalten wir folgende Ergebnisse:

Dalensatz

0,8182

0,6909

0,9909

4
0,5

Interessant ist hierbei der nahe 1 liegende Koeffizient fQr Datensatz 3. Dieser verdeutlicht,

dass der Rangkorrelationskoeffizienl hier kaum vom vorliegenden Ausreier beeinftusst


wird. Auch der im Vergleich zum Datensatz 1 geringere Rangkorrelationskoeffizienl bei Datensatz 2 ist aufgrund der drei Beobachb.mgen mit den grten x-Werten einleuchtend.
Hinsichtlich Dalensatz 4 Ist zu erwhnen, dass bel derartig vielen Bindungen I.d.R. auf eine
Berechnung des Speannan-Rangkorrelalionskoeffizienlen verzichtet wird.

3.2,4

Konllngenzkoefllzlenl

Als letztes Korrelationsma wollen wir im Folgenden den sog. Kontingenzkoeffi-

alle Skalenniveaus anwendbar ist. Die Berechnung


dieser Mazahl erfolgt in 4 Schritten:

~ zienten vorstellen, welcher auf

Schritt 1:
In Abschnitt I 3.1.4 haben wir gesehen, dass im Falle der statistischen Unabbdnglgkeit zweier Merkmale X und Y der Zusammenhang 03: 20) gilt, d.h. die gesamte
Information bezglich der gemeinsamen Hufigkeitsverteilung in den eindimensionalen Randverteilungen enthalten ist. Dies knnen wir zur Bildung einer hypothct:if.cben Kontl:ngcnztabeJle verwenden. Die in dieser Tabelle entstehenden hypothetischen bzw. bei statistischer Unabhngigkeit erwarteten gemeinsamen absoluten Hufigkeiten hzy(~,bj)' die wir im Folgenden mit hij abkrzen, sind
_
h(a i ) h(b j )

h, -

- n, I(a,)' ICh,) .

03, 30)

Je strk~r nun die tatschlichen Hufigkeiten ~ von den hypothetischen Huftgkeiten h!f abweichen, desto grSer ist die wechselseitige Abhngigkeit der Merkmale X und Y.

Schritt 2:
Ein Ma, welches auf den Differenzen hij - hij basiert, ist der sog. Chi-QuadratJ<od6zIcnt

,_~~(h.-ii.)'

X -

L." L."
i_1 j_1

h~

03, 31)

Er sununiert im Zhler die quadrierten Abweichung der tatschlich ermittelten Huflgkeiten ~ von den erwarteten Hufigkeiten hij. Durch das Quadrieren wird verhindert, dass sich positive und negative Differenzen gegenseitig aufheben. Es gilt
genau dann 'i - 0, wenn alle Differenzen gleich Null sind. Im Falle statistischer

3. Zweidimensionale Hufigkeitsverteilungen

105

Unabhngigkeit nimmt 03: 31) also den Wert 0 an. Je grer der Wert des ChiQuadrat-Koeffizienten ist, umso strker ist die statistische Abhngigkeit der Variablen X und Y. Ein kleiner Schnheitsfehler verhindert jedoch, dass die Gre selbst
als Zusammenhangsma verwendet wird. Verdoppeln wir nmlich z.B. n und alle
h" so verdoppelt sich auch X'. X' kann also unbegrenzt groe Werte annehmen.

Schritt 3:
Der KontIngenzkoeffizient K,." welcher aus X' berechnet wird, beseitigt den
Schnheitsfehler von X'. K,., weist im Falle statistischer Unabhngigkeit ebenfalls
den Wert 0 auf und nhert sich bei zunehmender Strke des Zusammenhangs dem
Wert 1 an, erreicht diesen aber nicht. Konkret gilt
2

---

XY -

n+x2

mit

03: 32)

Schritt 4:
Um eine bessere Vergleichbarkeit zu gewhrleisten, empfielt es sich, den Kontingenzkoefftzienten zu nonnieren, sodass er hchstens den Wert 1 annehmen kann.
Zu diesem Zweck dividieren wir K,., durch seinen maximal mglichen Wert

K~ = JMr:;1

mit

M = min(k,r),

03: 33)

wobei M das Minimum aus Zeilen- und Spaltenzahl der vorliegenden Hufigkeitstabelle darstellt. Fr den nonnlerten Kontingenzkoeffizlenten folgt somit
Knorm _ K xy
XY

KDJaX

mit

O~K~ ~1.

03: 34)

XY

Wie der Wertebereich des normierten Kontingenzkoeffizienten zeigt, knnen wir


lediglich Aussagen ber die Strke des Zusammenhangs der Variablen X und Y
machen. Je nher der Koefftzient bei 1 liegt, desto strker ist der Zusammenhang.
Aussagen ber die Richtung sind nicht mglich, da keine negativen Werte im Wertebereich vorkommen. Dies ist auch unmittelbar einleuchtend, da das Ma unter
anderem fr nominale Merkmale konzipiert ist, die keine Ordnungsstruktur besitzen, und daher nicht zwischen positivem und negativem Zusammenhang der
Merkmale unterschieden werden kann.
Beispiel I 3-15

Kontingenzkoeffizient

Eine Untersuchung unter 500 Haushalten Ober den Zusammenhang von Wohnflche und
Haushaltsnettoeinkommen ergab die folgende Kontingenztabelle (absolute Hufigkeiten):

WohnflAche
X

bis 70 m
Ober 70 m'

EinkommenY
bis 1.500
Ober 1.500
140
90
100
170
240

260

230
270
500

106

I Deskriptive Statistik
Schrill 1: Hypothetische Kontingenztabelle

2
bis 70 m
2
ber 70 m

Wohnflche

EinkommenY
bis 1.500
Ober 1.500
110,4
119,6
129,6
140,4
240
260

230
270
500

Schrill 2: Chi-Quadrat-Gre
(140-110,4)2 (100-129,6)2 (90-119,6)2 (170-140,4)2
110,4
+
129,6
+
119,6
+
140,4
= 7,94+6,76+ 7,33+6,24 = 28,18
Schrill 3: Kontingenzkoeffizient
=0,23
28,18
500+28,18
Schrill 4: Normierter Kontingenzkoeffizient

K~ =r~1

M = min(k,r) = min(2;2) = 2

=l;1 =0,71

K,mm = K xv = 0,23 = 33
xv
K~
0,71
.
Daraus lsst sich folgern, dass zwischen Einkommen und Wohnflche ein schwach ausgeprgter Zusammenhang besteht.

Liegen zwei dichotome Merkmale X und Y vor, fhrt die tabellarische Darstellung
Ihrer gemeinsamen Hufigkeitsverteilung immer zu einer Vierfeldertafel. Maximale
Abbngigkeit liegt in einer solchen Tafel immer dann vor, wenn beide Diagonaleintrge oder alternativ beide Nicht-Diagonaleintrge Null sind.

3.2.5

Lineartransformationen und Linearkombinationen

Betrachten wir zwei metrisch skalierte Merkmale X und Y deren Realisationen X,


und y, in der Form
v, =a+bx" w, =c+dy,

mit

a,b,c,dE IR, b,.O, d,.O

C13: 35)

linear transformiert werden. Zwischen der Kovarianz Covxy der Ausgangsdaten


und der Kovarianz Covvw der transformierten Daten besteht der Zusammenhang
Covvw = b d ,Covxy ,

(13: 36)

den wir wie folgt beweisen knnen:


Covvw

=! ICv, -v)(w, -Vi) =! ICa+ bx, -a- bx)(c+ dy, -c -dy)


n

jE1

j ... l

3. Zweidimensionale Hufigkeitsverteilungen

107

= b d Covxy

Fr den Bravais-Pearson-Korrelationskoeffizienten gilt bei Lineartransfonnationen


der Fonn (13: 35)
"vw =

bd
'"XY
Iblldl

bzw.

I"vw 1=I"xy I .

(13: 37)

Wir sagen, der Bravais-Pearson-Korrelationskoefflzient ist invariant gegenber

Lineartransformationen. Wir knnen dies wie folgt beweisen:


bd
Ib 1.1 d I

;-:--;-c--;-; . "

XY

(13: 37) besagt, dass Lineartransformationen nicht die absolute Strke eines korrelativen Zusammenhangs verndern knnen (Invarianzeigenschaft). Allerdings kann
sich ggf. die Richtung des Zusammenhangs umkehren. Es gilt
"
vw

= {+rxy
-rxy

falls bd > 0
falls bd < O.

Die Aussage von (13: 37) ist direkt auf den Spearman-Rangkorrelationskoefftzienten
bertragbar. Dieser ist darber hinaus invariant gegenber allen streng monotonen
Transformationen.
Werden die Beobachtungen x, und y, zweier metrisch skalierter Merkmale X und Y
in der Fonn
(13: 38)
Wi =a+b'x j +C'Yi
mit
a,b,cE IR, b*O, c'*o
linear kombiniert, gilt fr das arithmetische Mittel und die Varianz der Werte w,

w=a+bx+cy,
s~ = b

(13: 39)

s; + C2S~ + 2bcCovxy .

Beweisen knnen wir den Zusammenhang (13: 39) ber

In

In

1[

(13: 40)

n]

w=- LWi =- L(a+ bX i +cy,)=- n.a+bLxi +CLYi =a+ bx+cy


j .. t

i_ I

i_ I

j ..l

und (13: 40) ber


s;. =l:t(w i -w)' =l:t(a+bxi +CYi -[a+bx+cy])'
n

i_ I

i_ I

b2 n
_ 2
c2 n
_ 2
2bc n
_
_
= - L(Xi -x) +- L(Yi -y) +-L(Xi -X)(Yi -y)
n

i_ I

j .. t

i_ I

108

I Deskriptive Statistik

3.2.6

Kritische Anmerkungen zur Korrelationsanalyse

Oftmals werden durch die Korrelationsanalyse Zusammenhnge zwischen Merkmalen festgestellt, obwohl solche in der Wirklichkeit gar nicht existieren. Aus diesem
Grund wollen wir uns im Folgenden kritisch mit der Korrelationsanalyse auseinandersetzen. Dazu mssen wir zunchst zwischen zwei Arten von Zusammenhngen
unterscheiden. Von statistischen Zusammenhngen spricht man, wenn sich empi-

risch (mittels der bisher behandelten Verfahren) eine gemeinsame Variation ver-

schiedener Variablen beobachten lsst. Von einem kausalen Zusammenhang


spricht man hingegen, wenn auerdem eine Ursache-Wirkungs-Beziehung besteht,
d.h. sich Z.B. die Variable Y aufgrund einer Variation der Variable X verndert.
Kausale Zusammenhnge

Statistische Zusammenhnge

Empirische Beobachtung einer

Ursache

gemeinsamen Variation
mehrerer Variablen

(X)

-+

Wirkung
(Y)

Abbildung I 25: Kausale versus statistische Zusammenhnge


Ein festgestellter statistischer Zusammenhang darf nun nicht automatisch als kausaler Zusammenhang interpretiert werden. Dies beruht auf folgenden Tatsachen:
1. Richtung des AbbngigRitsverhltnisses
Bei kausalen Zusammenhngen kann die Abhngigkeit in die eine (x, ~ y) oder
andere Richtung (y, ~ x) oder auch in beide Richtungen (x, H y) laufen. Die Korrelationsanalyse kann aber lediglich aussagen, ob ein positiver oder negativer Zusammenhang vorliegt und wie stark dieser ausgeprgt ist. Sie kann nicht feststellen,
was Ursache und was Wirkung ist.
2. Dritte intervenierende Variable

Besteht kein kausaler Zusammenhang zwischen zwei Variablen (Merkmalen) X und


Y, so kann es vorkommen, dass trotzdem ein statistischer Zusammenhang festge-

stellt wird, da der Einfluss einer dritten Variablen bei der bivariaten Korrelationsanalyse nicht bercksichtigt wird. Nehmen wir beispielsweise an, dass die Variablen X und Y jeweils von einer Variable Z positiv beeinflusst werden, zwischen X

und Y jedoch kein kausaler Zusammenhang besteht.


Variable X

I I Variable Y

+[;;&]+

Im Rahmen einer statistischen Untersuchung werden nur die Variablen X und Y betrachtet. Steigt nun z.B. Z, steigen auch X und Y. Damit wrde die Korrelationsanalyse einen Zusammenhang zwischen X und Y aufzeigen, obwohl keiner besteht.

3. Zweidimensionale Hufigkeitsverteilungen

109

Solche Fehler, die sog. Scheinkorrela:tiOD, knnen wir venneiden, wenn wir

wirklich alle mglichen Einflussvariablen bercksichtigen (y - f(x,z, ... )). Dies ist
typisch bei Verfahren wie der multiplen Regression (vgl. Kapitel N), der Varianzanalyse und der Berechnung partieller Korrelationskoeffizienten.

3. Trendvariablen
Ein in der Praxis hufig gemachter Fehler tritt bei der Korrelationsuntersuchung
von Trendvariablen (tendenziell steigender oder fallender Verlauf der Variablen)
auf. Untersucht man nmlich z.B. die Variablen "nominales Bruttoinlandsprodukt"
und "kumulierte Regenmenge" auf Korrelation, so wird mit Sicherheit ein statistischer Zusammenhang festgestellt. Der gesunde Menschenverstand besagt aber, dass
es keinen Zusammenhang geben kann.

Zur Vermeidung von Scheinkorrelationen werden bei trendbehafteten Variablen die


Korrelationsmesszahlen in der Praxis hufig nicht aus den originren Merkmalsausprgungen, sondern entweder aus den Vernderungen der Variablen von Periode
zu Periode

Axt = x t

x t_1

Ay, = y, - YH

(13: 41)

w ,y = Yt -Yt

(13: 42)

oder aus Wachstumsraten


1

Yt-l

berechnet. Auf diese Weise kann der Trend in den Daten lI eliminiert" werden.

4.

Messzahlen und Indizes

Mess- und Indexzahlen erlauben uns die Beschreibung der zeitlichen Entwicklung oder
der rumlichen Unterschiede metrisch skalierter Merkmale. Whrend wir mit Messzahlen
jeweils nur die Vernderung eines Merkmals beschreiben knnen, erfassen wir mit
Indexzahlen die Entwicklung einer Gruppe von gleichartigen Merkmalen. Nach einem
einfOhrenden Abschnitt zu Messzahlen legen wir den Schwerpunkt dieses Kapitels auf
Indexzahlen und dabei insbesondere auf Preisindizes. Als besondere Vertreter werden
wir dabei den Verbraucherpreisindex (VPI) und den harmonisierten Verbraucherpreisindex (HVPI) sowie den Deutschen Aktienindex (DAX) kennen lernen.

4.1 Messzahlen
Messzahlen vergleichen zeitlich unterschiedliche Merkmalsausprgungen durch Bezugsbildung auf einen gemeinsamen Basiswert. Ausgangspunkt ist dabei die chronologisch geordnete Sequenz von im Zeitablauf gemessenen Beobachtungswerten
Je, des Merkmals X, d.h. die sog. Ze/trelbe von Beobacbtungswerten

04: 1)
die die Entwicklung des Merkmals X vorn Zeitpunkt t - -m bis t - n abbildet. Dividieren wir nun jedes Element dieser Zeitreihe durch dasselbe vorher definierte
Element, den sog. Bas/swert x", so erhalten wir eine Zettrelbe von Messzablen zur
Bastsze/tt - 0, die sich wie folgt darstellt:

04: 2)
Bezeichnen wir die Messzahl der Bertchtszeit t zur Basiszeit
nen wir damit die allgemeine Formel

t =

0 mit f ot' so kn-

'

[0,' =~

04: 3)

Xo

zur Messzahlenberechnung festhalten, in der Je, wie bisher fr den Merkmalswert


zur Berichtszeit t und x" fr den Merkmalswert zur Basiszeit t - stehen,
Multiplizieren wir die Messzahl (14: 3) mit dem Faktor 100, so ermglicht uns dies,
prozentuale Abweichungen der Merkmalsausprgung der Berichtsperiode von der
Merkmalsausprgung der Basisperiode unmittelbar abzulesen, Beispiel 1 4-1 verdeutlicht dies,

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_4, Springer Fachmedien Wiesbaden 2015

112 _ _ _ _ _ _ _

.:===========~

Beispiel I 4-1

__~I~D~.=.k~r=iP~tive=_S='=at=ist=i=k Q.
Messzahlen im Vergleich

Ober 12 Jahre wurden die Umsatzzahlen zweier Unternehmen A und B ermittelt. Um die
Entwicklung beider Unternehmen besser vergleichen zu knnen, werden in beiden Fllen
(bereits mit 100 multiplizierte) Messzahlen im Bezug auf den Umsatz in 1998 berechnet

Die Resultate sind in folgender Tabelle zu sehen:


Jahr
1998
1999

2000
2001
2002
2003
2004

2005
2006
2007
2008
2009

Per10de

0
1
2
3

5
6
7
8
9

10
11

Umsatz in Tsd.
A
B

500
620
650
730
680
670
600
480
600
620
630
450

1200
1320

1440
1500
1560
1620
1500
1380

1320
1440
1560
1080

Messzahlen (Basis 1998)


A
B

100
12.
130
146
136
134
120
96
120
124
128
90

100
110
120
125
130
135
125
115
110
120
130
90

Betrachten wir nun die Messzahlen des Jahres 2003, so ist zu erkennen, dass der Umsatz
des Unternehmens A im Vergleich zur Basisperiode um (134 - 10D) % - 34 % gestiegen
ist. Bei Unternehmen B liegt das entsprechende UmsatzwachSlum bei 35 %. Wir knnen
auch sagen, dass der Umsatz im Jahr 2003 genau 134 % bzw. 135 % des Umsatzes des
Basisjahres ausmacht. Vergleichen wir die Messzahlen des Unternehmens A rur die Jahre
2007 und 2008, so ist zu erkennen, dass der Umsatz um 2 Prozentpunkte gestiegen ist.
Dies entspricht einem Prozentsatz (Wachstumsrate) von

126-124 .100 %=161 %.


124
'
Stellen wir die Entwicklung der Messzahlen grafisch dar, so knnen wir daraus die Abweichungen von der Basis (100) sehr gut veranschaulichen. Fr Unternehmen A ergibt sich 60
die folgende Grafik, in der neben den Messzahlen auch die absoluten Merkmalswerte an
den Achsen abgetragen sind. Wie zu erkennen ist, wird der Basiswert 100 nur zweimal unterschritten. Dies bedeutet, dass es nur in den Jahren 2005 und 2009 zu einem UmsatzrOckgang unter das Niveau von 1998 kam.

800

absolut

Messzahl

180

700

140

800

120

..

500

400

SO

300

1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009

60

4. Messzahlen und Indizes

113

Sind wir gezwungen die Basis einer Messzahl bzw. einer Reihe von Messzahlen im
Nachhinein zu ndern, bezeichnen wir diesen Vorgang auch als Umbasierung. Im
Prinzip steckt dahinter nichts anderes als die Anwendung der Fonne! (14: 3) zur
Messzahienberechnung auf die Zeitreihe der Beobachtungswerte (14: 1) unter Nutzung einer neuen Basis x,:
x

(14: 4)

=~

','

x,

Angenommen, die ursprnglichen Merkmalsausprgungen (14: 1) liegen nicht mehr


vor, sondern nur noch die Messzahlenreihe zur Basiszeit t = 0, knnen auch daraus
die neuen Messzahlen zur Basiszeit t = s berechnet werden:

"'-

s,t

=~=rO,t
X
~

xo

(14: 5)

f O,8

Beispiel I 4-2

Umbasierung von Messzahlen

Die folgende Tabelle en1hlt tur den Zeitraum 1998 bis 2007 die Absatzzahlen eines Verlagshauses (in Mio. ) und die dazugehrigen (bereits mit 100 multiplizierten) Messzahlen
zur Basis 1998. Durch Umbasierung auf die Basis 2003 ergeben sich folgende Werte:

Xi

1998
50

1999
56

2000
60

2001
62

2002
72

2003
80

2004
84

2005
88

2006
90

2007
96

Messzahl

100

112

120

124

144

160

168

176

180

192

Messzahl

62,5

70

75

77,5

90

100

105

110

112,5

120

Jahr

(1998)
(2003)

Wie die neuen Messzahlen zur Basis 2003 entstehen, wollen wir im Folgenden exemplarisch anhand der Messzahl fOr das Jahr 2004 darstellen. Die Berechnung anhand der
Merkmalsauspragungen liefert
X 2004
84
r20032OO4 = --100
= -,100 = 105,
,
X
80
2003

was natrlich mit der Berechnung anhand der Messzahlen zur Basis 1998

r
168
2004
r2OO32004 = 1996'
,100=-,100=105
,
r1998,2003
160
Obereinstimmt.

4.2 Indexzahlen
In diesem Abschnitt wollen wir nun die zeitliche Entwicklung mehrerer verwandter

Gren beschreiben, Mazahlen, die zeitlichen Vergleichen dienen und zudem

"4

I Deskriptive Statistik
dem Aspekt der Aggregation mehrerer Gren Rechnung tragen, nennen wir

Indexzablen oder kurz Indizes. Indizes fassen typischerweise Messzahlen der Einzelgren in geeigneter Weise zusanuneo. Damit wird klar, dass genau wie bei
Kennzahlen zur Charakterisierung von Huflgkeitsverteilungen durch die Berechnung eines Index die zugrunde liegenden Einzellnformationen verloren gehen.
Dies muss aber nicht unbedingt einen Nachteil darstellen. Sinn und Zweck eines
Index ist es ja gerade die durchschnittliche Vernderung einer Vielzahl von gleichartigen Tatbestnden in einer einzigen Zahl auszudrcken. Durch diese Komprimierung der Ausgangsdaten sind Vergleiche und Analysen mglich, die unter
Zugrunde1egung der oft sehr umfangreichen anfanglichen Einzeldaten nur schwer
umsetzbar wren.
Zur Erhhung der Anschaulichkeit stehen im Folgenden spezielle Anwendungen
von Indexzahlen im Vordergrund. Wir diskutieren die Messung der Preisentwicktung, der Mengenentwicldung und der Wertentwicldung von Gterbnde1n ber
Preis-, Mengen- und Wertindizes. Unser Hauptaugenmerk liegt auf Preisindi2es. Wrr
werden diese daher nutzen um wesentliche Indexoperationen zu veranschaulichen,
die natrlich auf Mengen- und Wertindizes analog bertragbar sind. Zudem werden
wir die praktische Bedeutung von Preisindizes herausarbeiten. Wir beschlieen das
Kapitel schlielich mit drei bedeutsamen Preisindizes aus der Wirtschaftspraxis.

4.2.1

Preisindizes

4.2.1.1

Grundlegenda

Eine Marktwirtschaft ist in der Regel gekennzeichnet durch sich im Zeitablauf

~ ndernde Preise von Gtern und Dienstleistungen. Zur Quantifizierung dieser

Preisnderungen nutzen wir in der Praxis sog. Preisindizes. Sie geben Auskunft
ber Kaufktaftnderungen des Einkonunens und damit ber die Stabilitt oder Instabilitt des Geldwertes. Rein definitorisch beschreibt ein Preisindex die durcbschnittllche Prelsentwicklung einer vordeftnierten Gruppe von GOlem.
Ausgangsdatenmaterial fr die rechnerische Bestinunung eines Preisindex sind die
Preise p~l), p~) ... , p~") von n Gtern in der Basisperiode 0 und p~). p~), ... , p~n) in
der Berichtsperiode t sowie die dazugehrigen Gtennengen q~1),q~2l, ... ,q~n) und
q~l).q~1), ... ,q~. Bei den Preisen handelt es sich je nach Sachlage um Ein- oder
Verkaufspreise, Import- oder Exportpreise, usw. Die Mengen sind je nach sachlage
konsumierte, produzierte, exportierte, importierte oder verkaufte Mengen der jeweiligen Gter. Wir sprechen dabei allgemein von transferierten Mengen.
Die n Gter und die dazugehrigen Mengen bilden die sog. warenkrbc. Der
Wert W dieser warenkrbe bzw. die latsilcblichen Ausgaben eines Konsumenten,
Produzenten, etc. (im Folgenden Individuen) fr die Gtennengen kann wie folgt
berechnet werden:
a) Wert des warenkorbs der Basisperiode in der Basisperiode

w0,0 =~pO).qO)
~o
0
,~

b) Wert des warenkorbs der Berichtsperiode in der Berichtsperiode

04,6)

4. Messzahlen und Indizes

115

wt,t = ~p(i)t . q(!lt

(14: 7)

~
i=l

Neben diesen tatschlichen Ausgaben lassen sich hypothetische Ausgaben bestimmen, die angeben, welche Zahlungen die Individuen fr die Warenkrbe htten
leisten mssen, wenn die Preise der jeweils anderen Periode vorgeherrscht htten:
a) Was htte das Individuum in der Berichtsperiode fr den Warenkorb bzw. die
Mengen der Basisperiode ausgeben mssen?

wt,0 ; ; ~p(i)
q(O
L..Jt
0

(14: 8)

b) Was htte das Individuum in der Basisperiode fr den warenkorb bzw. die
Mengen der Berichtsperiode ausgeben mssen?

wO,t ; ; L..J
~p(i)
q(O
0
t

(14: 9)

Die Werte (14: 6) bis (14: 9) werden uns bei der Definition der Preis-, Mengen- und
Wertindizes wertvolle Dienste leisten und uns helfen diese Zu interpretieren.
Beispiel I 4-3

Warenkrbe

Ein Arbeitnehmerhaushalt kaufte im Basis- und Berichtsjahr folgende Gter 1-3:


Gut
Nr. i
1
2
3

Basisjahr 2000
p(l)

2000

1,50 tStOck
2,00/kg
9,00 tLiter

q~
60 Stck
20 kg
50 Liter

Berichtsjahr 2006
p(l)

2006

1,50 tStck
4,00 tkg
9,50 tLiter

q~
40 Stack
10 kg
50 Liter

Betrachten wir dazu nun folgende Fragestellungen:


a) Welchen Wert hat der Waren korb der Basisperiode in der Basisperiode?
W2000.= =1,5060+2,0020+9,0050=580
b) Welchen Wert hat der Waren korb der Berichtsperiode in der Berichtsperiode?
W20DB2OOfl =1,5040+4,0010+9,5050 =575
c) Wieviel Euro htte der Haushalt in der Berichtsperiode fr den Warenkorb der Basisperiode ausgeben massen?
W20

".= =1,5060+4,0020+9,5050=645

d) Wieviel Euro htte der Haushalt in der Basisperiode fUr den Warenkorb der Berichtsperiode ausgeben massen?
W2000..... =1,5040+2,0010+9,0050 = 530

Die Entwicklung der Preise einzelner Gter aus dem Warenkorb knnen wir durch
Preismesszahlen beschreiben. Fr das i-te Gut erhalten wir so zur Berichtszeit t die
Messzahl

I Deskriptive Statistik

116

Eine denkbar einfache simultane Beschreibung der Preisentwicklung aller n Gter


des Warenkorbs liefert das arithmetische Mittel der Preismesszahlen, also

PO,t

pO)

L ----to
.
n
Po
n

(14: 10)

== -

io:l

Ein so definierter Preisindex ist allerdings nur dann konomisch sinnvoll interpretierbar, wenn allen n Gtern die gleiche konomische Bedeutung zukommt. In
praktischen Anwendungen ist dies meist nicht der Fall. Es wird dann notwendig,
die Gter bzw. die Preismesszahlen geeignet zu gewichten. Dafr gibt es eine Reihe verschiedener Lsungen, die die im Folgenden vorgestellten Preisindizes liefern.
4.2.1.2

Preisindex nach Laspeyres

Der Preisindex nach Laspeyres p~, ist ein gewogenes arithmetisches Mittel der n
Preismesszahlen p~!) / pi!) der im' Warenkorb enthaltenen Gter. Er ist allgemein
defmiert als
n
Ol
ol. qOl
"~
. gOl
mit g (ol ) = nP0 0
(14: 11)
P LO,t = 'L..
0)
0
1=1 Po
LP~I) q6i)

Wie wir sehen, entsprechen die Gewichte gii) fr jedes Gut i genau dem Anteil der
Ausgaben fr das Gut am Gesamtwert des Warenkorbs der Basisperiode. Die Gewichte (in ihrer Gesamtheit auch Wgungsschema des Index genannt) mit denen
die Preismesszahlen in den Index eingehen, werden also ausschlielich mit

Datenmaterial aus der Basisperlode bestimmt.


Zur genaueren Analyse und auch einfacheren Berechnung des Index erfolgt hufig
eine Umformung in die sog. Aggregaiform
n

PO,t

pm p(!), q(!)
t
0
0
= L.. W . 'WT
1=1 Po
WO,O
n
~

Lp~1) . q~1)

W
-=----=_.
i_I

tO

(14: 12)

WO,O'

Diese zeigt, dass der Preisindex nach Laspeyres nichts anderes als das Verhltnis

eines fiktiven Ausgabenwertes (wie viel der Warenkorb der Basisperiode zu Preisen
der Berichtsperiode gekostet htte) und den tatschlichen Ausgaben fr den Warenkorb der Basisperiode ist. (14: 12) gibt damit an, wie sich das Preisniveau gendert htte, wenn das in der Basisperiode geltende Mengenschema auch in der Berichtsperiode Gltigkeit htte. Vorteil dieses Index ist es also, dass er von Mengennderungen in der Berichtsperiode nicht beeinflusst wird und so die reine Preisentwicklung widerspiegelt. Whrend damit eine Vergleichbarkeit verschiedener
Indexwerte gewhrleistet wird, kann dies jedoch gerade bei langen Zeitreihen
einen erheblichen Nachteil darstellen. Gternachfragende Wirtschaftssubjekte reagieren nmlich im Allgemeinen auf Preisnderungen, und zwar durch den Kauf geringerer Mengen relativ teurer gewordener Gter und durch den Kauf grerer

Mengen relativ billiger gewordener Gter. Bei nderung ihrer Verbrauchsgewohn-

4. Messzahlen und Indizes

117

heiten werden sie auerdem "neue" Gter verstrkt und "alte I! Gter weniger nach-

fragen. Aufgrund der unvernderten Gewichtung der Gter ber- oder unterschtzt
der Index bei solchen Gegebenheiten die Preissteigerung (sog. Substitutiom- oder
Laspeyres-Effekt). In der Literatur wird hufig ausschlielich von einer berschtzung der Preissteigerung gesprochen. Es wird dabei vernachlssigt, dass zu unterscheiden ist, ob eine festgestellte Preissteigerung auf eine Angebots- (z.B. lieferengpass einer Unternehmung und damit Angebotsverknappung) oder Nachfragenderung (z.B. vernderte Verbrauchsgewohnheiten aufgrund neu auf den Markt
gekommener Gter) zurckzufhren ist. Die Betrachtung der beiden folgenden
Angebots-Nachfrage-Diagramme macht klar, dass eine angebotsinduzierte Preissteigerung mit einem Rckgang, eine nachfrageinduzierte Preissteigerung mit einer
Zunahme der nachgefragten Menge verbunden ist. Bei unvernderter Gewichtung
kommt es daher durch den Preisindex nach Laspeyres bei einem Angebotsschock
zu einer berschtzung der Preissteigerung und bei einem Nachfrageschock zu
einer Unterschtzung der Preissteigerung.
p
A

Angebotsinduzierte
Preissteigerung

x
P
A

Nachfrageinduzjerte
Preissteigerung

7'
W
N
7

Gerade bei der Problematik einer unvernderten Mengenstruktur setzt der Preis-

index nach Paasche an, der die aktuelle Nachfragestruktur durch einen aktuellen
Warenkorb bercksichtigt. Auch er ist jedoch nicht unproblematisch.
4.2.1.3

Preisindex nach Paasche

Auch der Preisindex nach Paasche p~., ist als gewogenes arithmetisches Mittel von
Preismesszahlen bzw. konkret als

I Deskriptive Statistik

118
n
p
~
PO,t ;;;;;; ~
i=l

(i)

Pt
Po

(0

-----co gt

mit

O) q(i)

P0

(i);;;;;;

gI

LP~I) .q~O

P6i) . q~i)

(14: 13)

WO,t

1_1

deftniert. Der Unterschied zum Preisindex nach Laspeyres besteht allein in der Gewichtung. Die Gewichte beim Preisindex nach Paasche verndern sich von Berichtsperiode ZU Berichtsperiode, da sie die Anteile der Werte der in den Berichtsperioden transferierten Mengen zu Preisen der Basisperiode an der zugehrigen
Gesamtwertesumme sind. Das Gewtcbtungsscbema orientiert sich also an den
Mengen der Berlcbtsperiode und ist damit variabel. Im Gegensatz dazu orientierte
sich der Preisindex nacb Laspeyres bei der Gewichtung an den Mengen der Basis-

periode, sodass bei Berechnung des Preisindex fr mehrere Berichtszeiten das Ge-

wlcbtungsscbema ber die gesamte Indexreihe konstant beibehalten wird.

Auch P:., lsst sich in Aggregaiform darstellen und zwar als


n

Lp~l) . q~l)
p
PO,t

= --:'-n,,'_ _ _-

(14: 14)

LP61) .q~i)
io:l

Der Index ist also lediglich das Verhltnis der tatschlichen Ausgaben fr den Warenkorb der Berichtsperiode und einem fiktiven Ausgabenwert, der angibt, wie viel
der Warenkorb der Berichtsperiode zu Preisen der Basisperiode gekostet htte. Er
gibt somit an, wie sich das Preisniveau gendert htte, wenn das in der Berichtsperiode gltige Verbrauchsschema unverndert in der Basisperiode Gltigkeit htte.
Zusammenfassend wird der Preisindex nach Paasche also anders als der Index
nach Laspeyres nicht nur von Preis- sondern auch von Mengennderungen beeinflusst. Trotz der greren Aktualitt der Gewichtungen neigt auch er bei Substitutionsprozessen oder vernderten Verbrauchsgewohnheiten zu verzerrten Messungen.
Da ihm die Fiktion zugrunde liegt, dass die Wirtschaftssubjekte die nach dem Angebots- oder Nachfrageschock verbrauchten Gter auch in der Basiszeit (also vor
dem Angebots- oder Nachfrageschock) verbraucht haben, kann der Index die Preissteigerung ebenso unter- oder berschtzen. Zudem ist nachteilig, dass die Ver-

brauchsgewohnheiten in jedem Berichtsjahr neu erhoben werden mssen, womit


Kosten verbunden sind. Gerade daher sind die meisten Preisindizes in der Praxis
vom Laspeyres-Typ.
4.2.1.4

Weitere Preisindizes

Wie wir gesehen haben, kann es bei Substitutionsprozessen oder vernderten

Verbrauchsgewohnheiten bei den Preisindizes nach Laspeyres und Paasche zur


Unter- oder berschtzung der Preissteigerungen kommen. Dies hat zur Entwicklung weiterer Indizes gefhrt, von denen jedoch einzig der Preisindex nach Drobisch und der Fishersche Idealindex in der Praxis Beachtung gefunden haben.
Der Preisindex nach Drobisch ist lediglich das arithmetische Mittel aus den
Preisindizes nach Laspeyres und Paasche.
Dr

PO.I =

L
PO,t

+ PO,t
2

(14: 15)

4. Messzahlen und Indizes

119

Der FIshersche Idealindex ist das geometrische Mittel der Preisindizes nach
Laspeyres und nach Paasche.
Pi

PO,t

~ L
P
PO,t' PO,t

(14: 16)

Daruber hinaus existiert eine Vielzahl weiterer Indexkonstrukte, die jedoch nahezu

keine praktische Bedeutung besitzen. Zu diesen zhlt z.B. der Marshall-EdgeworthIndex, der transferierte Mengen benutzt, die sich als Durchschnitt (arithmetisch
oder geometrisch) der Verbrauchsmengen der Basis- und der Berichtsperiode ergeben. Der Preisindex nach Lowe verwendet transferierte Mengen, die sich als arithmetisches Mittel aller beobachteten Mengen zwischen Basis- und Berichtsperiode
ergeben. 2
In der Praxis multiplizieren wir Indexwerte hufig mit dem Faktor 100. Dies erlaubt
uns eine hnliche Intetpretation, wie wir sie bei einer Preismesszahl vornehmen
knnen. Der Wert eines Index in der Basisperiode ist nmlich wie der einer Mess-

zahl in der Basisperiode immer 1 bzw. 100. Hier ist es jedoch die Preisentwicklung
einer Gtergruppe, die wir untersuchen.
Beispiel I 4-4

Preisindizes im berblick

Gegeben sei folgendes Datenmaterial:


Gut
i
1
2
3

2003

2004

!1

3
4
5

5
7
9

!1

2
5
8

2005

10
12
11

!1

2
6
8

2006

10
11
15

!1

1
13
17

10
9
16

Berechnen wir nun daraus die bisher behandelten Preisindizes, wobei wir 2003 als Basisund 2006 als Berichtsjahr verwenden:
L
15+137+179
P"".2000 = 3.5+4.7+5.9

P..".2OOB

= 110+139+1716
3.10+4.9+5.16

249=28295
88
'
399 =27329
146
'

P~".2000 = 0,5 (2,8295+2, 7329) = 2, 7812

P:~".""" = ,j2, 8295 2,7329 - 2, 7808


Betrachten wir den Preisindex nach Laspeyres, so erhalten wir aus diesen nach Multiplikation mit 100 den Wert 282,95. Wir knnen damit sagen, dass im gesamten Zeitraum 2003
bis 2006 die Preise der drei GOter durchschnittlich um (282,95 - 100) % = 182,95 % gestiegen sind. Interessieren wir uns fOr die durchschnittliche Preisnderung zwischen 2005
und 2006, so knnen wir diese nach Berechnung des Index Pioo,.2006 = 1,4091 bzw. des
Wertes 140,91 wie folgt angeben:

2 Schira, J. (2009) gibt einen detaillierten berblick ber diese und andere Preisindizes.

I Deskriptive Statistik

120
282,95-140,91. 100 % = 100 80 %
140,91
'
4.2.1.5

Preisindexreihen und Inflationsmessung

In der Praxis ermitteln wir Preisindizes in der Regel nicht nur fr eine, sondern fr
mehrere aufeinanderfolgende Berichtsperioden t = I, 2, 3, ... Die Folge von dabei
entstehenden Indexwerten bezeichnen wir als Indexreihe. Sie hat die Gestalt
(Po,o =

0, PO,l' PO,2' ,PO,I, .. ,PO,T .

04: 17)

Aus derartigen Indexreihen lassen sich, wie wir bereits in Beispiel I 4-4 gesehen
haben, durchschnittliche Preissteigerungsraten berechnen. Wir bezeichnen diese in
der Praxis auch als Inflationsraten. Unter Inflation verstehen wir allgemein einen
kontinuierlichen Anstieg des Preisniveaus bzw. einen anhaltenden Rckgang der
Kaufkraft. Die Inflationsrate lt, bzw. die prozentuale Preisnderung fr den gesamten Zeitraum von der Basispertode 0 bis zur Berlchtspertode t kann allgemein als
7l,

= (Po" -1). 100 %

(14: 18)

bestimmt werden. Wurden die Indexformeln um ein "mal 100" ergnzt, so ergibt
sich die Inflationsrate als 7l. = (Po. - 100) %.
Die Inflationsrate zwischen zwei unterschiedlichen Perioden t und t' mit t' < t bestimmt sich als
1t,

= Po., - Po.... 100% = (po" - 1) . 100% .


PO,t'

(14: 19)

PO,t'

Von Deflation sprechen wir bei einem kontinuierlichen Rckgang des Preisniveaus bzw. einer anhaltenden Steigerung der Kaufkraft. Die Inflationsrate wre in
einem solchen Fall also negativ. Des Weiteren wird hufig der Begriff der Disinflation gebraucht. Dabei handelt es sich um eine Phase noch positiver, jedoch rcklufiger Inflationsraten.
Gemessen wird die Inflation in Deutschland anhand des VerbraucherpreIsindex
(YPI, vgl. Abschnitt I 4.2.5.1), der vom Statistischen Bundesamt berechnet wird. Mit
diesem Index lsst sich zwar nur ein Teil der gesamtwirtschaftlichen Preisentwicklung abbilden, doch da die private Bedrfnisbeftiedigung als finaler Zweck des
Wirtschaftens gilt, ist eine Verwendung dieses Index dennoch zweckmig. Im Eurosystem bezieht sich das Interesse vornehmlich auf den sog. Harmonisierten
Verbraucherpretsindex (HVPI, vgl. Abschnitt I 4.2.5.2), welcher vom Statistischen
Amt der EU berechnet wird. Beide Indizes sind vom Laspeyres-Typ. Wie wir bereits
wissen, wird bei einer derartigen Indexberechnung unterstellt, dass sich die
Verbrauchsgewohnheiten der Konsumenten ber einen mehr oder weniger langen
Zeitraum nicht verndern. Ein Warenkorb ist bei seiner Einfhrung normalerweise
bereits vier Jahre, bei seiner Ablsung neun Jahre alt. Dieses lange Festhalten an
einem Warenkorb impliziert eine Reihe von Fehlerquellen bei der Inflations-

messung: 3

3 Vgl. Grgens et al. (2008).

4. Messzahlen und Indizes

121

product Substitution Bias


Die Tatsache, dass relativ teurer gewordene Gter von den Haushalten weniger
nacbgefragt werden, kann mit einem fixen Warenkorb nicbt erfasst werden.
Quality Change Bias
Qualittsverbesserungen werden nur unzureicbend aus den Preiserhhungen
herausgerechnet. Dies liegt vor allem daran, dass Qualittsvernderungen bei
gewissen Gtern und Dienstleistungen nur uerst scbwer auszumachen sind.
New Product Bias

Neue Produkte, deren Preise in der Regel nacb Markteinfhrung fallen, werden
oft erst mit einer Verzgerung von mehreren Jahren in die Preisbeobachtung
einbezogen. Ein Warenkorb, der die neuen Produkte nicht einbezieht, ber-

zeichnet also die Teuerung.


Outlet Substitution Bias
Basiert der Preisindex auf einer festen Auswahl von Berichtsstellen, die die
Preise der im Warenkorb enthaltenen Gter an das statistiscbe Bundesamt melden, knnen Strukturnderungen im Handel, die zu gnstigeren Einkaufsmg-

licbkeiten fr die Haushalte fhren, nur unzureicbend bercksichtigt werden.


Insgesamt kommt es durch diese Probleme Ld.R. zu einer systematischen bertreibung der tatschlichen Inflationsrate. Dies hat zur Konsequenz, dass das reale
Wachstum der Volkswirtschaft insgesamt, aber aucb etwa die reale Zunahme der
verfgbaren Haushaltseinkommen unterschtzt wird (vgl. Abschnitt I 4.2.1.6). Auch
Leistungen, die an den Verbraucherpreisindex gekoppelt sind, fallen zu hoch aus.
4.2.1.6

Preisbereinigung und reale Gren

Grundstzlicb wird in der Wirtschaftstheorie zwischen nominalen und realen Gren unterschieden. Die Ermittlung eines nominalen Wertaggregates zur Bericbtszeit
t stellt in der Regel kein Problem dar. Ein solches ist definiert als
nominales Wertaggregat =

L p~1) . q~l) =
n

Wt,t .

(14: 20)

1_1

Da reale Gren streng genommen in physischen Mengeneinheiten gemessen werden sollten, dies aber in der Praxis oftmals nicht mglich oder sinnvoll ist, behelfen
wir uns in der Statistik durch die Approximation
n

reales Wertaggregat s=I LP~i) q~i) = Wo,t'


i_ I

(14: 21)

Der Quotient aus nominaler und approximativ ermittelter realer Gre ergibt, wie
unschwer zu erkennen ist, einen Preisindex nach Paasche:
nominales Wertaggregat

Wt,t _

reales Wertaggregat

0,1

W.

P
-PO,t

(14: 22)

Durch Umformung und Verallgemeinerung dieses Zusammenhangs (14: 22) lsst


sich zeigen, dass eine preisbereinigte oder deflationierte Gre durch Division ei-

122

I Deskriptive Statistik

ner nominalen Gre durch einen entsprechenden Preisindex ennittelt werden


kann. Diese bereinigte Gre ist dann eine gute Approximation fr die reale Gre.

w.=~
0,'

(14: 23)

PO,t

Der dabei verwendete Preisindex sollte genau auf das Aggregat zugeschnitten sein,
Finden wir keinen Index, der diese Bedingung erfllt, so kann hilfsweise ein anderer Index verwendet werden, der diesem am nchsten kommt.

Beispiel I 4-5

BIP-Deflator

Angenommen eine Volkswirtschaft produziert nur die 2 Gter Computer und Autos, Unter
Verwendung der Daten nachfolgender Tabelle sollen fOr das Jahr 2005 zunchst das
nominale und das reale BIP (Bruttoinlandsprodukt) ermittelt werden,
Jahr

Computerpreis
(in Euro)

2000
2005

10.000
2,000

Verkaufte Computer
(in Stck)

Autopreis
(in Euro)

Verkaufte Autos
(in StOck)

15.000
25,000

1.000.000
1,500,000

200.000
1.500,000

Damit ergeben sich folgende nominale und reale Gren:


BIP;:; = 2,0001,500,000 + 25,0001,500,000 = 40,500,000,000
BIP,':', = 10.000 1.500.000+15.0001.500.000 = 37.500.000.000
Aus diesen kann Ober (14: 22) ein Inflationsrna abgeleitet werden, das in der Praxis auch
als BIP-Deflator bezeichnet wird. Dieser ergibt sich als
BIP-Deflator = BIP~~ = 40.500.000.000
BIP2006 37,500,000,000

1,08

und gibt in diesem Beispiel Auskunft darber, dass die Inflationsrate fr den gesamten Betrachtungszeitraum bei 8 % lag.

Beispiel I 4-6

Preisbereinigung

Der Zusammenhang (14: 23) wird in der Praxis hufig dazu genutzt aus einem nominalen
Index durch Preisbereinigung einen realen Index zu gewinnen, Typisches Beispiel hierffir
ist der reale Lohn- und Gehaltsindex, der sich als
Realer Lohn- und Gehaltsindex = Nominaler Lohn- und Gehaltsindex ,100
Verbraucherpreisindex (VPI)
ergibt. Wichtig ist dabei, dass sich die eingesetzten Werte auf dieselbe Basis beziehen.
Welchen Sinn nun eine solche Preisbereinigung macht, wollen wir durch ein einfaches
Zahlenbeispiel verdeutlichen:
Jahr

2004 (Basis)
2005

Lohn- und Gehaltsindex


nominal

VPI

Lohn- und Gehaltsindex


real

100,0
101,5

100,0
102,0

100,0
99,5

4. Messzahlen und Indizes

123

Wird nur die nominale Lohn- und Gehaltsentwicklung betrachtet, knnte die Aussage gemacht werden, dass es von 2004 bis 2005 zu einer Lohn- und Gehaltserhhung von 1,5 %
gekommen ist. Wird aber die gleichzeitige Preiserhhung von 2,0 % in die Betrachtung
einbezogen, so stellen wir real eine Lohn- und Gehaltsabnahme von 0,5 % fest. Wir sagen
auch, dass die Kaufkraft der Einkommen gesunken ist.

4.2.1.7

Interregionale Kaufkraftvergleiche

Die bisher behandelten Preisindizes dienten dem intertemporalen Kaufkraftvergleich. Ein Anstieg des Preisindex bedeutete hier bei gleichzeitiger Konstanz oder
Abnahme des nominalen Einkommens einen Verlust an Kaufkraft. Neben diesem
zeitlichen Vergleich kann nun aber auch ein Vergleich zwischen Lndern mit verschiedenen Whrungen von Interesse sein. Im Folgenden widmen wir uns dazu
einem stark vereinfachten Modell des bilateralen Kaufkraftvergleichs Cd.h. zwischen
nur zwei Lndern), um die Grundidee dieses Konzepts zu verdeutlichen. Wie bei
allen Kaufkraftvergleichen sollen auch in diesem vereinfachten Modell nur die Preise der fr die Lebenshaltung relevanten Gter betrachtet werden.
Bevor auf ein konkretes Beispiel eingegangen wird, mssen wir zunchst einige
grundlegende Begriffe aus dem Bereich Auenhandel klren: Bei nominalen
Wechselkursen, welche den relativen Preis zweier Whrungen beschreiben, ist
zwischen sog. Preis- und Mengennotierung zu unterscheiden. Von Preisnotiernng
sprechen wir, wenn wir zum Ausdruck bringen, wie viele Euro wir z.B. fr einen
US-Dollar aufwenden mssen (1 $ - e ). Im Falle der Mengennotierung interessieren wir uns hingegen dafr, wie viele US-Dollar wir fr einen Euro erhalten (1 e' $). Je nachdem welche Notierung betrachtet wird, kommt es bei nderungen
von e bzw. e' zu Auf- oder Abwertung der betrachteten Whrungen.
Notierung
Preis

Beispiel
l$-e

Menge

1 - e' $

Vernderung

Wert des

Wert des $

e t
e ~
e' t
e' ~

t
t

~
~

Beide Notierungen stehen in der Beziehung


1
e=e'

bzw.

ee'=1.

Wichtig wird im folgenden Beispiel vor allem die Mengennotierung sein.

Beispiel 14-7

Kaufkraftindizes

Es soll ein Kaufkraftvergleich zwischen Deutschland (D) und den Vereinigten Staaten
(USA) durchgefhrt werden. Dies erfolgt in zwei Schritten. Zunchst wird die sog. KaufkraftparitAI ("Purchasing Power Parity", PPP, vom Statistischen Bundesamt auch als

124

I Deskriptive Statistik
Verbrauchergeldparitt bezeichnet) ermittelt. Es handelt sich dabei u.a. um einen Korrekturfaktor, der volkswirtschaftliche Gren (z.B. das Bruttoinlandsprodukt) international vergleichbar machen soll. Eine bloe Umrechnung mit aktuellen Wechselkursen wre nicht
genau, da die Kaufkraft in unterschiedlichen Whrungsrumen oft unterschiedlich stark ist
und dieser Sachverhalt (Ober die PPP) bei der Umrechnung bercksichtigt werden muss.
Ist die PPP ermittelt, wird sie zusammen mit dem Devisenkurs benutzt um einen Index fr
die Kaufkraft aufzustellen.
1. Schritt: Ermittlung der Kaufkraftparitt
Im Folgenden wollen wir drei Mglichkeiten der Bestimmung der PPP betrachten.
a) Deutsche Sicht:
Wert des deutschen Standardwarenkorbes in USA
Wert des deutschen Standardwarenkorbes in D

PPPDUSA

Der deutsche Standardwarenkorb ist dabei eine reprsentative GOterauswahl und Verbrauchsstruktur fOr die privaten Haushalte in Deutschland. Angenommen der deutsche
Standardwarenkorb koste in Deutschland 1.500 und in den Vereinigten Staaten
1.700 $, so ergibt sich
PPPDUSA

1.700$
1.500

1,1333 $I ,

was eine Kaufkraftparitt von 1 = 1,1333 $ bzw. 1 $ = 0,8824 (Kehrwert) liefert.


b) Amerikanische Sicht:
PPP
USA.D

Wert des amerik. Standardwarenkorbes in D


Wert des amerik. Standardwarenkorbes in USA

"
Lpgl.q3k
1_1

"
~p(l)
'q(l)
L.J USA USA
1_1

Der amerikanische Standardwarenkorb ist dabei eine reprsentative GOterauswahl und


Verbrauchsstruktur fr die privaten Haushalte in den Vereinigten Staaten. Angenommen der amerikanische Standardwarenkorb koste in den Vereinigten Staaten 1.300 $
und in Deutschland 1.400 , so ergibt sich
PPP

USA.D

= 1.400 1 0769 /$
1.300 $ '
,

was zu einer Kaufkraftparitt von 1 $ = 1,0769 bzw. 1 = 0,9286 $ (Kehrwert) fOhrt.


c) Durchschnittliche PPP:
Zur Ermittlung einer durchschnittlichen PPP empfiehlt sich die Berechnung des geometrischen Mittels (Fisherscher Idealindex) der unter a) und b) ermittelten Werte, d.h.
1 $=,,10,8824.1,0769 =O,9748
oder gleichbedeutend
1 =,jl,13330,9286 $=1,0259 $.
Es ist wichtig, dass diese ermittelten Kaufkraftparitten in der Regel nicht mit dem Wechselkurs bereinstimmen, da fOr diesen nicht nur die Verbraucherpreise sondern auch andere Faktoren wie z.B. Import- und ExportgOterpreise oder Zinsstze mageblich sind.
2. Schritt: Ermittlung des Index fr die Kaufkraft

4. Messzahlen und Indizes

125

Kaufkraftparitten sind grundstzlich nur dann aussagekrftig, wenn der (aktuelle) Wechselkurs bekannt ist. Im Folgenden soll die Kaufkraft des Euro in den USA an hand eines
geeigneten Index untersucht werden. Wir wollen dafr den folgenden Index verwenden,
der sich der Mengennotierung bedient:
Devisenkurs

Index fOr die Kaufkraft des Euro in den USA

Kaufkraftparitt

Hier stellt sich nun die Frage, welche Kaufkraftparitt (a oder b) in diese Formel eingesetzt
werden soll. Betrachten wir als Zielgruppe Deutsche, die in die USA gezogen sind und ihre
deutschen Verbrauchsgewohnheiten beibehalten, so gelten fOr diese die unter a) ermittelten Werte. Unter der Annahme, der koste 1,1629 $ (Devisenkurs in Mengennotierung),
so ergibt sich der Indexwert
Index fr die Kaufkraft des Euro in den USA =

:::~~~ :~:

1,0261.

Da die Kaufkraft des Euro in Deutschland gleich 1 ist (Basiswert des Index), bedeutet dieses Ergebnis, dass der "Kaufkraftvorteil" des Euro in den USA 2,61 % betrgt. Ein steigender Wechselkurs (Mengennotierung) bedeutet also in einer solchen Kaufkraftparittensituation einen Kaufkraftgewinn (mehr $ fOr einen ), ein sinkender Wechselkurs einen Kaufkraftverlust (weniger $ fur einen ) des Euro in den Vereinigten Staaten.

4-2_1.8

Umbasierung und Verknpfung

Stehen wir vor der Aufgabe einen bestimmten Index von der alten Indexbasis auf
eine neue Indexbasis umzustellen, sprechen wir von Umbasierung. Dieses verfahren wollen wir direkt anhand eines einfachen Beispiels erlutern:
Beispiel I 4-8

Umbasierung von Preisindizes

Fr die Jahre 2003 bis 2006 seien fur einen Konsumentenpreisindex folgende (bereits mit
100 multiplizierte) Indexwerte zur Basis 2003 bekannt:
Jahrt
Index P2003,t

2003
100

2004
103

2005
102

2006
105

Als neue Basis soll nun das Jahr 2005 dienen und eine entsprechende Umbasierung vorgenommen werden. Die Ermittlung der neuen Indexwerte P2005,t erfolgt dabei ber
P2005,t

P2003"

.100,

P2003,2005

d.h. durch Division aller Indexwerte zur alten Basis durch den Indexwert des neuen Basisjahres zur alten Basis. Wir knnen so fr t = 2004 beispielsweise
P20D5,2004

= P2003,2004 .100 = 103,00. 100 = 10098


P

2003,2005

102, 00

'

bestimmen. Die gesamte neue Indexreihe hat damit folgendes Aussehen:


Jahr!
Index

P2005,t

2003
98,04

2004
100,98

2005
100,00

2006
102,94

126

I Deskriptive Statistik
Wir erkennen deutlich, dass die Vorgehensweise bei der Umbasierung dieser Indexwerte
identisch ist mit der bei der Umbasierung von Messzahlen (vgl. Abschnitt I 4,1),

Bei Indexreihen, denen ein konstantes Gewichtungsschema zugrunde liegt, wird


dieses im Allgemeinen im Laufe der Zeit an Aktualitt einben (Vernderung der
Verbrauchsgewohnheiten, Qualittsverbesserungen, neue Gter, usw.) und muss
durch ein neues ersetzt werden. Beim Preisindex nach Laspeyres wird dazu einfach

der Warenkorb der Basisperiode durch einen aktuelleren Warenkorb ersetzt. Wir
sprechen dabei auch von einer Neubaslernng des Index. Sind wir allerdings an der
Preisentwicklung ber einen lngeren Zeitraum interessiert, mssen wir den neuen

Index (aktuellerer Warenkorb) mit dem alten Index (veralteter warenkorb) verknpfen. Wir werden sehen, dass dazu lediglich Umbasierungen notwendig sind.
Betrachten wir folgende Situation:
Es sind zwei Preisindexreihen

PO,O' PO,I' ... , Po,.

mit

PO,O = 1

P.,,,P.,HI, ... ,P.,T

mit

Ps,s ; ; ; 1

mit den Basen t = 0 und t = s gegeben. Der Preisindex wurde also zunchst zur
Basiszeit t = 0 berechnet, im Zeitpunkt t = s erfolgte dann eine Neubasierung.
Wir erhalten eine verknpfte Indexreihe zur Basiszeit t
p' _ {Po"
O,t -

wobei die Werte fr

t =

= 0

ber

fr t = O,l, ... ,s -1
fr t=s,S+l, ...

04: 24)

,:J'

PO,s 'Ps,t

s, s + 1, ... ,T umbasierte Indexzahlen sind. Alternativerhal-

ten wir gem


-Po"

..

Pat

f' r t = 01
, , ... ,8- 1

04: 25)

PO,s

Pa,t

fr t=s,s+l, ... ,T

die verknpfte Indexreihe zur Basis t


umbasierte Indexzablen sind.

s, wobei nun die Werte fr t

0, 1, ... ,s-l

Wichtig ist in diesem Zusammenhang, dass umbasierte Indexzahlen nicht vom


selben Indextyp wie der Ausgangsindex sein mssen. Dies gUt insbesondere fr
Indizes vom Laspeyres-, Paasche- und Fisher-Typ. Beim Preisindex nach Laspeyres
erkennt man das leicht daran, dass der Warenkorb nicht ber dem gesamten Be-

trachtungszeitraum konstant bleibt. Die Umbasierung liefert nur einen Nherungswert fr den Ausgangsindex.

Beispiel I 4-9

VerknOpfung von Preisindizes

Ein Index (vgl, folgende Tabelle), der bisher zur Basis 1999 gefhrt wurde (Spalte 2), wird
im Jahr 2003 mit der neuen Basis 2003 fortgefhrt (Spalte 3). Wollen wir nun die Preisent-

127

4. Messzahlen und Indizes

wicklung von 1999 bis 2006 in einer einzigen Indexreihe zusammenfassen, so bieten sich
zur VerknOpiung des alten mit dem neuen Index zwei MOglichkeiten: a) FortfOhrung des
alten Index und b) ROckrechnung des neuen Index. Hierbei wird unterstellt, dass sich der
neue Index in der Vergangenheit proportional zum alten Index entwickelt hat bzw. dass
sich der alte Index in der Zukunft proportional zum neuen Index entwickelt.
Jahr
1

1999

2000
2001

2002
2003

originale Indexreihen
P11111111

100,00

verknOpfie Indexreihen

0Zm1

P11111111

101,00
102,00

104,00

108,00

2004
2005

100,00
102,00
103,00

107,00

2006

E?2oo31

100,00

94,43

101,00
102,00
104,00
106,00

96,23
98,11

95,28

100,00

108,12
109,18
113,42

102,00
103,00

107,00

.)

b)

Zur FortfOhrung und ROc:krechnung knnen wir nun auf die Erkennb1isse aus (14: 24) und
(14: 25) zurOckgreifen. Wir knnen daraus nmlich zwei Faktoren ableiten, die sich aus den
Indexwerten der Oberlappenden Periode (2003) ergeben. Diese berechnen wir, wie folgt:
Fortfhrungsfaktor F

Pll..,acm

Paoa.zooa

ROckrechnungsfakior R

106,00
100,00

1,06

100, 00
106,00

0,9434

Die Ennittlung der fortgefOhrten Werte erfolgt nun durch Multiplikation der Werte des neuen Index mit dem Faktor F. Die zurOckgerechneten Werte ergeben sich durch Multiplikation
der Werte des alten Index mit dem Faktor R. FOr das Jahr 2002 ergibt sich so z.B. der
rOckgerechnete Wert 104,00 . 0,9343 '" 98,11 und ffir das Jahr 2006 der fortgefOhrte Wert
107,00 . 1,06 '" 113,42. Alle anderen Werte lassen sich analog ermitteln und sind in obiger
Tabelle kursiv dargestellt

4,2,2

Mengenindizes

Die Bausteine von Mengenindizes (auch als Volwnenindizes bezeichnet) sind die
Mengenmesszahlen
~
q~1)

q~1)

der n im Index enthaltenen Gter. Gewichten wir diese mit den von Laspeyres und
Paasche vorgeschlagenen Wgungsschemata, dann erhalten wir durch Aggregation
der gewichteten Messzahlen die Mengenindizes nach Laspeyres und Paasche. Sie
erlauben uns Aussagen ber dun:bscbnittlicbe Mengenentwicklung zwischen Basisund Berichtsperiode .
Den Meogenind.o:: nach Laspeyrcs erhalten wir in seiner Aggregatfonn zu

128

I Deskriptive Statistik

(14: 26)

Im liegt die Fiktion zugrunde, dass die in der Basisperiode vorherrschenden Preise

unverndert auch in der Berichtsperiode gelten. Der Index spiegelt somit eine reine
Mengenentwicklung wider.

Die Aggregatform des Mengenindex nach Paasche ergibt sich zu

:tp~1) . q~O
P

qO,t ;;;;;;

1=1

":n:'---LP~o. q~O

(14: 27)

1_'

Er unterstellt, dass die in der Berichtsperiode vorherrschenden Preise auch bereits

in der Basisperiode Gltigkeit hatten. Von Periode zu Periode der Indexberechnung werden neue Preise verwendet, was im Vergleich zum Index nach Laspeyres
eine grere Aktualitt gewhrleistet.
Die im Abschnitt I 4.2.1.4 behandelten weiteren Formen von Preisindizes knnen
wir analog auch auf Mengenindizes bertragen. So ergibt sich etwa der Mengenindex nach Fisher als geometrisches Mittel der Mengenindizes nach Laspeyres und
Paasche. Unsere Ausfhrungen zur Umbasierung und Verknpfung unter I 4.2.1.8
knnen wir auerdem bertragen.
Wichtige von der amtlichen Statistik verffentlichte Mengenindizes sind etwa der
Index der industriellen Nettoproduktion und der Index des Aujtragseingangs im
Baubauptgewerbe. Ersterer liefert Informationen ber die Entwicklung und die
Situation im produzierenden Gewerbe. Zweiterer gibt Auskunft ber das Volumen
der zu errichteten Bauwerke bzw. die Vernderung dieses Volumens im Zeitablauf.
Beispiel I 4-10

Mengenindizes

Gegeben sei folgende Arbeitstabelle, die sich auch bei der Berechnung von Preis- und
Wertindizes als uerst hilfreich erweisen kann. Aus dieser sollen die Mengenindizes nach
Laspeyres und Paasche berechnet werden.
Gut
i

1
2
3
~

Basiszeit
qo
Po

4
5
6

10
12
14

Berichtszeit
p,
q,

7
9
9

4
7
3

Wo.o
Po qo

W1,1

W1,O

WO,1

p,.q,

p,qo

Po .q,

40
60
84
184

28
63
27
118

70
108
126
304

16
35
18
69

Die Mengenindizes belaufen sich damit auf


L
69
q01 =-100=37,50
, 184

und

4. Messzahlen und Indizes

129

q~, = ~: 100=38,82.
Da die Basis beider Mengenindizes bei 100 liegt, kam es zwischen Basis- und Berichtsperiode zu durchschnittlichen MengenAnderungen von (37,50 - 100) % '" --62,50 % bzw.
(38,82 - 100) % '" --61,18 %, d.h. zu einem starken Mengenrllckgang.

4.2.3

Wertindex

Soll die Vernderung des warenkorbwerts zwischen Basis- und Berichtszeit erfasst n
werden, wird der sog. wertIndcI. (auch Umsatzindex genannt) herangezogen. ~
Dieser ist in 04: 28) als Verhltnis aus Warenkorbwert der Berichtszeit und Warenkorbwert der Basiszeit definiert. Er stellt jedoch genau genommen keinen echten
Index dar, da er nur die Entwicklung des Wertaggregates W widerspiegelt. Er ist
daher eine reine Messzahl.

Wir knnen leicht zeigen, dass sich der Umsatzindex auch wie folgt aus Indizes
vom Laspeyres-, Paasche- und Fisher-Typ bestimmen lsst:
u-~I'_P~

0,1 - PO,I qo,l - PO,I qO,1

_pli

0,1 -

0,1'

qll

0,1

Es gilt aber
c

und

uo" '# Po" 'qo"

Whrend also die Fisher-Indizes die sog. Faktorumkebrprobe (Wert - Menge Preis)
bestehen, scheitern die Indizes vom Laspeyres- und Paasche-Typ.
Beispiel I 411

Umsatzindex

Folgende Tabelle spiegelt die Umsatzentwicklung eines Unternehmens von 2003 bis 2006
wider und zeigt den dazugehrigen Urnsalzindex zur Basis 2004.
Jahr
Umsatz (p . q) in Mio. Euro
Umsatzindex

2002
55.000
110.00

2003
40.000
80.00

2004
50.000
100.00

2005
80.000
120.00

2006
65.000
130.00

Der Wertindex des Jahres 2006 zur Basis 2004 ergab sich darin z.B. als
UIOD4,1OOI

65.000
50.000 100 - 130,00,

was eine Umsalzsteigerung von (130 -100)% '" 30% irn Zeitraum 2004 bis 2006 aufzeigt.

130

I Deskriptive Statistik

4.2.4

Wichtige Indizes aus der Wirtschaftspraxis

4.2.4.1

Verbraucherpreisindel (VPI)

Vom Statistischen Bundesamt wird regelmig und aktuell eine Vielzahl verschiedener Preisindizes berechnet, die detailliert Preisentwicklungen auf branchen- oder
gesamtwirtschaftlicher Ebene messen. Der vor dem Jahr 2000 als "Preisindex fr die
Lebenshaltung aller privaten Haushalten bezeichnete Verbraucherprei.sindex (VPI)
ist ein wesentlicher Bestandteil des preisstatistischen Berichtssystems in Deutschland, zu dem u.a. auch der Index der EinzelhandeIspreise, Indizes der Ein- und
Ausfuhrpreise, der Index fr Erzeugerpreise gewerblicher Produkte, der Preisindex
fr Bauwerke, der Erzeugerpreisindex fr land- und forstwirtschaftllche Produkte
und der Index fr Grohandelsverkaufspreise gehren. Da der private Konsum der
dominante Zweck des Wtrtschaftens ist, ist der VPI in Deutschland
ein Indikator fr die Beurteilung der Geldwertstabilitt und wird als InjIatIonsmastab verwendet. Aus diesem Grund wird seine Vernderungsrate oft
als Inflationsrate bezeichnet (vgl. Abschnitt I 4.2.1.5).
Grundlage fr die Deflationierung von Wertgten der volkswirlschaftlichen
Gesamtrechnung, z.B. zur Berechnung der realen Lohn- und Gehaltssummen
(vgl. Abschnitt I 4.2.1.6).
Anker zur Wertsicherung wiederkehrender Zahlungen in Werlstcherungsklausein (z.B. Realzinsgarantie bei Zertifikaten) in lngerfristigen Vertrgen.
Der VPI misst die durchschnittliche Pretsvernderung aUer Waren und Dienstleistungen, die von Privaten Haushalten zu Konsumzwecken gekauft werden. Bercksichtigt werden dabei Gter des tglichen Bedarfs (z.B. Lebensmittel, Bekleidung),
Mieten und langlebige Gebrauchsgter (z.B. Kraftfahrzeuge, Khlschrnke) und
Dienstleistungen (z.B. Friseur, Reinigung, Versicherungen). Damit ist sichergestellt,
dass der Index: Preisvernderungen umfassend abbildet. Die Indexwerte werden
monatlich ermittelt und verffentlicht. Das aktuelle Basisjahr ist 2005.
Wie fast alle bedeutsamen Indizes des preisstatistischen Berichtssystem.s ist der VPI
ein Pretstndex nach Laspeyres. Er beschreibt die reinen Preisnderungen eines hinsichtlich Gterauswahl und zugehriger Verbrauchsmengen konstanten Warenkaros im Zeitverlauf, der rund 700 Waren und Dienstleistungen als sog. Preisreprlisentanten enthlt. Diese werden funktional in 12 Ableilungen gegliedert, fr die
jeweils Teilindizes ermittelt werden. Diese Abteilungsindizes gehen aktuell, d.h. mit
Basisjahr 2005, mit den folgenden Gewichten (in Promille) in den VPI ein:
2

3
4

6
7
8
9
10

11
12

Nahrungsmittel und alkoholfreie Getrnke


Alkoholische Getrnke und Tabakwaren
Bekleidung und Schuhe
Wohnung, Wasser, Strom, Gas und andere Brennstoffe
Einrichtungsgegenstnde u.. fr den Haushalt und deren Instandhahung
Gesundheitspflege
Verkehr
NachrichtenObenruttlung
Freizeit, Unterhaltung und Kultur
Blldungswesen
BeheIDergungs und Gaststlittendienstleistungen
Andere Waren und Dienstleistungen

103,55

38,99

48,88
308,00
55,87
40,27

131,90
31,00

115,68
7,40
43,99
74,47

4. Messzahlen und Indizes

131

Bezeichnen wir die einzelnen Abteilungsindizes mit P~t(j) und ihre Gewichte mit

gCfl mit j = 1,2, ... ,12, ennittelt sich also der Gesamtindex formal nach
12

VPILO,t = ""
pL Cil . gCil
~ O,t

12

mit

j- l

Lg Cil = 1.
j-l

Die Gewichte gCil geben fr die einzelnen Abteilungen die Ausgabenanteile an den
Gesamtausgaben der Basisperiode an. Sind im Gesamtindex also insgesamt n Gter
und in den Abteilungen n, Gter bercksichtigt, so ergeben sich die Gewichte zu

tp~k) . q~k)
g(j) ;;;;;;

k:l

mit

Lp~1) . q~l)
1.1

Beispiel I 4-12

Unbekannte Abteilungsgewichtung

Sind in einer Verffentlichung Indexwerte /Ur das Gesamtaggregat sowie fur Abteilungen
gegeben, nicht aber die Gewichte, so lassen sich die Gewichte dennoch eindeutig bestimmen. Zur Veranschaulichung der Vorgehensweise betrachten wir einen LaspeyresPreisindex, der aus nur drei Abteilungen bestehe und /Ur den zu den Berichtszeiten t = 1, 2
bei einer Basiszeit t = 0 folgende Indexwerte vorliegen:
L (1)

L {3l

L (2)

P0,1

P0,1

P0,1

PO,I

110
120

120
130

140
150

126
136

Die (zunchst unbekannten) Gewichte g(1) = 0,2, g(2) = 0,4 und g(3) = 0,4 erhalten wir aus
dem gegebenen Datenmaterial durch Lsung des Gleichungssystems
110 g(1) +1201f2) +140g(3) = 126
120, g(1) + 130, If') + 150g(3) = 136
g(l)

g(S'

= 1 .

Zur Berechnung des VPI werden fr die reprsentativen Gter reprsentative Preise
bentigt. Preise variieren nun jedoch von Ort zu Ort und von Anbieter zu Anbieter,
nicht zuletzt aufgrund unterschiedlicher Qualitt. Um einen reprsentativen Preis zu
erhalten mssen daher viele Preise je Preisreprsentant erhoben werden, um daraus einen "typischen" Preis fr ein Gut "mittlerer" Qualitt bei einem "typischen"
Anbieter bestimmen zu knnen. Rund 600 PreisennittIer erfassen dazu in 188 Stdten und Gemeinden Monat fr Monat Preise der gleichen Produkte in den gleichen
Geschften. Zustzlich werden fr viele Gterarten Preise zentral erhoben (z.B.
ber das Internet). Insgesamt werden so ber 300.000 Einzelpreise erfasst. Die Einzeldaten werden dann zu gewogenen Durchschnittspreisen fr die Preisreprsentanten verdichtet, die schlielich in die Indexberechnung eingehen.
Die Bestimmung des reprsentativen Warenkorbs (Gter und deren Gewicht) erfolgt auf Basis der Ausgaben der privaten Haushalte fr Waren und Dienstleistungen. Diese Ausgaben werden in Haushaltsbefragungen auf Stichprobenbasis erhoben. In Deutschland zeichnen rund 60.000 Teilnehmer freiwillig einige Monate lang

I Deskriptive Statistik

132

ihre Einnahmen und Ausgaben im Rahmen der sog. Einkommens- und Verbrauchsstichprobe (EVS) auf. Zusammen mit Ergebnissen der volkswirtschaftlichen Gesamtrechnung (VGR), der Steuerstatistik., anderer amtlicher Statistiken, der Zahlungsbilanzstatistik. der Deutschen Bundesbank. und anderer Quellen, knnen damit
wesentliche Gterarten identifiziert und anband ihrer Ausgabenanteile auch deren
Gewichte cPromilleangaben in obiger Auflistung) bestinunt werden.

Die Verbrauchsgewohnheiten der privaten Haushalte ndern sich aber im Zeitablauf. Neue Gter erweitern die Konsummglichkeiten, alte Gter scheiden aus dem
Marktgeschehen aus. Folge hiervon ist, dass ein bestlnunter warenkorb Dur fr begrenzte Zeit den Verbrauch der Haushalte reprsentieren kann. Diesem Wandel
versucht das Statistische Bundesamt durch Neubasterung des VPI Rechnung zu tragen, welche neben der Festlegung eines neuen Basisjahres, der Erhebung neuer
Preisreprsentanten und Bestimmung eines neuen Wgungsschemas auch die Umbasierung alter Indexwerte einschliet. In der Vergangenheit wurde der VPI ca. alle
5 jahre neubasiert. Die Basisjahre waren 1950, 1958, 1962, 1970, 1976, 1980, 1985,
1991, 1995 und 2000.

Von Anfang 1991 bis Mitte 2011 zeigte der VPI CBasisjahr 2005) den im Folgenden
abgebildeten Verlauf. Wir erkennen daran fr Deutschland einen deutlichen Preissteigerungstrend. Die nebenstehende Darstellung der monatlichen Wachstumsraten
des Index verdeutlicht ebenfalls das durchschnittlich positive Wachstum sowie die
beachtlichen Schwankungen der monatlichen Inflationsraten.

'''~----------~

,m

'~~-----------,
,.~

,~

,m

m
~

n~~~-:;;-;~~
~~ M

00 ~ ~ ~ ~ ro

4.2.4.2

IIarmonlsl.- Verbraacl1erprelsindeI (HVPI)

Primr fr europische Zwecke berechnet das Statistische Bundesamt den Hannonisierten Verbraucherpreisindex (HVPO. Wichtigste Zielsetzung des HVPI ist der
Vergleich der PreisvertJnderungen zwischen den Mt/gliedstaaten der EuropIJtschen
Union (EU). Da sich die nationalen Verbraucherpreisindizes der einzelnen EULnder in vielfltiger Weise unterscheiden, ist die Berechnung des HVPI unerlss-

lich. Diese Unterschiede sind zum Teil historisch bedingt, resultieren aber auch aus
unterschiedlichen gesellschaftlichen Rahmenbedingungen oder abweichenden
Strukturen des statistischen Systems. Auch sind die Ziele der VPI-Berechnung oft
weiter gefasst als die des HVPI. Whrend der HVPI primr das Ziel der Inflationsmessung verfolgt, dienen die nationalen Verbraucherpreisindizes zustzlich als Deflator (z.B. zur Berechnung des realen Wachstums) und als Kompensationsmastab

4. Messzahlen und Indizes

133

(Wertsicherungsklauseln). Da die nationalen Indizes darauf ausgelegt sind, ihr Umfeld mglichst gut zu beschreiben, fhrt die Verwendung unterschiedlicher Berechnungsformeln und Konzepte zu nicht vergleichbaren Ergebnissen. Daher wurden
gemeinsame Methoden, Konzepte und Verfahren fr den HVPI verbindlich festgelegt. Die Erfassungsbereiche (Auswahl der Waren und Dienstleistungen fr die Berechnung des HVPI) des deutschen VPI und des deutschen HVPI unterscheiden
sich im Wesentlichen durch die zustzliche Einbeziehung des vom Eigentmer
selbst genutzen Wohneigentums (durch Mietquivalente) im deutschen VPI.
Das Statistische Amt der Europischen Union (Eurostat) berwacht die Einhaltung
dieser Regeln und berechnet anhand der nationalen HVPIs Verbraucherpeisindizes
fr die Europische Union, fr die Europische Whrungsunion und fr den Europischen Wirtschaftsraum. Diese Verbraucherpreisindizes werden als gewogene
Durchschnitte der nationalen HVPI berechnet. Als Gewicht dient der private
Verbrauch aus den Volkswirtschaftlichen Gesamtrechnungen. Zur Umrechnung der
unterschiedlichen Whrungseinheiten innerhalb der Europischen Union und dem
Europischen Wirtschaftsraum werden Kaufkraftparitten herangezogen.
Der HVPI dient unter anderem zur Messung des Konvergenzkriteriums PreIsstabilitt (Referenzwert: ungewogenes arithmetisches Mittel der jhrlichen Inflationsraten der drei preisstabilsten EU-Lnder plus 1,5 Prozentpunkte). Somit war er
gemeinsam mit den anderen Konvergenzkriterien eine wichtige Entscheidungshilfe
fr die Zulassung der einzelnen Mitgliedstaaten der EU zur Whrungsunion und
wird dies bei der Aufnahme weiterer EU-Staaten in die Europische Whrungsunion wieder sein. Fr die Europische Zentralbank ist die Verwendung des
Verbraucherpreisindex fr die Europische Whrungsunion (VPI-EWU), der aus
den nationalen HVPI der Mitglieder der Euro-Zone aggregiert wird, der Mastab
fr die Geldwertstabilitt des Euro.
Fr den HVPI steht fr Deutschland bisher nur eine Zeitreihe ab Januar 1995 (zur
Basis 2005) zur Verfgung. Sie zeigt folgende Gestalt:

115~-----------,

1."'~-----------,

110

"16
"D

..
Wie bereits der deutsche VPI zeigt auch sein harmonisiertes Gegenstck einen
klaren Aufwrtstrend. Auch die monatlichen Inflationsraten nehmen vergleichbare
Hhen an.

I Deskriptive Statistik

134

4.2.4.3

Deu_r Ak1ieuiDdeJ< (DAX)

Als wichtige Informationsinstrumente auf dem Kapitalmarkt werden von Land zu

~ Land sog. Aktienindizes berechnet und der ffentlichkeit zur Verfgung gestellt.

Sie sollen kurzfristig, reprsentativ und im Zeitablauf vergleichbar ber Marktentwicklungen bei Aktlenwerten informieren. Allgemein zu unterscheiden sind dabei
Kurs- und Perfonnance-Indizes. Kursindizes messen die eigentliche Kursentwicklung und werden lediglich um Ertrge aus Bezugsrechten und Sonderzahlungen
bereinigt. Bei den Performance-Indizes werden darber hinaus smtliche Ertrge
aus Dividenden- und Bonuszahlungen in das Indexportfolio reinvestiert.
Zu den weltweit wichtigsten Aktienindizes zhlen folgende:

Deutschland: CDAX, DAX, MOAX, SOAX, TecDAX, VDAX, HDAX

Europa: Fr-SE 100 (London Stock Exchange), CAC 40 (Bourse de Paris),


AEX (Amsterdam), ATX (Wien), Dow]ones Euro Stoxx!Stox:x 50, Dow Jones
Stoxx!Stoxx 50, Mib 30 (Mailand), Ibex 35 (Spanien)

USA: Dow Jones 30 Industrial, Nasdaq, Nasdaq 100, S&P 500

Asien: Nikkei 225 (Tokio), Hang Seng (Hongkong), Singapore Times, Taiwan Weighted, Thai Stock Exchange

Lateinamerlka: MCSI Mexico, MCSI Brazil, Chilean Stock Market Select


Der meist beachtete Aktienindex fr Deutschland ist der Deutsche Aktienindex
(D.AX). Es handelt sich dabei um den Bluechip-Index, der die 30 grten und umsatzstrksten deutschen Aktienwerte enthlt, die im Prime Standard (spezielles
MarktsegmenO der Frankfurter Wertpapierbrse (FWB) gelistet sind und fortlaufend
im Xetra (Computersystem zum elektronischen Handel aller an der FWB notierten
Wertpapiere) gehandelt werden sowie einen Mindest-Freefloat (Aktien eines Unternelunens, die am Markt frei gehandelt werden und nicht im Besitz von Anlegern
sind, welche sich dauerhaft an der Unternehmung beteiligen wollen) von 5 % aufweisen. Er ist ein Performancelndex und wird neben einer Reihe anderer Indizes
von der Trgergesellschaft der FWB, der Deutschen Brse AG, unter der ISIN (engl.
international securities identification number) DEOOos469008 ennittelt. Der DAX beruht auf dem Konzept der Indexberechnung nach Laspeyres.4-S Die Indexwerte
werden mit 1.000 multipliziert und als Promillezahlen verffentlicht. Die Basiszeit
mit dem Basiswert 1.000 ist der 30.12.1987. Der DAX wird whrend der Handelszeit
der FWB sekndlich berechnet und misst die Kursentwicldung eines kapitaIgewichteten Portfollos aus den 30 enthaltenen Aktien.
Die Entwicklung des DAX seit seiner Einfhrung im Jahr 1988 (bzw. im Dezember
1987) ist in der folgenden Grafik, die aktuelle Zusammensetzung (Stand: 14. Juni
2011) in der anschlieenden Tabelle zu sehen. Der grafische Verlauf ist dabei deutlich vom Platzen der Dotcom-Blase im Jahr 2000 und der jngsten Finanzmarktkrise
ab 2008 gekennzeichnet. Diese Ereignisse machen sich auch in einer hheren
Steuung der Monatsrenditen des Index in den Krisenzeitrumen bemerkbar.

4 Genau genommen ist er ein sog. modifizierter Laspeyres-Kettenindex. Fr DetailB zur IndeD>erechnung vgl. man den "Leitfaden zu den Aktienindizes der Deutschen Brse"J der
unter www.deutsche-boerse.comzufmdenist.
S Der DAX exJstlert zusiitzlich auch a1s Kursinda. Typischer Referenzindex in Finanznachrichten und Zeitschriften ist jedoch der Perfonnancdndex.

4. Messzahlen und Indizes

135

,..,.,..

.............,.

DAX(Pa b I i a UiilIrdEIc)

DAX(Pa1u I i & UiilIrDIc)

'~,----------------------,

~,----------------------,

Indexuntemehmen

Gewicht

Aktienanzahl

Marktkapitalisierung.
(in Mio. )

Adidas

1,55 %
7,29 %
8,87 %
3,05 %
7,38 %
0,71 %
0,72 %
7,05 %
6,42 %
1,69 %
1,76%
4,84 %
6,85 %
0,88 %
1,50 %
1,15 %
1,25 %
1,29 %
1,25 %
3,12 %
1,10 %
1,38 %
0,69 %
1,11 %
3,02 %
3,07 %
6,20 %
10,56 %
1,57 %
2,68 %
100,00 %

209.216.186
454.500.000
918.478.694
601.995.196
826.947.808
252.000.000
1.181.352.926
1.063.816.507
929.499.640
195.000.000
1.209.015.874
4.361.319.993
2.001.000.000
81.027.408
298.162.265
187.500.000
178.162.875
1.086.742.085
191.400.000
169.669.691
457.937.572
140.974.350
64.621.126
324.109.563
188.468.471
523.405.000
1.226.696.632
737.724.868
514.489.044
170.142.778
20.745.376.552

9.041,28
42.426,00
51.664,43
17.777,04
42.993,02
4.112,22
4.217,85
41.036,04
37.399,57
9.814,55
10.265,55
28.181,72
39.898,08
5.146,86
8.748,01
6.679,72
7.259,77
7.512,68
7.251,00
18.180,11
6.379,07
8.010,59
4.000,69
6.450,41
17.598,41
17.852,48
36.089,10
61.467,44
9.157,14
15.622,32
582.233

Allianz
BASF
BMW
Bayer

Beiersdorf
Commerzbank

Daimler
Deutsche
Deutsche
Deutsche
Deutsche
E.ON

Bank
Brse
Post
Telekom

Fresenius
Fresenius Medical Care
HeidelbergCement
Henkel
Infmeon
K+S

Linde

Lufthansa
MAN
Merck
Metro

Mnchener Rck
RWE
SAF

Siemens
Thyssen Krupp
Volkswagen
Gesamt

I Deskriptive Statistik

136

Die Zusammensetzung des DAX wird vierteljhrlich berprft und ggf. durch Austausch von Aktiengesellschaften gendert. Wir sprechen dabei auch von ordentlicber Anpassung des Index. Zustzlich wird auch das Wgungsschema vierteljhrlich aktualisiert, auch dann, wenn die Zusammensetzung des Index unverndert
bleibt. Kriterien bei der Aufnahme neuer Aktien bzw. dem Ausschluss bereits enthaltener Aktien sind dabei:
Orderbuchumsatz - Summe des an der FWB (ink!. Xetra) in den letzten zwlf
Monaten festgestellten Umsatzes der Aktie einer Gesellschaft
Freefloat-Marktkapitalisierung - Produkt aus Anzahl der frei verfgbaren
Aktien und dem umsatzgewichteten Durchschnittspreises der vergangenen 20
Handelstage
In gewissen Ausnahmefallen (z.B. kurzfristig angekndigte bernahmen oder signifikante Vernderung des Freefloats, Erffnung des Insolvenzverfahrens, ... ) kann
der Vorstand der Deutschen Brse AG in Abstimmung mit dem Arbeitskreis Aktienindizes auch eine auerordentlicbe Anpassung des DAX vornehmen.

5.

Aufgaben

Grundlagen
Aufgabe GI
Geben Sie Zu folgenden statistischen Massen an, ob es sich um Bestands- oder
Bewegungsmassen handelt:
a) Todesfalle in einer Grostadt
b)

Maschinenausfalle in einem Unternehmen

c)
d)
e)

Wartende Kunden vor einem Schalter


Arbeitnehmer in einem Betrieb
Aomeldungen in einem EinwohnenneIdeamt

AufgabeG2

Geben Sie Zu folgenden Bestandsmassen mgliche korrespondierende Bewegungsmassen an:

a)
b)
c)
d)

Einwohner der Stadt Mnchen


Kontostand
Rentenempfnger
Auftragsbestand

AufgabeG3

Auf welchen Skalen knnen folgende Merkmale gemessen werden?


a) Jahresumsatz
b) Temperatur
c) Handelsklasse von Obst
d) Nationalitt
e) Tarifklassen bei der Kfz-Haftpflichtversicherung
f)
Zensuren

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_5, Springer Fachmedien Wiesbaden 2015

I Deskriptive Statistik

138

Eindimensionale Huflgkeitsverteilungen
AufgabeEHl

Ein Anleger kaufte am 02.01.2003 Aktien bei einem Kurs von 100 . Am 02.01.2004
lag der Kurs bei 160 , am 02.01.2005 bei 80 .
Wie hoch war die durchschnittliche Wertvernderung pro Jahr?
AufgabeEH2

Der durchschnittliche Bruttomonatsverdienst von Arbeitnehmern, die der Sozialversicherungspflicht unterliegen, betrug im Jahr 2001 in Westdeutschland 2.816 und
in Ostdeutschland 2.013 . Im Westen waren 23 Mio. und im Osten 4,8 Mio. Arbeitnehmer beschftigt.
Berechnen Sie den durchschnittlichen Monatsverdienst aller sozialversicherungspflichtigen Deutschen!
AufgabeEH3

Die Arbeitslosenquoten betrugen im Jahr 2000 in Ost- und Westdeutsch1and


17,40 % bzw. 7,80 %. Im Osten gab es 7,806 Mio. und im Westen 32,505 Mio. Erwerbspersonen. Berechnen Sie die gesamtdeutsche Arbeitslosenquote und beachten Sie dabei, dass die folgenden Defmitionen gelten:
.
Arbeitslose
Arbeitslosenquote = -cc;-c-:----=::--;-c-:-Arbeitslose + Erwerbsttige
Erwerbspersonen = Arbeitslose + Erwerbsttige

AufgabeEH4

Fr die Preise von PC-Monitoren eines bestimmten Typs ergab sich ein Durchschnittspreis von xM = 300 und eine Standardabweichung von SM = 50 . Fr
Flachbildschirme ergab sich hingegen xp = 550 und s, = 100 .
Kann nun die Aussage gemacht werden, dass Flachbildschinnpreise doppelt so
stark streuen wie die Preise fr Pe-Monitore?
AufgabeEHS

Betrachten wir drei theoretische HufIgkeitsverteilungen A, Bund C:


Verteilung A

aJ

h(a~

Verteil~

14
10

h(a~

12
1

13
2

14
4

15
2

16
1

13
1

15
1

16
1

17
1

18
1

19
1

aJ

Verteilung C

aJ

h(a~

9
2

12
2

Berechnen Sie aus diesem Zahlenmaterial arithmetisches Mittel, Standardabweichung und Spannweite! Machen Sie auerdem ohne Kennzablenberechnung aussagen zur Schiefe der Verteilungen!

5. Aufgaben

139

AufgabeEH6

Es wurden 30 Energiesparlampen einer Lebensdauerprfung unterzogen. Die Lebensdauern in Stunden>; fr diese Lampen sind in folgender Tabelle angegeben:
x,
251,7
295,1
301,1
378,7
489,0
546,9
599,2
632,6
711,9
734,7

1
2
3
4
5
6
7
8
9
10

!!,

12
13
14
15
16
17
18
19
20

x,
897,6
906,2
934,0
951,3
957,8
965,9
999,3
1.004,4
1.055,1
1.156,6

21
22
23
24
25
26
27
28
29
30

755,8
767,5
772,3
789,1
799,4
800,5
834,0
851,3
877,1
884,9

11

Berecbnen Sie den Median, den Quartilsabstand und den Quartilskoefftzienten dieser Verteilung!
AufgabeEH7
Die Polizei greift an einem Abend 14 Studenten auf dem Heimweg von einer Semesteranfangsparty auf und stellt dabei folgende Blutalkoholkonzentrationen fest:

0,082
0,052

Mnner

Frauen

0,091
0,049

0,079
0,032

0,D70
0,041

0,084
0,052

0,092
0,061

0,089
0,059

Vergleichen Sie die Streuung der Alkoholkonzentration bei Mnnem und Frauen
anband geeigneter Mazahlen!
AufgabeEH8

Aus den Statistiken einer Bank ergaben sich fr 64 Kreditkunden folgende Tilgungszahlungseingnge (in % der Gesamtforderung). Der Rest der jeweiligen Forderung wird von der Bank als endgltig verloren betrachtet und abgeschrieben.
0
12
6
12
6
12
21
17

10

5
40
5
7,5
21
17
12

30
3
7
3
5
15
21
5

5
30
6
6
5
3,5
12
40

35
5
0
12
12
15
11,5
12

12
35
7
5
12
3
15
12

12
5
5
7,5
6
17
11

15

8
5
5
9
5,5
12
3,5
15

Zu bearbeiten sind nun folgende vier Teilaufgaben. Versuchen Sie a), c) und d)
mit Hilfe von MS-F.xcel zu lsen, da Ihnen hier das Programm einen erheblichen
Rechenaufwand abnimmt.

I Deskriptive Statistik

140

a)
b)

c)
d)

Geben Sie die kummuHerten relativen Hufigkeiten der Zahlungsausfalle an,


die in die empirische Verteilungsfunktion eingehen!
Wie gro ist der Anteil der Schuldner, bei denen
bl) hchstens 70 % der Forderung ausfllt?
b2) mehr als 85 % und weniger als 90 % der Forderung ausfllt?
Berechnen Sie arithmetisches Mittel, Modus und Median der Zahlungsausfalle!
Berechnen Sie Spannweite, Varianz, Standardabweichung und Variationskoeffizient der Verteilung!

AufgabeEH9
Von 100 Unternehmen einer Branche wurden folgende Reingewinne erzielt:
Gewinn

(in Mio. Euro)


5-15
15-25
25-35
35-45
45-55
55-65
65-75

Anzahl der
Unternehmen
20
10
30

5
5

10
20

Ermitteln Sie mit Hilfe von MS-Excel den durchschnittlichen Umsatz, der von den
betrachteten Unternehmen erzielt wurde, sowie Varianz, Standardabweichung und
den Variationskoeffizienten dieser Hufigkeitsverteilung!

Aufgabe EHIO
Die Aufzeichnungen einer Wetterstation ergaben ber einen Zeitraum von 2339
Tagen folgende Windgeschwindigkeiten:
aj bis unter aj
1
2
3
4
5

7
8
9
E

0,00
2,50
5,00
7,50
10,00
12,50
15,00
17,50
20,00

2,50
5,00
7,50
10,00
12,50
15,00
17,50
20,00
22,50

h,

f,

231
403
570
321
200
201
198
110
105
2339

0,0988
0,1723
0,2437
0,1372
0,0855
0,0859
0,0847
0,0470
0,0449
1,0000

Was lsst sich aus diesem Zahlenmaterial ber die Schiefe der Hufigkeitsverteilung der Windgeschwmdigkeiten aussagen? Nutzen Sie fr Ihre Berechnungen MSExcen Interpretieren Sie Ihr Ergebnis inhaltlich!

5. Aufgaben

141

Aufgabe EHll
Ein Unternehmen hat fr das abgelaufene Geschftsjabr smtliche Rechnungsbetrge (in Euro) fr Beschaffungsgter in Grenklassen eingeteilt. Hinsichtlich Anzahl und Betrge der Rechnungen ergab sich zum Jabresende folgendes Bild:
Groenklassen der
Recbnungsbetrge
[0, 500[
[500, 1.000[
[1.000, 2.500[
[2.500, 5.000[
[5.000, 10.000[
[10.000, 20.000[

Anzahl der Rechnungen


je Klasse
255
490
165
60
24

6
1.000

Beschaffungskosten
je Klasse
74.000
343.000
295.000
216.000
187.000
85.000
1.200.000

Beschaffungsgter knnen im Rabmen einer ABC-Analyse in A-, B- und C-Gter


eingeteilt werden. Diejenigen Gter, die mit den 20 % der Recbnungen mit den
grten Betrgen verbunden sind, werden als A-Gter klassifiziert. Die Gter aus
den 50 % kleinsten Recbnungen sind C-Gter. Die Gter dazwischen werden
B-Gter genannt.
Skizzieren Sie fr dieses Datenmaterial die Lorenz-Kurve und kennzeicbnen Sie
darin die A-, B- und C-Gter. Geben Sie auerdem an, welchen Anteil an den Gesamtkosten die A-Gter ausmachen!

Aufgabe EH12
Zwei Mrkte weisen folgende Strukturen auf:
MarktA
4 Firmen mit je 5 % Marktanteil
2 Firmen mit je 10 % Marktanteil
4 Finnen mit je 15 % Marktanteil

Markt B
5 Finnen mit je 3 % Marktanteil
5 Finnen mit je 17 % Marktanteil

Bestimmen Sie anhand des normierten Gini-KoefflZienten, welcher Markt die hhere Konzentration aufweist!

I Deskriptive Statistik

142

Mehrdimensionale Hufigkeitsverteilungen
AufgabeMHl

Eine Befragung von 500 Studenten nach dem Studiengang (Merkmal X) und der
sportlichen Bettigung (Merkmal Y) liefert folgende Kontingenztabelle:
y

nie

BWL

gelegentlich
40
50
40
130

30
20
80
130

VWL

Mathematik
L

regelmig
200
20
20
240

L
270
90
140
500

Bestimmen Sie die bedingten Verteilungen des Merkmals Y und interpretieren Sie
ihre Werte exemplarisch!
AufgabeMH2

Ein Automobilhersteller liefert Klein-, Mittelldasse- und Oberklassewagen in die


drei Regionen A, Bund C. An einem bestimmten Tag wurden insgesamt 1.000
Fahrzeuge ausgeliefert. Davon gingen je 300 in die Regionen A und C. Die Lieferung enthielt zu 50 % Kleinwagen, zu 30 % Mittelklassewagen und zu 20 % Oberklassewagen. In die Region A wurden 150 Kleinwagen und 100 Mittelklassewagen,
in die Region B 100 Mittelldassewagen und in die Region C 50 Oberklassewagen
geliefert.
a) Erstellen Sie hierzu eine zweidimensionale Hufigkeitstabelle der absoluten und
relativen Hufigkeiten mit den entsprechenden Randverteilungen!

b) Bestimmen Sie die Hufigkeitstabelle der bedingten Verteilung des Merkmals


Pkw-Typ, die durch Beschrnkung auf die Region A entsteht!
c) Bestimmen Sie die Hufigkeitstabelle der bedingten Verteilung des Merkmals
Region, die durch Beschriinkung auf Kleinwagen entsteht!
d) Geben Sie den Modus bzgl. beider Merkmale an!
AufgabeMH3

Fr 500 Mietwohnungen ergab eine Untersuchung folgende Daten ber Mietpreis


Y (in Euro) in Abhngigkeit von der Wohnflche X (in m'):
Y
X

40
80

40
80
120

0-300
84
76

300 - 600
43
160
14

600 - 900

o
23
25

900 - 1200

12
60

Berechnen Sie ein geeignetes Ma zur Charakterisierung des Zusammenhangs zwischen Mietpreis und wohnflche!

5. Aufgaben

143

AufgabeMH4

Nelunen Sie an, eine UNICEF-Studie liefert die folgenden Kindersterblichkeitsraten


X in 9 Staaten des Naben Ostens und zudem die prozentualen Anteile der Leseund Schreibkundigen der Gesamtbevlkerung der jeweiligen Lnder. Diese Alphabetisierungsrate Y kann als Indikator fr den Entwicklungsstand des betreffenden
Landes interpretiert werden.
Land
Kuwait
Vereinigte Arabische Emirate
Jordanien
Ubanon
Iran
Syrien
Irak
Saudi-Arabien
Jemen

X. (in %)
1,9
3,0
5,2
5,6
5,9
5,9
8,6
9,1
18,7

y, (in %)

67,0
38,0
70,0
73,0
43,0
51,0
49,0
48,0
21,0

Untersuchen Sie mittels eines geeigneten Korrelationsmaes den Zusammenbang


zwischen Kindersterblichkeits- und Alphabetisierungsrate!
AufgabeMH5

Die folgende Vierfeldertafel weise eine vom Statistischen Bundesamt ermittelte


Gliederung der in der Bundesrepublik lebenden Personen nach dem Geschlecht
(Merkmal X) und der Beteiligung an der Erwerbsttigkeit (Merkmal Y) aus (Angaben in Tausend Personen):

Mnnlich
Weiblich
1:

Erwerbspersonen
22.232
17.814
40.046

Nichterwerbspersonen
18.098
24.346
42.444

1:
40.330
42.160
82.490

a) Um welche spezielle Art von Merkmalen handelt es sich bei X und Y?


b) Beurteilen Sie den statistischen Zusanunenbang der Merkmale X und Y anband
einer geeigneten Mazahl!
c) Betrachten Sie den Fall, dass alle Mnner erwerbsttig und alle Frauen nicht
erwerbsttig sind, und machen Sie Aussagen zur Abhngigkeit zwischen X und
Y in diesem Fall!
AufgabeMH6

Beweisen Sie die Gltigkeit der Beziehung Q3: 23) bzw. des Verschiebungssatzes
fr die Kovarianz!

I Deskriptive Statistik

144

Preisindizes
Aufgabe PI
In welchem Fall liefern die Preisindizes nach Laspeyres und Paasche identische Ergebnisse? Begrnden Sie Ihre Aussage!
AufgabeP2

Ein Laspeyres-Index zeigt folgendes Verhalten: Steigt der Preis eines Gutes X um
8 % und bleiben alle restlichen Preise unverndert, so resultiert ausgehend von
einem Startwert 1 ein Indexwert von 1,004. Mit welchem Gewicht ist das Gut X im
Warenkorb vertreten?
AufgabeP3
Folgende Tabelle zeigt die Durchschnittswerte fr Preis (in Euro) und Verbrauch
(in Liter) von Kraftstoff fr zwei Jahre A und B:

Kraftstoff

Preis

Jahr A
0,96
0,90
0,87

Super
Nonnal
Diesel

Verbrauch
Jahr A
400
700
350

Verbrauch
Jahr B
700
600
250

Preis

Jahr B
1,15
1,10
1,01

a) Berechnen Sie den Preisindex nach Laspeyres und nach Paasche! Basisjahr ist
das Jahr A.
b) Ermitteln Sie den Wertindex!
AufgabeP4

Gegeben ist die folgende Indexreihe (Preisindex nach Laspeyres fr die Lebenshaltungskosten):
Jahr
Index

2001
98,1

2002
100,0

2003
122,5

2004
130,7

2005
146,6

2006
149,4

Entscheiden Sie fr folgende Aussagen jeweils, ob sie richtig oder falsch sind! Begrnden Sie dabei stets 1hre Aussage!
a) Der Preisindex nach Laspeyres ist ein gewogenes arithmetisches Mittel aus
Preisen.

b)
c)
d)
e)

Der Preisindex nach Laspeyres ist ein gewogenes arithmetisches Mittel aus
Preisverhltnissen mit Gewichten aus der Basisperiode.
Im Jahr 2002 waren die Kosten fr die Lebenshaltung im Durchschnitt 100 %
hher als zu Beginn der statistischen Berechnung.
Die Steigerung der durchschnittlichen Lebenshaltungskosten im Jahr 2006 bezogen auf 2005 belief sich auf 2,8 %.
Die Steigerung der durchschnittlichen Lebenshaltungskosten im Jahr 2004 bezogen auf 2001 betrgt 33,23 %.

5. Aufgaben

145

AufgabeP5

Gegeben sind zwei Indexreihen A und B. Bei A ist 2003, bei B 2000 als Basisjahr
zu betrachten. Beide Indexreihen sollen nun miteinander verglichen werden. Wie
lsst sich dies bewerkstelligen? Fhren Sie die erforderlichen Operationen durch!

Index I
Index I"

2003
100
140

2004
104
150

2005
115
155

2006
120
157

AufgabeP6

Fr eine bestimmte Menge von Warengruppen und denselben Basis- und Berichtszeitraum (Basisjahr 2002, Berichtsjabr 2006) sind der Preisindex nach Laspeyres mit
P;002,2006 = 125,7 und der Mengenindex nach Paasche mit Q;"'2,2006 = 110,8 gegeben.
a) Welchen Wert nimmt der Umsatzindex U 2002,2006 an? Beweisen Sie in diesem Zusammenhang die Gltigkeit der von Ihnen zur Berechnung verwendeten fonnalen Beziehung!
b) Wie hoch ist das durchschnittliche Umsatzwachstum whrend dieser 4 Jahre?

11 WAHRSCHEINLICHKEITSRECHNUNG

Thema dieses Kapitels ist die Wahrscheinlichkeitstheorie, die sich mit der
mathematischen Beschreibung von Zufallserscheinungen und der Analyse
von Gesetzmigkeiten befasst, die diesen innewohnen. Wir legen dazu im
Abschnitt 11 1 zunchst die begrifflichen Grundlagen und beschftigen uns
mit der Messung der "Neigung" oder "Chance" des Eintretens bestimmter
Ereignisse durch Zahlen, die man Wahrscheinlichkeiten nennt. Im Abschnitt
11 2 fhren wir das zentrale Konzept der Zufallsvariablen ein und analysieren
deren Wahrscheinlichkeitsverteilungen sowie Mazahlen zur Charakterisierung dieser Verteilungen. Wir werden hier starke Analogien zur ein- und
mehrdimensionalen Hufigkeitsverteilung feststellen, weshalb wir hufig auf
erneute Beweisfhrungen verzichten knnen. Abschnitt 11 3 beschliet das
Kapitel mit einem berblick ber wichtige spezielle Wahrscheinlichkeitsverteilungen, die uns insbesondere in der induktiven Statistik des Kapitels 111
ntzliche Dienste erweisen werden.

1.

Grundlagen der
Wahrscheinlichkeitstheorie

Viele Ergebnisse wirtschaftlicher Entscheidungen sind nicht streng vorherbestimmbar.


sondern besitzen Zufallscharakter. So lsst sich beispielsweise nicht genau im Voraus
bestimmen. welche Rendite die Investition in eine Aktie oder eine andere risikobehaftete
Anlageform letztendlich liefert. Mit derartigen Zufallssituationen werden wir uns in diesem
Kapitel auseinandersetzen. Da das Verstndnis der Wahrscheinlichkeitstheorie anhand
realer Entscheidungssituationen aus dem Wirtschaftsleben jedoch oft schwer fllt. erlutern wir die Stze und Regeln der Wahrscheinlichkeitsrechnung zumeist anhand einfacher Glcksspiele (z.B. MnzwurI. Wrleln. ele.). Sie knnen nmlich als die Wurzeln
der Wahrscheinlichkeitstheorie betrachtet werden.

1.1 Grundbegriffe
Ausgangspunkt der Wahrscheinlichkeitsrechnung ist der sog. Zufallsvorgang. Er
ist definiert als Geschehen, bei dem aus einer gegebenen Ausgangssituation heraus
mehrere sich gegenseitig ausschlieende Folgesituationen mglich sind, wobei un-

gewiss ist. welche dieser Folgesituationen eintreten wird. Typische Beispiele fr


Zufallsvorgnge sind etwa das Werfen einer Mnze oder eines Wrfels, das Ziehen
einer Karte aus einem Kartenspiel, die Ziehung der Lottozahlen, das Drehen eines
Glcksrades oder die Entnahme einer Zufallsstichprobe (z.B. zur Bestimmung des
Ausschussanteils einer Produktionsserie).
Lassen wir einen Zufallsvorgang mehtfach ablaufen, sprechen wir von einem Zu-

fallsexperlment. Ein solches ist dadurch charakterisiert. dass der Zufallsvorgang


nach einer exakt bestimmten Vorschrift durchgefhrt wird und

unter identischen Bedingungen beliebig oft wiederholbar ist.

Bei einem einem Zufallsexperiment setzt man also voraus, dass sich die einzelnen

Wiederholungen des Zufallsvorgangs nicht gegenseitig beeinflussen, also unabbngig voneinander sind.
Die einzelnen. nicht mehr weiter zerlegbaren, mglichen Ausgnge oder Ergebnisse eines Zufallsexperimentes werden als Elementarerelgnisse m bezeichnet.
Bei jeder Durchfhrung des Experiments kann bzw. muss immer nur ein einziges
dieser Elementarereignisse eintreten. Man sagt daher, dass sich die Elementarereignisse gegenseitig ausscblieen. Das nach Ablauf des Geschehens tatschlich eintretende Elementarereignis ist das sog. Ergebnis des Zufallsexperimentes. Die Menge
n aller Elementarereignisse eines Zufallsexperimentes nennen wir Ergebnisraum
(in der Uteratur gelegentlich auch Ergebnismenge oder Ereignisraum) des Zufallsexperimentes. Existieren n mgliche Elementarereignisse, dann gilt

n ={m,.m,.m, ... mnl.


B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_6, Springer Fachmedien Wiesbaden 2015

(111:1)

150

11 Wahrscheinlichkeitsrechnung

Eine solche Darstellung ist allerdings nur mglich, wenn der Ergebnisraum endlich
viele oder hchstens abzhlbar unendlich viele Elementarereignisse hat. In der
Literatur wird die Anzahl der Elementarereignisse des Ergebnisraumes hufig als
Mchtigkeit I Cl I bezeichnet. Es gibt jedoch auch Zufallsexperimente, bei denen der
Ergebnisraum mehr als endlich viele oder abzhlbar unendlich viele Elemente hat.
Wir sprechen hier auch von einem stetigen Kontinuum von Elementarereignissen.
Neben dieser Kategorisierung hinsichtlich der Anzahl und Abzhlbarkeit der Elemente knnen wir Ergebnisrume aucb hinsichtlich der Strukur der Elemente unterscbeiden. So kann ein Elementarereignis ein einzelnes Objekt oder ein n-Tupel
von Objekten sein (vgl. dazu Beispiel II 1-1).

Beispiel 11 1-1

Endliche Ergebnisraume

Einmaliger Wurf einer Mnze:


Bezeichnen wir das Elementarereignis, dass die Munze nach dem Werfen "KoP/"
zeigt, mit K, und dass sie "Zahl" zeigt, mit Z, ergibt sich der Ergebnisraum

o ={K,Z}.

Zweimaliger Wurf einer Munze:


Hier sind die Elementarereignisse geordnete Paare (i,D, wobei i das Resultat des ersten und j das Resultat des zweiten Mnzwurfs darstellt. Der Ergebnisraum ist damit

o = {KK,KZ,ZK,ZZ).

Einmaliger Wurf eines Wurfeis:


Da die Elementarereignisse durch die Zahl der Augen auf der oben liegenden Flache
des Wurfeis gekennzeichnet sind, ergibt sich folgendes Bild des Ergebnisraumes:
0= {1,2,3,4,5,6}

Zweimaliger Wurf eines Wurfeis:


Auch hier sind die Elementarereignisse geordnete Paare (i,D, wobei i das Ergebnis
des ersten und j das Ergebnis des zweiten Wurfelwurfs bezeichnet. Bei i = 1,2, ... ,6
und j = 1,2.... ,6 ergeben sich insgesamt 101 = 6 . 6 = 36 Elementarereignisse und der
folgende Ergebnisraum:

(1,1),
(2,1),
(3,1),
0=
(4,1),
(5,1),
(6,1),

(1,2),
(2,2),
(3,2),
(4,2),
(5,2),
(6,2),

(1,3),
(2,3),
(3,3),
(4,3),
(5,3),
(6,3),

(1,4),
(2,4),
(3,4),
(4,4),
(5,4),
(6,4),

(1,5),
(2,5),
(3,5),
(4,5),
(5,5),
(6,5),

(1,6),
(2,6),
(3,6),
(4,6),
(5,6),
(6,6)

Alternativ lsst sich dieser Ergebnisraum auch folgendermaen darstellen:


0= {(x"x,): x, E {1,2,3,4,5,6}

fUr i = 1,2}

1. Grundlagen der Wahrscheinlichkeitstheorie

151

Ziehung der Lottozahlen:


Beim Mittwochs- und Samstagslotto werden aus 49 von 1 bis 49 durchnummerierten
Kugeln genau 6 Kugeln zufllig gezogen und die jeweiligen Nummern registriert. Die
dabei auftretenden Nummern sind die Gewinnzahlen und werden nach der Ziehung
der Gr Be nach geordnet, da es keine Rolle spielt, in welcher Reihenfolge sie gezogen werden. Ein Lottospieler tippt also auf ein Elementarereignis der allgemeinen
Form Ol = {x""",JC:!,,..,Xs,Xs}. Da die Nummern ohne ZurOcklegen einer vorher gezogenen Kugel ermittelt werden, ist es wichtig zu beachten, dass keine Kugel mehrmals gezogen werden kann. Der Ergebnisraum zeigt sich damit wie folgt:
n = {(X"X"x"x"X"X,): x; E {1,2,3, ... ,49}

und x1 < x2 < xa < x4 < x5 < xe

Beispiel 11 1-2

Abzahlbar unendlicher Ergebnisraum

Eine MOnze wird so lange geworfen bis Zahl erscheint. Der Ergebnisraum hat hier unendlich viele Elementarereignisse, ist jedoch abzhlbar.
n = {Z,KZ,KKZ,KKKZ,KKKKZ, ...}

Beispiel 11 1-3

Unendlicher Ergebnisraum

Mittels einer Zufallsstichprobe soll die in Kilometer gemessene Laufleistung x von PkwMotoren gemessen werden, die diese bis zu ihrem "Ausfall" erbringen. Der Ergebnisraum
eines solchen Zufallsexperiments kann wie folgt dargestellt werden:
n={x :x~O; x reell}

1.2 Ereignisse und ihre Darstellung


Unter einem sog. Ereignis A verstehen wir jede beliebige Teilmenge des Ergebnisraumes n, d.h. A c n. Dies bedeutet, dass sich jedes Ereignis aus einem oder mehreren Elementarereignissen zusammensetzt. Die einzige Ausnahme stellt hierbei das
sog. unmgliche Ereignis dar, welches aus Null Elementarereignissen besteht. Ein
Ereignis tritt allgemein dann ein, wenn ein in ihm enthaltenes Elementarereignis
Cl)

A eintrin.

Beispiel 11 1-4

Endliche Ereignisse

Beim Zufallsexperiment "Einmaliger Wrfelwurf" sind beispielsweise folgende Ereignisse denkbar:


A,: "Es ergeben sich nur gerade Augenzahlen."

-+

A, = {2,4,6}

A,: "Die 6 wird gewOrfelt."

-+

A, = {6}

Einige Ereignisse beim Zufallsexperiment "Zweimaliger Wrfelwurf":


A,: "Die Summe der Augenzahlen ist mindestens 10."

--> A, = {(x" x,) : x, + x,

~ 1O} = {(4, 6),(6,4),(5,5),(5,6), (6,5),(6, 6n

152

11 Wahrscheinlichkeitsrechnung
A,.: "Die Summe der Augenzahlen ist hchstens 4."

--> A, = {(x" x,) : x, + x, ,; 4) = W' 1),(1,2),(2, 1),(2,2),(1,3),(3, 1


Aa: "Die Summe der Augenzahlen ist grer als 10."
--> A, =((x"x,): x, +x, > 10) ={(5,6),(6,5),(6,6

A.: "Es werden zwei gleiche Zahlen gewiirfelt."


--> A, = ((x"x,): x, = x,) = W,I),(2,2),(3,3),(4,4),(5,5),(6,6
As: "Die zuerst gewOrfelte Zahl ist eine 6."
--> A, ={(x"x,): x, = 6; x, E {1,2,3,4,5,6J} ={(6,1),(6,2),(6,3),(6,4),(6,5),(6,6
As: "Es wird zweimal die 6 gewOrfelt."
--> A, = {(6,6
Beispiel 11 1-5

Unendliches Ereignis

Fr das im vorangegangenen Abschnitt aufgeliihrte Beispiel 11 1-3 lsst sich das folgende
Ereignis betrachten:
A: "Die Motorlaufleistung ist grer als 150.000 km."

--> A ={x: x > 150.000; x reell)


Fr Ereignisse, die Ld.R. mit Grobuchstaben A,

~, ~,

B, C usw. bezeichnet wer-

den, Beziehungen zwischen Ereignissen sowie Ereignisoperationen, mit denen sich


aus Ereignissen neue Ereignisse bilden lassen, existieren eine Reihe wichtiger
Schreibweisen, die in der folgenden Schematik im berblick dargestellt und im
Anschluss daran im Detail behandelt werden. Da Ereignisse in ihrer einfachsten
Form als Mengen definiert sind, werden wir im Folgenden sehen, dass wir die in
der Mengenlehre verwendeten Notationen und Operationen auch auf Ereignisse
bertragen knnen.

Bezeichnung
A ist ein sicheres Ereignis.

Darstellung

A ist ein unmgIiches Ereignis.

3
4

A ist ein TellereJgnis von B.

AcB

A und B sind quivalente Ereignisse.

A=B

A ist die Verclnlgung der A,.

A=A, uA, u ... uAn = UA j

A ist der Durchschuitt der A,.

A=A, nA, n ... nAn = nA j

A und B sind dlsjunkte Ereignisse.

AnB=0

A und B sind komplementre Ereignisse.

C ist die Dlfferenz aus A und B CA ohne B).

B=A
C=A \B

A=!l
A=0={)

I"
n

I"

1. Grundlagen der Wahrscheinlichkeitstheorie

153

1. Sicheres Ereignis

Ein Ereignis A wird als sicheres Ereignis bezeichnet, wenn das Ereignis der Er-

gebnisraum n selbst ist und damit alle Elementarereignisse Ol enthlt. Ein solches Ereignis A tritt sicher bei jedem Ausfhren des Zufallsexperimentes ein.
Formal schreiben wir daher
A = n = {m"m"m"

... ,Oln}'

(I1l: 2)

2. Unmgliches Ereignis
Ein Ereignis A tritt sicher nicht bzw. niemals ein und gilt als unmglich, wenn
es gleich der sog. leeren Menge 0 ist. Diese enthlt per Definition kein Element
und somit auch kein Elementarereignis aus n. Es gilt
(I1l: 3)

A=0={ }.

3. Teilereignisse
Sind alle Elementarereignisse eines Ereignisses A auch in einem Ereignis B enthalten, bezeichnet man das Ereignis A als Teilereignis von Ereignis B. Tritt das
Ereignis A ein, so tritt automatisch auch das Ereignis B ein. Wir sagen auch,

dass das Ereignis A das Ereignis B impliziert, und schreiben


AcB.

(I1l: 4)

Ereignisse und Ergebnisraum lassen sich im sog. Venn-Diagramm anschaulich


darstellen. Die Ereignisse werden dabei als Flchen dargestellt, die sich mglicherweise berlappen. Abbildung II 1 (links) zeigt das Venn-Diagramm fr
den Fall eines Teilereignisses.

4. Aqulvalente Ereignisse
Zwei Ereignisse A und B werden als quivalent bezeichnet, wenn die Elemente

beider Ereignisse identisch sind. Genau dann, wenn A eintritt, tritt auch Bein.
Wir schreiben
(I1l: 5)

A=B.

Das dazugehrige Venn-Diagramm ist in Abbildung II 1 (rechts) zu sehen. Wir


erkennen daran, dass hier lediglich ein spezieller Fall eines Teilereignisses vorliegt. Alle Elemente von A sind auch in B enthalten und umgekehrt.
Teilereignis: A c B

.....
.
(9
.. A .
......
.......

quivalente Ereignisse: A = B

. ...............
......
B.A-.......
. ..... .

Abbildung II 1: Teilereignis und quivalente Ereignisse

11 Wahrscheinlichkeitsrechnung

154

5. Vereinigung
Die Vereinigung V zweier Ereignisse A und B ist definiert als die Menge aller
Elementarereignisse, die entweder ZU A allein oder ZU B allein oder sowohl ZU
A als auch zu B gemeinsam gehren. Wir schreiben
(I1l: 6)
V=AuB.
Das neue Ereignis V tritt also genau dann ein, wenn entweder A oder Ballein
oder beide Ereignisse gemeinsam eintreten.' Wir sprechen kurz: "A oder B". Die
Vereinigung stellt sich im Venn-Diagramm wie in Abbildung II 2 (links) dar.

6. Durchschnitt
Der Durchschnitt D zweier Ereignisse A und B ist defmiert als die Menge aller
Elementarereignisse, die sowohl zu A als auch zu B gehren.
(I1l: 7)
D=AnB
Das neue Ereignis D tritt somit genau dann ein, wenn Ereignis A und Ereignis B
gemeinsam eintreten. 2 Wir sprechen kurz: "A und B". Es ergibt sich damit das
Venn-Diagramm in Abbildung II 2 (rechts). Auf die darin enthaltenen Differenzen A\B und B\A werden wir in Krze ZU sprechen kommen.
Vereinigung: V = A u B

Durchschoitt: D = A n B

Abbildung II 2: Vereinigung und Durchschnitt

7. Disjunkte Ereignisse
Zwei Ereignisse A und B heien disjunkt oder unvereinbar, wenn

AnB=0

(I1l: 8)

gilt, sie also kein Elementarereignis gemeinsam haben (sich nicht "schneiden").

Damit gilt immer, dass zwei beliebige Elementarereignisse selbst paarweise disjunkt sind.
Disjunkte Ereignisse schlieen sich gegenseitig aus. Dies bedeutet, dass sie

nicht zugleich eintreten knnen. Wenn also A eintritt, tritt B nicht ein. Wenn A
1 In der vorhergehenden Schematik wurde die Vereinigung mehrerer Ereignisse Aj beschrieben. Fr diesen Fall gilt: Genau dann, wenn mindestens ein ~ eintritt, tritt A ein.
2 Fr den in der Schematik beschriebenen Fall gilt: Genau dann, wenn alle ~ eintreten, tritt
Aein.

1. Grundlagen der Wahrscheinlichkeitstheorie

155

nicht eintritt, bedeutet dies aber nicht automatisch, dass B eintritt. Dies ist auch

im Venn-Diagramm in Abbildung II 3 Oinks) zu sehen.

8. Komplementre Ereignisse
Unter dem Komplementrereignis oder Komplement A eines Ereignisses A
verstehen wir die Menge smtlicher Elementarereignisse des Ergebnisraumes n,
die nicht in Ereignis A enthalten sind. Das Ereignis A tritt also immer dann ein,
wenn das Ereignis A nicht eintritt. Genau dann, wenn A eintritt, tritt A nicht
ein.

Komplementre Ereignisse sind nach (I1l: 9) stets disjunkt und ergnzen sich
nach (I1l: 10) zum sicheren Ereignis.
AnA=0

(I1l: 9)

(I1l: 10)
AuA=n
Es zeigt sich das Venn-Diagramm in Abbildung II 3 (rechts). Zudem ist festzuhalten, dass das komplementre Ereignis zu A wieder das ursprngliche Ereignis A ergibt, also

A=A

(I1l: 11)

gilt, und das Komplementrereignis zum sicheren Ereignis das unmgliche Ereignis ist (I1l: 12) und umgekehrt (I1l: 13):
n=0

(I1l: 12)

i2hn

(I1l: 13)

Disjunkte Ereignisse A und B

()

Komplementrereignis

........................0
...........
............. .

............ x
...........

.......................

. .

Abbildung II 3: Disjunkte und komplementre Ereignisse

9. Differenz
Ein Ereignis C, welches sich dadurch ergibt, dass die Elemente, die die Ereignisse A und B gemeinsam haben (d.h. A n B), von den Elementen des Ereignisses A abgezogen werden, bezeichnen wir als Differenz. Das Ereignis C be-

schreiben wir formal als


C=A \B
und sprechen "C ist A ohne B

I1

(I1l: 14)

Das Ereignis C tritt genau dann ein, wenn zwar

A, aber nicht B eintritt. Es resultiert das Venn-Diagramm in Abbildung II 4.

11 Wahrscheinlichkeitsrechnung

156

Das Komplement A eines Ereignisses A knnen wir als spezielle Differenz betrachten. Es gilt nmlich
A=Q\A.

(II1: 15)

AnB
Differenz: A\ B

Abbildung II 4: Differenz

Beispiel 11 1-6

Ereignisbeziehungen

Ein Glcksspiel bestehe aus dem Drehen der beiden folgenden GIOcksrder. Der Spielteilnehmer soll dabei das Produkt der zwei sich ergebenden Zahlen als Gewinn erhalten.

10

20

30

40

Der Ergebnisraum (43 = 12 Elemente) dieses Zufallsexperiments kann wie folgt dargestellt werden:

n=

(IO,I), (20,1), (30,1), (40,1),}


(10,2), (20,2), (30,2), (40,2),
{
(10,0), (20,0), (30,0), (40,0)

Gegeben seien auerdem die folgenden ausgewhlten Ereignisse:


E,: "Der Spieler macht keinen Gewinn."

--> E, = {(tO,O), (20,0), (30,0), (40,0))


E2: "Der Spieler macht einen Gewinn. 1I

-->E, ={(tO,I), (20,1), (30,1), (40,1), (10,2), (20,2), (30,2), (40,2))


E3: "Der Spieler gewinnt mindestens 60 Euro."

--> E, = {(30,2), (40,2))


E.: "Der Spieler gewinnt genau 10 Euro."

--> E, = {(t 0,1))

157

1. Grundlagen der Wahrscheinlichkeitstheorie

Zur Veranschaulichung der vorhergehend behandelten Notationen, Beziehungen und Operationen wollen wir nun anhand dieser Angaben einige Sachverhalte darstellen:

Sicheres Ereignis:
U,: "Der Spieler gewinnt hchstens 80 Euro." .... U, = n

Unmgliches Ereignis:
U2: "Der Spieler gewinnt 200 Euro." .... U, = 0

Teilereignis:
Es gilt E. c E2, da alle Elemente von E. auch in E2 enthalten sind.

Disjunkte Ereignisse:
Es gilt E, n E2 = 0, E, n E:. = 0 und E, n E. = 0, da die betreffenden Ereignisse je
weils keine Elemente gemeinsam haben.

Komplementre Ereignisse:
Das Ereignis E, ist das komplementre Ereignis zu E2 (E, = E, ), da E, u E, = n und
E,nE,=0.

Differenz:
E, \ Es = {(10,1), (20,1), (30,1), (40,1), (10,2), (20,2}j

Vereinigung:
Es uE, ={(30,2), (40,2), (10,1}j

Durchschnitt:
E,nE, = {(30,2), (40,2}j
Diese Mengen lassen sich auch in Tabellenform darstellen. So entspricht beispielsweise die Differenz E2 I E3 den im Folgenden eingekreisten Punkten. Alle anderen
Mengen lassen sich analog skizzieren.
GIOcksrad 1
10

Glcksrad 2

II~

20

EI

40

30
E,
E2

I-

E3

I
-I

1.3 Wahrscheinlichkeitsregeln und -definitionen


Das Ergebnis eines Zufallsexperimentes ist nicht vorhersehbar. Es ist hchstens
mglich den Ereignissen gewisse "Wahrscheinlichkeiten" zuzuordnen. Whrend es
sich bei den Ereignissen um Mengen handelt, sind Wahrscheinlichkeiten reelle
Zahlen. Eine Wahrscheinlichkeit ist also nichts anderes als ein Ma zur Quantifizierung des Grades der Sicherheit oder Unsicherheit des Eintretens eines bestinunten Ereignisses im Rahmen eines Zufallsexperimentes. Welche Voraussetzungen ein
solches Ma erfllen muss, wollen wir im Folgenden nher betrachten.

11 Wahrscheinlichkeitsrechnung

158

1.3.1

Axiome der Wahrscheinlichkeitsrechnung

Jede Funktion P, die einem Ereignis A eine Wahrscheinlichkeit P(A) zuordnet, wird
als Wahrschelnllchkeitsfunktion und P(A) als Wahrscheinlichkeit von A bezeichnet. wenn sie die drei folgenden. von A. N. Kolmogorov (1933) formulierten
Axiome (keiner Beweise bedrfenden Grundstze) etfllt:
Axiom 1
Die Wahrscheinlichkeit P(A) des Eintretens eines betrachteten Ereignisses A eines
Zufallsexperimentes ist eine eindeutig bestimmbare, nichtnegative reelle Zahl, die
zudem kleiner oder gleich Eins sein muss. 3 Dies muss fr alle A c n etfllt sein.
0";P(A)";1

(I1l: 16)

Axiom 2
Die Wahrscheinlichkeit P(A) eines Ereignisses, welches alle Elementarereignisse
enthlt (sicheres Ereignis A = n). ist gleich Eins.
P(Q) = 1

(I1l: 17)

Axiom 3
Schlieen sich zwei Ereignisse A und B gegenseitig aus (disjunkte Ereignisse). so
gilt die Additionsregel
P(A u B) = P(A) + P(B)

falls

AnB=0.

(II1: 18)

Verallgemeinern wir diese Regel fr eine beliebige Anzahl paarweise disjunkter Ereignisse, so ergibt sich Folgendes:

P(A, u A, u ... u An) = P(A, ) + P(A,) + ... + P(An)


falls
A, n AI = 0 fr alle ;,< j mit i.j = 1.2... n

(I1l: 19)

Aus diesen Axiomen lassen sich ohne groe Schwierigkeiten weitere wichtige
WahrschelnUcbkeitsstze ableiten. die in der Wahrscheinlichkeitsrechnung von
groer Bedeutung sind:
Satz 1 - Wahrscheinlichkeit von komplementren Ereignissen
Die Wahrscheinlichkeit eines zu einem Ereignis A komplementren Ereignisses A
ergibt sich stets als
P(A) = 1 - P(A) .
Dieser Zusammenhang lsst sich relativ einfach beweisen: Da A und

(II1: 20)

A komplemen-

tre Ereignisse sind, ergibt die Vereinigung dieser Ereignisse den Ergebnisraum n.
d.h. es gilt Au A = n (vgl. Abbildung II 3, rechts). Die Wahrscheinlichkeit des
Eintretens des sicheren Ereignisses n ist nach dem Axiom 2 gleich Eins:
3 Genau genommen lautet Axiom 1 nur P(A) > O. In der Literatur wird jedoch meist bereits

die Nonnierungsfunktion von Axiom 2 in Axiom 1 bercksichtigt, was zu (111: 16) fhrt.

1. Grundlagen der Wahrscheinlichkeitstheorie


P(n) = 1

159
-7

P(A u ) = 1

Unter Umstellung von Axiom 3 kann daraus aufgrund der Disjunktheit der beiden
Ereignisse der Zusammenhang
P(A u )

= P(A) + P() = 1

-7

P() = 1 - P(A)

hergeleitet werden.
Satz 2 - Wahrscheinlichkeit des unmglichen Ereignisses
Das unmgliche Ereignis hat die wahrscheinlichkeit Null.
p(e!) = 0

(I1l: 21)

Auch der Beweis hierfr ist nicht schwer zu erbringen: n und e! sind komplemenn). Die Wahrscheinlichkeit des Eintretens von n ist nach
Axiom 2 gleich Eins. Unter Anwendung von Satz 1 und Axiom 1 ergibt sich damit

tre Ereignisse (0 =

P(e!) = I-P(0) = I-P(n) = 1-1 = O.

Satz 3 - Wahrscheinlichkeit einer Differenz A\B


Fr die Wahrscheinlichkeit einer Differenz A \B gilt stets
P(A \ B) = P(A) - P(A n B) .

(I1l: 22)

Erklren lsst sich dieser Zusammenhang dadurch, dass sich das Ereignis A aus den
beiden disjunkten Ereignissen A\ Bund A n B (vgl. Abbildung II 4) zusammensetzt
und somit nach Axiom 3
P(A) = P(A \ B) + P(A n B)

gilt. Durch Umformung lsst sich daraus Satz 3 herleiten.


Satz 4 - Additionssatz fr beliebige Ereignisse
Fr zwei beliebige Ereignisse A und Baus

n gilt stets

P(A u B) = P(A) + P(B) - P(A n B) .

(I1l: 23)

Zur Erklrung dieser Formel werfen wir zunchst einen Blick auf Abbildung II 2.
Aus dieser lsst sich ablesen, dass sich ein Ereignis Au Baus 3 disjunkten Ereignissen zusammensetzt} also
A uB = (A \ B)u (A nB) u(B \A)
gilt. Nach Satz 3 gilt dann
P(A \ B) = P(A) - P(A n B)
P(B \ A) = P(B) - P(A n B) .
Unter Anwendung der Verallgemeinerung von Axiom 3 bzw. (Ill: 19) und Zusammenfhrung dieser Erkennmisse ergibt sich schlielich
P(AuB) = P(A \B)+P(AnB)+P(B \A)
= P(A) - P(A n B) + P(A n B) + P(B) - P(A n B)
= P(A) + P(B) - P(A n B).

An dieser Stelle sei noch erwhnt, dass Axiom 3 (disjunkte Ereignisse) nichts anderes als ein Spezialfall dieses Satz 4 fr A n B = e! bzw. P(A n B) = 0 ist.

11 Wahrscheinlichkeitsrechnung

160

Fr den Fall dreier beliebiger Ereignisse A, Bund C lautet die Beziehung


P(A u B u C) = P(A) + P(A n B) + P(A n B n C)
oder alternativ
P(A u B u C)= P(A) + P(B) + P(C)
-P(A nB)-P(A nC) -P(BnC)+P(A nB nC) .

(m: 24)

Wir knnen uns die Bedeutung von (I1l: 24) relativ schnell klar machen: Wrden
wir einfach nur P(A), P(B) und P(C) addieren, kme es dazu, dass wir die Wahrscheinlichkeiten gemeinsamer Elementarereignisse mehrfach bercksichtigen. So
wrden wir im Venn-Diagranun

die Elemente in den Bereichen I, 2 und 3 doppelt und jene im Bereich 4 dreifach
erfassen. Deswegen subtrahieren wir die Wahrscheinlichkeit jener Ereignisse, die
die Elementarereignisse jeweils paarweise gemeinsam haben. Der Bereich 4, der
die Elemente enthlt, die A, Bund C gemeinsam haben, bleibt dadurch jedoch unbercksichtigt, sodass die Wahrscheinlichkeit P(A n B n C) wieder addiert werden
muss.
Satz 5 - Monotonieeigenschaft des wahrscheinlichkeitsmaes
Ist ein Ereignis A eine Teilmenge eines Ereignisses B, d.h. impliziert das Ereignis A
das Ereignis B, dann ist die Wahrscheinlichkeit von A niemals grer als die von B.
Ac B

--+

P(A) S P(B)

(I1l: 25)

Ein formaler Beweis dieser Beziehung erbrigt sich, da ihre Gltigkeit unmittelbar
durch einen Blick auf Abbildung II 1 (links) klar wird 4
Satz 6 - Durchschnitte bei einer Zerlegung
Betrachten wir Abbildung II 5, so erkennen wir, dass hier ein Ergebnisraum n vorliegt, der sich aus drei paaI"W"eise disjunkten Ereignissen A,., ~ und A3 zusammensetzt. Resultiert aus der Vereinigung von m Ereignissen A,., ~, ... , ~ der Ergebnis-

raum C, d.h. Al U A 2 U ... U Am = n, und sind diese m Ereignisse paarweise disjunkt, d.h. Ai n A j = 0 fr i,j = 1,2, ... ,m mit i
j, sagen wir, dass die Aj eine

Zerlegung von

n bilden.

'*

Es ist im Zusammenhang mit (IIl: 25) anzumerken, dass zwar A - B --> P(A) - P(B) gilt,
jedoch nicbt P(A) P(B) --> A B.

1. Grundlagen der Wahrscheinlichkeitstheorie

161

Bilden die A, eine Zerlegung von 0, so gilt fr jedes Ereignis B c 0


P(B) = !P(B n A,)

falls

(JA , =0,

.ml:~

A, nA, =0 fr alle i,j=1,2, ... ,m mit h'j

j=1

Betrachten wir zur Verdeutlichung von (Ill: 26) nochmals Abbildung II 5, so erkennen wir, dass sich das Ereignis B aus den disjunkten Ereignissen X, Y und Z zusammensetzt. Fr diese gilt
X=BnA Y=BnA" Z=BnA,.
"
Die wahrscheinlichkeit des Ereignisses B lsst sich daher wie folgt ermitteln:

P(B) = P(X) + P(Y) +P(Z) = P(B n A,) + P(B n A,) + P(B n A,) = ~)(B n AJ)
j_ 1

Zerlegungseigenschaften:
A,

A,

IX

\..Z

O=A, uA, uA,


A,

A, nA, =0
A, nA, =0
A, nA, =0

Abbildung II 5: Durchschnitte bei der Zerlegung


Die bisher vorgestellten Axiome und die daraus abgeleiteten Stze liefern keinen

Beitrag zur Ermittlung der Zahl P(A). Sie legen lediglich fonnale Eigenschaften
fr Wahrscheinlichkeiten fest, dienen dazu, weitere Rechenregeln abzuleiten und

die Wahrscheinlichkeiten komplexer Ereignisse zu berechnen. Sie bilden die Basis


der Wahrscheinlichkeitstheorie. Wie sich die eigentlichen Wahrscheinlichkeiten
messen oder angeben lassen, werden wir im Rahmen der folgenden Wahrscheinlichkeitsbegriffe nher betrachten.

1.3.2

Klassische Wahrscheinlichkeitsdefinition

Nach der sog. klassischen oder Laplaceschen Definition der Wahrscheinlichkeit ergibt sich die Wahrscheinlichkeit P(A), dass bei einem bestimmten Zufallsexperiment ein Ereignis A eintritt, als der Quotient aus der Anzahl der fr A gnstigen
Elementarereignisse und der Anzahl aller mglichen Elementarereignisse.
P(A) = ~ = Anzahl der fr A gnstigen Elementarereignisse
I0 I
Anzahl aller mglichen Elementarereignisse

(I1l: 27)

Diese Fonnel gilt nur fr Zufallsexperimente mit endlich vielen Elementarereignissen, bei denen aufgrund der Ausgangssituation und der sonstigen Bedingungen,
unter denen das Geschehen abluft, als sicher gelten kann, dass die einzelnen Ele-

162

11 Wahrscheinlichkeitsrechnung

mentarereignisse dieselbe Chance des Eintretens besitzen, also gleicbwabrscbeinlieb sind. Zufallsexperimente dieser Art heien Laplace-Experimente.
Eigentlich sollte diese klassische Wahrscheinlichkeitsdefinition in der Praxis nur
auf Glcksspiele (wie z.B. Mnzwurf, Wrfeln oder Rouletre) und auf recht einfacb
konstituierte Zufallsexperlmenle angewendet werden, da wir hier wohl am ehesten
von gleichwahrscheinlichen Elementarereignissen ausgehen knnenS Trotzdem
wird sie aber hufig auch auf komplexere Sachverhalte angewendet. Das Resultat
sind zwar quantifizierte Wahrscheinlichkeitsaussagen, doch sind diese vielleicht nur
annhernd richtig oder zu ungenau, um als Entscheidungsgrundlage zu dienen.

Beispiel 11 1-7

Laplace-Wahrscheinlichkeit

In einer Schachtel befinden sich insgesamt 10 Zndkerzen, wovon genau 2 defekt sind.
Gesucht ist nun die Wahrscheinlichkeit P(A) eines Ereignisses A, dass eine zufllig ausgewhlte ZOndkerze funktionstOchtig ist.
Da der Ergebnisraum hier insgesamt 10 Elementarereignisse und das Ereignis A genau 8
(gnstige) Elementarereignisse umfasst, lsst sich P(A) nach (111: 27) als
P(A) =

1~ = 0,80

ermitteln.

Gehen wir von einem Zufallsexperiment mit einem Ergebnisraum mit n gleichwahrscheinlichen Elementarereignissen aus, ergibt sich die Wahrscheinlichkeit dieser einzelnen Elementarereignisse als
1
P(co,) = P(co,) = ... = P(co,) = ... = P(ron ) =n'

(II1: 28)

da aufgrund von Axiom 3


(I1l: 29)

:tP(ro) = 1
i=l

gilt.

Beispiel 11 1-8

Laplace-Experimente

Einmaliges Werfen eines WOrfels


Da der Ergebnisraum Cl = {1,2,3,4,5,6} dieses Zufallsexperimentes genau sechs
Elemente aufweist, gilt fOr die Wahrscheinlichkeiten der einzelnen gleichwahrscheinlichen Elementarereignisse

P({I}) = P({2}) = ... = P({6}) = f'i[ = Ei .

5 Sicherlich knnten wir behaupten, dass Z.B. eine Mnze nicht "perfekt" oder ein Wtfel
nicht "fair" ist und somit der Gleichwahrscheinlichkeit der Elementarereignisse widersprechen, doch stellen solche Manipulationen die Ausnarune dar.

1. Grundlagen der Wahrscheinlichkeitstheorie

lS3

Die Tatsache, dass die Summe der Wahrscheinlichkeiten der Elementarereignise


gleich 1 ist, ist hier relativ leicht zu zeigen:

i_1

LP(O\} = P({l}} + P({2}} + ... + P({S}} = S- = 1


Berechnen wir nun fOr dieses Zufallsexperiment die Wahrscheinlichkeiten einiger Ereignisse (auch unter Zuhilfenahme der bisher behandelten Axiome und Stze):
A,: "gerade Augenzahl"

--> P(A } = ~ = !! = ~

A2: "Augenzahl 5"

--> P(A, } -Iq


- ~- ~
-S

A,: "Augenzahl 5 oder gerade"

--> P(A,} = P(A, u A,} = P(A,} + P(A,} - P(A, n A,}

Inl

=~+~-O=~
2

Zuflliges Ziehen einer Karte aus einem Skatspiel (32 Karten)


Ereignis: "Man erhlt ein Ass (A) oder ein Karo (B)."

--> P(A u B} = P(A} + P(B} - P(A n B}


lAI IBI IAnBI
4
8
1
11
=-+----=-+---=Inl

Inl

Inl

32

32

32

32

Hierbei ist zu beachten, dass das KaroAss sowohl in A als auch in B enthalten und
daher 1/32 abzuziehen ist, um eine Doppelerfassung zu verhindern.

Zweimaliges Werfen eines Wrfels


Betrachten wir die beiden Ereignisse A, = {(x" x,) : x, +x, > 1O} = {(5,S), (S,5), (S,S)]
und A, ={(x"x,): x, + x, ,;; 1O}. Fr die Wahrscheinlichkeit von Ereignis A, gilt

P(A}-~-~-~
, -l l-S.S-12
n

Da zwischen den Ereignissen A, und A, die komplementre Beziehung A, = A, besteht, knnen wir die Wahrscheinlichkeit von A, bestimmen als
1
11
P(A,} =l-P(A,} =1- 12 = 12

Ist bekannt, dass bestimmte Elementarereignisse wahrscheinlicher sind als andere,


liefert der klassische Wahrscheinlichkeitsbegriff meist keine korrekten Aussagen zur
Wahrscheinlichkeit von Ereignissen. Auch bei Fragestellungen wie

Wie gro ist die Wahrscheinlichkeit, dass eine in einer Brauerei abgefllte
Flasche ihre Fllmenge um mehr als 10 ml berschreitet?

Wie ermittelt eine Versicherungsgesellschaft die Wahrscheinlichkeit dafr,


dass ein Versicherungsnehmer (Kfz-Haftpflicht) im nchsten Jahr einen Unfall
verursacht und damit eine Versicherungsleistung rallig wird?

stt die klassische Wahrscheinlichkeitsdefinition an ihre Grenzen, sodass wir uns


im Folgenden noch weiteren Definitionen widmen mssen.

11 Wahrscheinlichkeitsrechnung

164

1.3.3 Statistische Wahrscheinlichkeitsdefinition


Hufigkeitstheoretiker wie J. Venn oder R. von Mises sind der Ansicht, dass die
einzige zulssige Methode zur Bestimmung von Eintrittswaluscheinlichkeiten ein
Experiment sei. Gehen wir zur Begrndung dieser Behauptung von einem beliebig
oft wiederbolbaren Zufallsvorgang aus, d.h. seine Ausgangssituation lasse sich immer wieder von neuem herstellen, sodass jedes Ereignis A bei jeder Durchfhrung
dieselbe Chance des Eintretens hat. Das Welfen einer Mnze ist etwa ein solcher
Zufallsvorgang, und auch beim Ziehen mit Zurcklegen stellt jede einzelne Entnahme eine derartige Wiederholung dar. Bei n-maliger Durchfhrung eines solchen
wiederholbaren Zufallsvorganges, bei dem die n Dutchfhrungen nach den selben
Wahrscheinlichkeitsgesetzen und ohne gegenseitige Beeinflussung ablaufen, ergibt
sich eine Anzahl h,.W von Durchfhrungen, bei denen A eingetreten ist. Die relative Hufigkeit fJA) des Eintretens von A ergibt sich damit zu
1
f.(A)=-h.(A).

(In, 30)

Fr ein fortlaufendes n, d.h. fr eine gegen unendlich strebende Anzahl von Wiederholungen, ist nun zu "erwarten", dass sich die Folge der ((A) "nahe P(A) stabilisiert". Anders ausgedrckt, sollten sich fJA) und P(A) bei einer hinreichend groen
Zahl an Versuchen immer mehr annhern. Ein solches Verhalten wird auch durch
die "Etfahrung" besttigt. So knnen wir beispielsweise bei sehr hufIgem Welfen
einer Mnze erwarten, dass die Kopfseite ungefhr mit einer relativen HufIgkeit
von 0,5 auftritt und finden diese Erwartung nachtrglich fast immer besttigt. In
seinem Buch "Introduction to Statistics" beschrieb Noether, G. E. (1971) etwa folgende Versuchsreihe fr die Hufigkeit des Ereignisses "Kopf" beim Zufa11sexperiment "Welfen einer Mnze":
n Versuche
10
20
40
60
80
100
200
400
600
800
1.000
2.000
3.000
4.000
5.000

~ -mal

"KopP'
7
11
17
24
34
47
92
204
348
404
492
1.010
1.530
2.043
2.515

f. "Kopf"
0,700
0,550
0,425
0,400
0,425
0,470
0,460
0,510
0,580
0,505
0,492
0,505
0,510
0,508
0,503

....

.. 1'
~
~
~

,~

---

Wie unschwer zu erkennen ist, gibt es bei den relativen Hufigkeiten eine Konvergenz gegen den Wert 0,5. Dies ist genau der Wert, den man fr das Ereignis "Kopf"
auch nach der klassischen Wabrscheinlichkeitsdefinition erwarten wrde. Das WlS-

1. Grundlagen der Wahrscheinlichkeitstheorie

165

sen um eine tlstarke ll Abweichung davon (trotz zunelunenden n) wre wohl fr jeden Betrachter ein Anlass, die Mnze als manipuliert zu betrachten, obgleich selbst
das Ereignis, dass bei sehr hufiger Durchfhrung stets nur "Zahl" auftritt, auch bei
Gleichwahrscheinlichkeit von "Kopf' und "Zahl" nicht vllig uttmglich ist.

Der Zusammenhang zwischen Wahrscheinlichkeiten und relativen Hufigkeiten


wurde von J. Bemoulli durch das "Gesetz der groen Zahlen" przisiert. 6 Dieses
besagt, dass die Wahrscheinlichkeit dafr, dass f.(A) von P(A) mindestens um einen
beliebigen positiven Betrag E abweicht, ntit wachsendem n gegen Null konvergiert:
limP(1 f.(A) -P(A) I ~ E) = 0
H_

(I1l: 31)

Das "Gesetz der groen Zahlen" kann, wie wir bereits beim besprochenen Mnzwurfexperiment gesehen haben, zur "Besttigung" von Laplace-Wahrscheinlichkeiten herangezogen werden. Es ist insbesondere dazu geeignet, Aufschluss ber
unbekannte Wahrscheinlichkeiten zu erhalten; darauf beruhen viele Methoden der
induktiven Statistik. Dabei nimmt die Aussagekraft, die f.(A) ber P(A) hat, natrlich ntit wachsendem n zu. Wir sprechen in diesem Zusammenhang bei dem Wert,
bei dem sich die relative Hufigkeit f.(A) bei wachsender Zahl von Versuchswiederholungen "stabilisiert" von der statistischen Wahrscheinlichkeit fr das Eintreten eines Ereignisses A. Es ist jedoch klar, dass der statistische Wahrscheinlichkeitsbegriff keine exakten Wahrscheinlichkeiten, sondern nur Nherungswerte dafr liefern kann. In der Praxis wird Ld.R. fr eine groe, endliche Anzahl n von
Versuchen die beobachtete relative Hufigkeit als Nherungs- oder Schtzwert
P(A) fr die gesuchte Wahrscheinlichkeit P(A) herangezogen:
P(A) = f.(A)

(I1l: 32)

Dabei wird gem (I1l: 31) das Abweichen der relativen Hufigkeit f.(A) von der
Wahrscheinlichkeit P(A) um mehr als den Wert E ntit zunehmendem n immer unwahrscheinlicher.
Abschlieend sei noch erwhnt, dass sich aufgrund der hier beschriebenen Zusammenhnge die bisher behandelten Regeln fr Wahrscheinlichkeiten auch auf relative Hufigkeiten bertragen lassen. So gilt etwa fr zwei disjunkte Ereignisse A
und B VA u B) = f. (A) + f. (B), fr komplementre Ereignisse VA) = 1- fn (A) ,
fr Teilereignisse f. (A) ~ fn (B) , wenn Ac B, usw.

1.3.4

Subjektive Wahrscheinlichkeitsdefinition

In vielen Entscheidungssituationen im Wirtschaftsleben lassen sich wahrscheinlichkeiten weder durch die klassische noch durch die statistische Wahrscheinlichkeitsdefmition objektiv bestimmen. Die objektiven Wahrscheinlichkeitsbegriffe versagen
hufig besonders dann, wenn es darum geht, die Wahrscheinlichkeit einmaliger
Ereignisse zu bestimmen. Fragen wie "Wie gro war am Tag davor die Wahrscheinlichkeit fr einen Reaktorunfall in Tschernobyl?" knnen wir hchstens da-

6 Zur Unterscheidung von einer anderen Form des "Gesetzes der groen Zahlen", das wir im
Rahmen der induktiven Statistik noch kennenlemen werden, wird (I1l: 31) auch hufig als
!lBemoullis Gesetz der groen Zahlen" bezeichnet.

166

11 Wahrscheinlichkeitsrechnung

durch beantworten, indem wir die Wahrscheinlichkeit des Zusanunentreffens der


Ereignisse angeben, die einen Reaktorunfall auslsen knnen. Aber wie sollen wir
die Wahrscheinlichkeit dafr angeben, dass ein bestimmtes Pferd ein Rennen gewinnt oder eine bestimmte Fuballmannschaft deutscher Meister wird? Wir knnen
hier nur auf sog. subjektive Wahrscheinllchkeiten zurckgreifen.
Der Begriff der subjektiven Wahrscheinlichkeit wurde vor allem von B. Oe Finetti
und 1. J. Savage geprgt. Sie und andere Subjektivisten waren der Meinung, dass
alle Bemhungen zur Objektivierung von Wahrscheinlichkeiten zum Scheitern verurteilt sind und letztendlich Wertangaben fr Wahrscheinlichkeiten doch nur vernnftige Glaubensaussagen sein knnten. Anders ausgedrckt, ist die Wahrscheinlichkeit nach dieser Theorie ein Ma fr das persnliche Vertrauen, das ein
Individuum in das Eintreten eines bestimmten Ereignisses setzt.
Beispiel 11 1-9

Subjektive Wahrscheinlichkeit

Zu Beginn eines Wrfelspiels hlt ein Spieler den verwendeten Wrfel fr "fair". Er ordnet
dem Ereignis "Eine Sechs wird gewrfelt." deshalb die subjektive Wahrscheinlichkeit 1/6
zu. Nach mehreren Spieldurchlufen knnte er nun aber seine Meinung ndern und aufgrund seiner Beobachtungen zu der berzeugung kommen, der Wrfel sei ungleichmig.
In diesem Fall wrde er demselben Ereignis nun eine entsprechend hhere oder geringere
subjektive Wahrscheinlichkeit zuordnen. Ist sich der Spieler absolut sicher, dass beim
nchsten Wurf die Sechs fllt, wrde er die Wahrscheinlichkeit sogar als Eins ansehen.

Als praktisches Verfahren, die subjektive Wahrscheinlichkeit eines Individuums fr


das Eintreten eines bestimmten Ereignisses herauszufmden, wollen wir im Folgen-

den zwei Mglichkeiten vorstellen: Die Auswertung alternativer Risikosituationen


und die Analyse von Wettquotienten. Beide Verfahren setzen allerdings Risikoneutralitt des betrachteten Individuums voraus. Zum besseren Verstndnis dieser Voraussetzung betrachten wir zunchst folgendes einfaches Gewinnspie!:
Mit einer Wahrscheinlichkeit von jeweils 50 % gewinnt oder verliert man 100 Euro,
d.h. im Durchschnitt wrde man weder gewinnen noch verlieren. Eine Person, die
sich nun im Hinblick auf die Teilnahme an diesem Gewinnspie! als indifferent erweist, ist rjsikoneutral. Wer bereit ist, fr die Teilnahme am Spiel einen Einsatz Zu
zahlen, ist rjsikofreudig. Wer nicht bereit ist, gegen Zahlung eines Einsatzes teilzunehmen, ist risikoavers.
Ein erstes Verfahren besteht nun darin, einem Individuum alternative Rlslkosituationen anzubieten. So wren etwa die folgenden denkbar:
Situation A: Man erhlt mit einer Wahrscheinlichkeit p den Betrag 100 Euro
oder mit einer Wahrscheinlichkeit 1 - P den Betrag 0 Euro.
Situation B: Man erhlt 100 Euro, wenn der DAX innerhalb des nchsten Monats um 100 Punkte fallt. Andernfalls erhlt man 0 Euro.
Die subjektive Wahrscheinlichkeit dafr, dass der DAX im nchsten Monat um 100
Punkte fllt, erhalten wir nun dadurch, dass wir p so lange variieren, bis das Individuum zwischen beiden Risikosituationen indifferent ist.

1. Grundlagen der Wahrscheinlichkeitstheorie

167

Eine weitere interessante Mglichkeit der Ableitung subjektiver Wahrscheinlichkeiten, besteht in der Analyse von Wettquotienten (Quoten). Betrachten wir dazu
zunchst, wie in der Praxis fr eine Fuballwette Wettquotienten festgelegt werden:
In einem ersten Schritt legt der Buchmacher zunchst fr jedes der mglichen Er-

eignisse "Sieg", "Unentschieden" und "Niederlage" eine (subjektive) Wahrschein-

lichkeit fest, wobei die Summe der drei Wahrscheinlichkeiten natrlich bei Eins liegen muss. Fr ein Spiel Fe Bayern gegen Schalke 04 knnte sich z.B.
Sieg Bayern:

0,60

Unentschieden:

0,25

Sieg Schalke:

0,15

ergeben. Aus diesen Wahrscheinlichkeiten werden dann sog. faire Quoten nach der
Formel Q' - 1 ! P (mit Q' - faire Quote und P - Wahrscheinlichkeit) festgelegt:
Sieg Bayem:

1 / 0,60 - 1,67

Unentschieden:

1 / 0,25 - 4,00

Sieg Schalke:

1 /0,15 - 6,67

Dies sind jedoch nicht die realen Quoten, da der Buchmacher bei den fairen Quoten das gesamte Geld der Verlierer an die Gewinner auszahlen msste. Die realen
Quoten sind daher niedriger. Sie werden durch Multiplikation mit (1 - b) bestimmt,
wobei b der Anteil der Einstze ist, der vom Buchmacher als Gewinn einbehalten
wird. Es gilt also QR - Q' . (1 - b). Im Fall b - 0,10 erhielten wir fr das obige Beispiel folgende reale Quoten:
Sieg Bayem:

1.67 . 0.90 - 1,5

Unentschieden:

4,00 . 0,90 - 3,6

Sieg Schalke:

6.67 . 0.90 - 6,0

Diese Quoten knnen nun in verschiedenen Formaten angegeben werden:


EU-Format
UK-Format
US-Format
Sieg Bayern:

1,5

1/2

- 200

Unentschieden:

3,6

13/5

+ 260

Sieg Schalke:

6,0

5/ 1

+ 500

Beim EU-Format gibt die Quote das Verhltnis von mglicher Auszahlung zum Einsatz an. Der auszuzahlende Betrag ergibt sich im Gewinnfall aus der Multiplikation
des Wetteinsatzes mit der Quote. Setzen wir 100 Euro erfolgreich auf Bayern, wrden wir also hier 100 Euro 1,5 - 150 Euro, d.h. einen Gewinn von 50 Euro, erhalten, den wir auch ber 100 Euro (1,5 - 1) - 50 Euro bestimmen knnen.
Beim UK-Format geben die Quoten das Verhltnis von mglichem Gewinn zum
Einsatz an. Den mglichen Gewinn erhalten wir daher durch Multiplikation des
Einsatzes mit der Quote. Beim Sieg von Bayern lge der Gewinn in unserem Beispiel also bei 100 Euro 1 ! 2 - 50 Euro.
Beim US-Format werden die Quoten im Plus- und Minusformat angegeben, wobei
die Vorzeichen jedoch keine mathematische Bedeutung haben. Minusquoten zeigen den bentigten Einsatz fr einen Gewinn von 100 Einheiten an. Plusquoten
den Gewinn bei einem Einsatz von 100 Einheiten. Bei einem Sieg von Bayern er-

168

11 Wahrscheinlichkeitsrechnung

halten wir also bei einem Einsatz von 100 Euro einen Gewinn von 100 Euro .
100/200 = 50 Euro. Bei einem erfolgreichen Tip auf den Sieg von Schalke erhalten
wir hingegen einen Gewinn von 500 Euro.
Da wir nun wissen, wie Wettquotienten festgelegt und interpretiert werden, sind
wir im Umkehrschluss auch in der Lage von gegebenen Wettquotienten auf die

Wahrscheinlichkeiten Zu schlieen, die das Individuum bei der Aufstellung der


Wettquotienten unterstellt hat. Bietet also der Buchmacher in unserem Beispiel eine
Quote von 1,5 fr den Sieg von Bayern an und wissen wir, dass er stets 10 % der
Einstze einbehlt, so knnen wir die von ihm angenommene wahrscheinlichkeit
als 1 / (1,5 / 0,90) = 0,6 (d.h. l/(QR/(1 - b)) = lIQ' = p) ermitteln.
Auerdem knnen wir eine Person hinsichtlich der Quote befragen, zu der sie ge-

rade noch bereit ist, auf das Eintreten eines Ereignisses A ZU wetten, und daraus
subjektive Wahrscheinlichkeiten ableiten. Wir wollen dies am nachfolgenden Beispiel veranschaulichen.

Beispiel 11 1-10

Wetlquotienten

Jemand ist gerade noch bereit mit der Quote 5 (EU-Format) darauf zu wetten, dass
Deutschland im Jahr 2014 Fuballweltmeister wird. Dies bedeutet, dass er pro eingesetzten Euro eine Auszahlung von 5 Euro bzw. einen Gewinn von 4 Euro fordert. Eine zahlenmige Vorstellung von der subjektiven Wahrscheinlichkeit der Ereignisse A: "Deutschland
wird Weltmeister" und : "Deutschland wird nicht Weltmeister" ergibt sich daraus als
Kehrwert der EU-Quote bzw. Komplementrwahrscheinlichkeit zu
P(A) =

51 = 0,2

P(A) = 1-P(A) = 0,8.

Da sich fOr solche Ereignisse wohl keine objektiven Wahrscheinlichkeiten bestimmen lassen, sind diese Werte die einzig sinnvollen Wahrscheinlichkeitsmae.

Bei Betrachrung von Beispiel II 1-10 wird der kritische Leser feststellen, dass es
wohl kein effIZientes Verfahren ist, die Wahrscheinlichkeit eines Ereignisses aus der
Wettbereitschaft nur einer einzigen Person abzuleiten. Diese hngt nmlich davon
ab, welche Informationen die Person nutzt und wie sie diese verarbeitet, und ist
daher allein oft wenig aussagekrftig. In der Praxis wird daher hufig versucht subjektive Wahrscheinlichkeiten durch die mehrmalige Befragung einer Gruppe von
Experten zu objektivieren.

1.4 Zufallsauswahl und Kombinatorik


Im Rahmen des klassischen Wahrscheinlichkeitsbegriffes wurde die Wahrschein-

lichkeit eines Ereignisses A als Quotient aus der Anzahl der fr A gnstigen Elementarereignisse und der Anzahl aller mglichen Elementarereignisse definiert. Bei

einfachen Zufallsexperimenten wie etwa dem Wrfeln lassen sich diese Flle auch
recht einfach ermitteln. Bei komplexeren Experimenten ist dies jedoch etwas komplizierter. In der Vergangenheit wurden daher eine Reihe von Methoden entwickelt, die bei der Ermittlung dieser Flle hilfreiche Dienste leisten. Genau mit diesen Verfahren wollen wir uns nun nher befassen.

1. Grundlagen der Wahrscheinlichkeitstheorie

1.4.1

169

Zufallsauswahl und Urnenmodell

Unter einer Zufallsauswahl verstehen wir allgemein das zufallige Ziehen von n
Objekten (Stichprobe) aus einer endlichen Menge von N Objekten (Grundgesamtheil). Typische Beispiele hierfr sind etwa die Befragung von 1.000 Personen aus
der deutschen Bevlkerung im Rahmen einer Meinungsumfrage oder die Entnahme
von 50 Produkten aus der laufenden Fertigung. Zur Veranschaulichung dieses
Auswahlprozesses und seiner verschiedenen Varianten wird in der Wahrscheinlich-

keitstheorie das sog. urnenmodell herangezogen. Dabei befmden sich in einer


Urne N gleichartige Kugeln, die durchnummeriert sind und von denen zufallig
(blind) n Kugeln mit oder ohne anschlieendes Zurcklegen herausgegriffen und
mit oder ohne Bercksichtigung der Reihenfolge (Anordnung) notiert werden (vgl.
Abbildung II 6). Gerade von der Reihenfolge und dem Zurcklegen hngt letztendlich die Anzahl der mglichen Elementarereignisse (Auswahlen, Stichproben)
des Zufallsexperimentes ab.
Ziehen

,/"

'-

........,
./

000
...
'- 0

Anordnung

mit

Zurckleg.m

ohne

ja

nein

IV

./

Abbildung II 6: Urnenmodell
Die in Abbildung II 6 auftauchenden rmischen Ziffern sind lediglich als Platzhalter
zu betrachten, die im Abschnitt II 1.4.2.2 nher behandelt werden.

1.4.2

Kombinatorik

Die Kombinatorik befasst sich allgemein mit der Bildung von Zusanunenstellungen
von Elementen aus einer vorgegebenen endlichen Menge. Verschiedene kombinatorische Modelle stellen dabei die Anzahl der mglichen Zusammenstellungen fest.
Um diese unter II 1.4.2.2 nher erlutern und bersichtlich darstellen zu knnen,
fhren wir im Abschnitt II 1.4.2.1 zunchst einige wichtige Begrifflichkeiten ein.
1.4.2.1

n-Fakultt und Binomialkoeffizient

Unter der n-Fakultt versteht man das Produkt der natrlichen Zahlen von 1 bis n:
n!:= 123 ... (n-1)n

(I1l: 33)

Fr sie gelten die folgenden Zusammenhnge:


O!

:=

(n+1)! := n! '(n+1)

(I1l: 34)
(I1l: 35)

170

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-11

Fakultten

Bestimmen wir einige einfache Fakultten:


11 = 1
21=12=2
31=123=6
Unter Anwendung von (111: 35) lsst sich 4-Fakultt wie folgt ermitteln:
41=314=24
Da bereits 101 den Wert 3.628.800 liefert, knnen wir festhalten, dass Fakultten enorm
schnell ansteigen.
Der sog. Binomialkoeffizient ("N ber n") ist allgemein definiert als

(N)
n

:=

NI

nl (N-n)1

mit

(II1: 36)

N>O,n~O,N~n,

wobei N und n nicht nur positiv, sondern auch ganzzablig sein mssen. Fr die
Sonderfalle n = 0, n = N, n = 1 und n = N - 1 gilt fr diesen

Auerdem gilt
(I1l: 37)

Beispiel 11 1-12

Binomialkoeffizient

Berechnen wir den Binomialkoeffizienten "7 ber 3":


7)
71
( 3 = 31(7-3)1

71
7654321
3141 = 321 . 4321

765
--=35
321

Wie wir hier deutlich erkennen knnen, ist ein Teil der Faktoren des Nenners, nmlich
(N - n)l, auch im Zhler enthalten, sodass sich dieser Teil wegkrzen lsst und sich die
Berechnung des Binomialkoeffizienten erheblich vereinfacht. Besonders fOr groe N wird
daher auch hufig auf die Formel

(~) =

N(N-l) (N-2) .... (N-n +1)


nl

zurckgegriffen.

7 Weitere wesentliche Eigenschaften von Binomialkoeffizienten werden beschrieben in Auer,


B.R., Seitz, F. (2009), KapitelL

1. Grundlagen der Wahrscheinlichkeitstheorie

171

Bei Berechnungen mit Binomialkoeffizienten kann sich insbesondere

(~)+ (7)+ (~)+ . . +(:) = ZN

(I1l: 38)

als ntzlich erweisen. Das Ergebnis dieser Formel kann nmlich fr den Fall, dass
ein Ergebnisraum n genau N Elementarereignisse umfasst, als die Anzahl aller
mglichen Teilmengen von D interpretiert werden.
Beispiel 11 1-13

Teilmengen

Berechnen wir (111: 38) fOr N = 4, so erhalten wir

bzw.
2'=16.
Enthlt also ein Ergebnisraum genau 4 Elementarereignisse, so knnen wir daraus genau
16 Teilmengen bilden. Nehmen wir etwa an, die Elementarereignisse sind A, B, C und 0,
so erhalten wir die folgenden mglichen Teilmengen:

{A}

{AB}

{ABC}

{ABCO}

{B}

{AC}

{ABO}

{CI

{AO}

{ACO}

{O}

{BC}

{BCO}

{}

{BO}
{CO}

1.4.2.2

Prinzipien der Kombinatorik

Werden aus einer Grundgesamtheit (z.B. einer Urne) mit N Elementen (z.B. Kugeln), welche von 1 bis N "durchnummeriert" sind, n Elemente zufallig entnommen, so hngen die Anzahlen In I der mglichen Stichprobenergebnisse von der
Art der Entnahme ab. Diese Entnahmearten haben wir bereits in Abbildung II 6
mittels der Ziffern I bis IV klassifiziert und wollen sie nun im Detail bettachten:
Situation I
Ziehen mit Zurcklegen und mit Bercksichtigung der Anordnung

Da im Urnenfall aufgrund des Zurcklegens bei jedem Zug erneut auf N sich in der
Urne befindliche Kugeln zugegriffen und die Reihenfolge des Ziehens bercksichtigt wird, ist die Anzahl der Mglichkeiten In I definiert durch
InI I =NN ... N=N"

(I1l: 39)

172

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-14

Anwendungsbeispiele Situation I

1. Fuballtoto
Beim sog. Fuballtoto (lI-er Wette) tippt ein Spieler bei 11 Begegnungen jeweils auf "Sieg
der Heimmannschaft", "Sieg des Gastes" oder "Unentschieden". Somit gilt in diesem Fall
N = 3 und n = 11. Damit hat er insgesamt 10'1 = 3" = 177.147 Mglichkeiten seinen Tippschein auszutOllen.
2. Bits und Bytes
Ein Byte besteht aus 8 Bit, wobei jedes Bit mit 0 oder 1 besetzt werden kann. In diesem
Fall ist also N = 2 und n = 8. Es ergeben sich daraus genau 10'1 = 28 = 256 verschiedene
Byte-Muster.
3. Zahlenschlsser
Wie gro ist die Wahrscheinlichkeit P, dass ein Dieb durch Raten die Kombination eines
Zahlenschlosses mit 3 Ringen Oeweils Ziffern von 0 bis 9) herausfindet?

10' I= 10' = 1.000 -->

P = 1.~00 = 0,001

Liegen k Urnen mit unterschiedlichen Kugelanzahlen N, Ci = 1,2, ... ,k) vor, wobei
aus jeder eine Kugel gezogen wird, lsst sich die Anzahl der Mglichkeiten In I als
I n' I = N, . N, ..... Nk

(I1l: 40)

bestimmen.

Beispiel 11 1-15

Weiteres Anwendungsbeispiel Situation I

Stellenbesetzung
Ein Unternehmen beabsichtigt jeweils einen neuen Mitarbeiter in den Bereichen Controlling, Finanzen und Personal einzusetzen. Beworben haben sich 3 Controller, 5 Personaler
und 2 ehemalige Banker, sodass das Unternehmen 10'1 = 3 . 5 . 2 = 30 Mglichkeiten hat
die Stellen zu besetzen.

SituationD

Ziehen ohne Zurcklegen und mit Bercksichtigung der Anordnung


Durch die Tatsache, dass die Kugeln nach dem Ziehen nicht mehr zurckgelegt
werden, reduziert sich die Anzahl der Kugeln, die fr einen zweiten, dritten, usw.
Zug zur Verfgung stehen. Dementsprechend ergibt sich die Anzahl der Mglichkeiten unter Bercksichtigung der Reihenfolge folgendermaen:
Inn I =N.(N-1).(N-2) ..... (N-n+1)=

N!
(N -n)!

(I1l: 41)

Es ergeben sich also N Mglichkeiten den ersten Platz der Zusammensetzung zu


besetzen. Danach bleiben fr die Besetzung des zweiten Platzes noch N-l Elemente, fr den dritten Platz noch N-2 Elemente usw.

173

1. Grundlagen der Wahrscheinlichkeitstheorie

Beispiel 11 1-16

Anwendungsbeispiele Situation 11

1. Urnenspiel

In einer Urne befinden sich 4 Kugeln, die von 1 bis 4 durchnummeriert und daher unter
scheidbar sind. Es werden nacheinander bzw. unter Bercksichtigung der Reihenfolge
zwei Kugeln entnommen, wobei eine vorher gezogene Kugel nicht mehr in die Urne zurckgelegt wird. Die mglichen Ausgnge dieses Auswahlvorganges knnen wie folgt dargestellt werden:

1~!
Zug 1

Zug 2

2~!
Zug 1

Zug 2

3~:
ZUg 1

Zug 2

4~:
Zug 1

ZUg 2

Dabei ist die erste Zahl jeweils das Ergebnis des ersten und die zweite das Ergebnis des
zweiten Zuges. Es ergeben sich insgesamt In"l = 4 . 3 = 12 mgliche Ziehungsergebnisse.
2. Pferderennen
Wie viele Tippreihen gibt es, wenn bei einem Pferderennen insgesamt 20 Pferde antreten
und die 3 schnellsten Pferde der Reihe nach zu tippen sind?

In" I =

201 =20.19.18=6.840
(20-3)1

Werden alle N Elemente der Grundgesamtheit gezogen, ergeben sich die mglichen Anordnungen der Elemente gem
I an I = N (N -1). (N - 2) ... 321 = N! .

(I1l: 42)

Man spricht hier in der Literatur auch hufig von sog. Permutationen (Anzahl der
unterschiedlichen Anordnungen von N unterschiedlichen Objekten).
Beispiel 11 1-17

Permutation

Wieviele MOglichkeiten (verschiedene Reihenfolgen) hat ein Bibliothekar 12 verschiedene


Bcher nebeneinander ins Regal zu stellen?

I n" I =12! = 479.001.600


In der Permutationsdefinition (I1l: 42) wird davon ausgegangen, dass die betrachteten N Elemente alle voneinander verschieden sind. Sind nun aber nicht alle N Elemente unterschiedlich, werden aus ihnen k Gruppen gleicher Elemente gebildet
und jeweils die Anzahl darin enthaltener Elemente N, Ci = 1,2, ... ,k) festgestellt. Die-

se Gruppen reduzieren die Anzahl der unterscheidbaren Pennutationen, da sich


gleiche Elemente nicht unterscheiden lassen und deswegen bei ihnen auch keine

Reihenfolge beim Ziehen festgestellt werden kann. Die Anzahl der unterscheidbaren Pennutationen ergibt sich in einem solchen Fall als
mit

N,

+ N, + ... + N. = N

N, ;:, 1 fr i = 1,2, ... ,k

(I1l: 43)

17.

11 Wahrscheinlichkeitsrechnung

Beispiel 11 1-18

Permutation - Sonderfall

Wie groB ist die Anzahl der unterschiedlichen PermuBlionen der N '" 11 Buchstaben des
Wortes "Abrakadabra-?

1011_

111

51-2121-11-11

-83.160

Wie aus diesem letzten Beispiel gut abgeleitet werden kann, tauchen fr den Fall,
dass alle N Elemente verschieden sind, im Nenner von (TI1: 43) nur Einsen auf. Es
erg.be sich also dann die Formel on: 42),
Sltuatlonm
Ziehen obne Zurcklegen und obne Bercksichtigung der Anordnung
Im Gegensatz zu den bereits behandelten Kombinationen in Situation I und II werden bei Kombinationen der Situationen m und IV die Anordnungen auer Acht gelassen. Dies bedeutet, dass beispielsweise Nabe" und "bca" gleichwertig sind. Es
muss also zwangslufig weniger Kombinationen ohne Bercksichtigung der Anordnung als Kombinationen mit Bercksichtigung der Anordnung geben.
Werden gezogene Elemente nicht mehr in die Utsprungsmenge N eingelegt und ist
bei den Ergebnissen die Reihenfolge nicht von belang, knnen die mglichen
Kombinationen anhand des in Abschnitt II 1.4.2.1 behandelten Binomialkoeffizienten berechnet werden:

Inml=(N)_
NI
n
n! (N -n)!

Oll,44)

Vergleichen wir dies mit der Situation II bzw. 011: 41), so erkennen wir den Zusammenhang
11

IOml =10. 1.
n!

Oll,45)

Es gibt nmlich jeweils n! Mglichkeiten die n gezogenen verschiedenartigen Elemente anzuordnen.

Beispiel 11 1-19

Anwendungsbeispiele Situation 111

1. Urnenspiel
Betrachten wir eine Urne mit N '" 3 Kugeln A, Bund C, aus der n '" 2 Kugeln gezogen
werden. Wieviele Kombinationen sind bei Situation 111 mglich (a) und wie lauten diese (b)?
a)

Ifillll _ [3J _ a'2 _ a


2

21

b) AB,AC,BC

2. Sechs Richtige beim Lotto


Wie gro ist die Chance sechs Richtige im LolID zu haben (n '" 6 aus N '" 49)? Dabei ist zu
beachten, dass beim Lotto die Reihenfolge der gezogenen Zahlen nicht wichtig ist und
einmal gezogene Zahlen nicht erneut gezogen werden knnen. Es gibt insgesamt

175

1. Grundlagen der Wahrscheinlichkeitstheorie

In'" I =[~)=13.983.816
mgliche Ziehungsergebnisse. Da die Gewinnkombination aber nur eine dieser vielen
Mglichkeiten ist, gilt fOr die gesuchte Gewinnwahrscheinlichkeit

13.98~.816

0,0000000715.

3. Vier Richtige beim Lotto


Wie gro ist die Wahrscheinlichkeit im Lotto mindestens vier Richtige zu haben? FOr einen
"Viere(' im Lotto bentigen wir 4 von den 6 Richtigen und 2 beliebige von den 43 Falschen.
Es gibt damit folgende Anzahl von Viererkombinationen:

[:}[~) = 15903 =13.545


Zudem sind in diesem Fall auch die FOnfer- und Sechserkombinationen zu bercksichtigen
(da "mindestens vier Richtige").

~3) = 6.43 = 258

FOnferkombinationen:

[:){

Sechserkombinationen:

[:){:3) = 1.1 = 1

Es gilt daher fr die gesuchte Wahrscheinlichkeit

13.545+258+1
13.983.816

0,000987.

Eine Addition der Wahrscheinlichkeiten ist hier zulssig, da sich die einzelnen Ereignisse
gegenseitig ausschlieen bzw. keine Elemente gemeinsam haben.

Situation IV

Ziehen mit Zurcklegen und ohne Bercksichtigung der Anordnung


Beim Ziehen von n aus N Elementen mit Zurcklegen und ohne Bercksichtigung
der Reihenfolge gilt fr die Anzahl der mglichen Kombinationen
I n lV I = (N + n -1) = ~(Nc-+--=-:n_--c1)cc!
n
n!(N-1)!

Beispiel 11 1-20

(I1l: 46)

Anwendungsbeispiel Situation IV

In einem Topf befinden sich N = 3 Kugeln A, Bund C. Es werden n = 2 Kugeln ohne Beachtung der Reihenfolge und mit anschlieendem Zurcklegen gezogen. Wieviele Kombinationen sind mglich (a) und wie lauten diese (b)?

a) In'v I =[3+2-1)= (3+2-1)1


2

2!(3-1)!

4321 =6
22

11 Wahrscheinlichkeitsrechnung

176

b) AA,BB,CC,AB,AC,BC
Im Vergleich zu Beispiel 11 1-19 (Nr. 1) erkennen wir deutlich, dass sich durch das Zurucklegen drei zustzliche Kombinationen ergeben.

Die im Beispiel II 21 aufgefhrten Anwendungsbeispiele stellen mgliche Mischungen der vier beschriebenen Situationen dar. Sie sollen die Vielfalt Kombinatorischer
berlegungen veranschaulichen.

Beispiel 11 1-21

Zusammenfassende Anwendungsbeispiele

1. Kfz-Kennzeichen
Wieviele Kfz-Kennzeichen kann die Stadt Weiden unter Bercksichtigung folgender Bedingungen ausgeben?

Zwei unterschiedliche Buchstaben, wobei die Kombinationen AH, SA, HJ und KZ


verboten sind

Drei unterschiedliche und von Null verschiedene Ziffern

Fr den ersten Buchstaben bestehen 26 Mglichkeiten, fUr den zweiten eine weniger, da
die Buchstaben voneinander verschieden sein sollen. Von den damit mglichen Buchstabenkombinationen 26 . 25 sind schlielich noch die 4 verbotenen zu subtrahieren. Fr die
erste Ziffer des Kennzeichens bestehen 9 Besetzungsmglichkeiten (1, ... ,9). Diese sind
fr die beiden nachfolgenden Ziffern jeweils um eins geringer, da eine bereits verwendete
Ziffer nicht noch einmal benutzt werden darf. Fur die mglichen Kennzeichen gilt daher

In'l =(2625-4)987=325.584.
2. Doppelgeburtstage
Wie gro ist die Wahrscheinlichkeit, dass in einer zufllig zusammengestellten Gruppe von
10 Personen mindestens 2 Personen am sei ben Tag Geburtstag haben?
Beschreiben wir die Tatsache, dass 2 Personen am selben Tag Geburtstag haben, mit
dem Begriff "Doppelgeburtstag", so gilt
P(mindestens ein Doppelgeburtstag) = 1- P(kein Doppelgeburtstag)
mit
P(kein Doppelgeburtstag)

I kein Doppelgeburtstag I
Inl

bzw. konkret
P(kein Doppelgeburtstag) = 365'364'363'362'3~~:'~0'359'358'357'356

0,8831.

Daraus folgt
P(mindestens ein Doppelgeburtstag) = 1-0,8831 = 0,1169.
1.4.2.3

Zusammenfassung und Vergleich

Zum besseren Verstndnis stellen wir nun einen direkten Vergleich der von uns
behandelten Situationen I bis IV an. Wir gehen dabei von einer Urne mit drei Kugeln 1, 2 und 3 aus, aus der wir zwei Kugeln zufallig entnehmen. Betrachten wir
zunchst das Ziehen ohne Zurcklegen:

1. Grundlagen der Wahrscheinlichkeitstheorie

177

Mit Bercksichtigung der Anordnung erhalten wir aus dem Urnenspiel die folgenden 6 mglichen Ergebnisse (Wahrscheinlichkeiten in Klammem):
1-2

(1/6)

2-1

(1/6)

1-3

(1/6)

3-1

(1/6)

2-3

(1/6)

3-2

(1/6)

Die Wahrscheinlichkeit fr jedes Elementarereignis betrgt also 1/6, sodass eine


GleichwahrscheinlIchkeit selbiger gegeben ist.

Ohne Bercksichtigung der Anordnung reduziert sich die Anzahl der Elementarereignisse auf 3, da die oben in einer Zeile dargestellten Ergebnisse jeweils als gleichwertig betrachtet werden:
1-2

(1/3)

1-3

(1/3)

2-3

(1/3)

Wir erkennen, dass sich beim Ziehen ohne Zurcklegen durch Vernachlssigung

der Reihenfolge lediglich die Anzahl der Elementarereignisse und damit auch ihre
Wahrscheinlichkeit halbiert haben. Ihre Gleichwahrscheinlichkeit ist jedoch weiterhin gegeben.

Ziehen wir mit Zurcklegen unter Bercksichtigung der Reihenfolge, erhalten wir
folgende 9 mgliche Zweierkombinationen:
1-1

(1/9)

2-1

(1/9)

3-1

(1/9)

1-2

(1/9)

2-2

(1/9)

3-2

(1/9)

1-3

(1/9)

2-3

(1/9)

3-3

(1/9)

Auch hier ist eine GleichwahrscheinlIchkeit der Elementarereignisse gegeben, die


stets bei 1/9 liegt.

Vernachlssigen wir nun beim Ziehen mit Zurcklegen hingegen die Reihenfolge,
so reduziert sich die Zahl der Elementarereignisse zunchst auf 6, d.h. es liegen
konkret die Ausprgungen
1-1

(1/9)

1-2

(219)

2-2

(1/9)

1-3

(219)

2-3

(219)

3-3

(1/9)

vor. Eine Glelchwahrscheinlichkeit der Elementarereignisse ist nun aber nicht


mehr gegeben. whrend Kombinationen gleicher Zahlen eine Wahrscheinlichkeit
von 1/9 besitzen, weisen verschiedenartige Kombinationen eine wahrscheinlichkeit
von 2/9 auf.
In der Statistik sind daher vor allem das Ziehen ohne Zurcklegen und ohne Bercksichtigung der Anordnung (Situation III) und das Ziehen mit Zurcklegen und
mit Bercksichtigung der Reihenfolge (Situation I) und manchmal auch Situation II
von Bedeutung. Der Fall IV ist wenig relevant, da hier eine Gleichwahrscheinlichkeit der Elementarereignisse nicht gegeben ist und deswegen die Laplace-Formel
nicht angewendet werden kann.

11 Wahrscheinlichkeitsrechnung

178

Die folgende Abbildung soll zum Abschluss die wichtigsten Zusammenhnge der
Kombinatorik noch einmal bersichtlich darstellen.
Bercksichtigung der Reihenfolge
nein

ja
I

IV

Nn

ja

Zurcklegen

11

nein

N+n-lJ= (N+n-l)!
n
n!(N-l)!

NJ
( n n!=

N!
n! (N-n)!

N'

(N-~)!

Abbildung II 7: berblick Kombinatorik

1.5 Bedingte Wahrscheinlichkeiten


1.5.1

Definition und Interpretation

Oftmals hngt bei einem Zufallsexperiment die Wahrscheinlichkeit fr das Eintreten


eines bestimmten Ereignisses A vom Eintreten eines anderen Ereignisses B ab. Die
Wahrscheinlichkeit fr A unter der Voraussetzung (Annahme, Bedingung oder sogar mit dem Wissen), dass ein anderes Ereignis B bereits eingetreten ist oder
gleichzeitig mit A eintritt, wird als bedingte Wahrscheinlichkeit des Ereignisses
A unter der Bedingung B bezeichnet. Sie ist formal definiert als

P(A I B) = P(A n B)
P(B)

mit

P(B) > 0 .

(II1: 47)

Analog ergibt sich die bedingte Wahrscheinlichkeit des Ereignisses B unter der Bedingung Aals
P(B I A) = P(A n B) mit P(A) > 0 .
P(A)

(II1: 48)

Bedingte Wabrscheinlichkeiten werden hufig von unbedingten verschieden sein,


da sie zustzliche Informationen ber den Zufallsvorgang nutzen.
Beispiel 11 1-22

Bedingte Wahrscheinlichkeiten

Fr das Zufallsexperiment "ZWeimaliges Werfen eines Wrfels" wollen wir die folgenden
beiden Ereignisse
A: "Augensumme

4"

B: "erster Wurf = 111

nher betrachten. Grafisch lassen sich diese folgendermaen veranschaulichen:

179

1. Grundlagen der Wahrscheinlichkeitstheorie

6
5
Erster Wurf

3
2

A
A
AB

A
AB

AB

Zweiter Wurf
Es ergibt sich daraus
6
P(A)=:6' P(B) = 3 6 und p(AnB)=;6'
Die Wahrscheinlichkeit dafOr, dass die Augensumme hchstens 4 ist, wobei der erste Wurf
eine 1 ergab, ergibt sich nun nach (111 : 47) als
P(A I B)

P(A n B) = ~ = ~ = ~
P(B)
,,6 2

Es gilt also hier, dass die unbedingte Wahrscheinlichkeit kleiner als die bedingte ist.

Wie dieses Beispiel sehr schn zeigt, fhren Bedingungen stets zu einer Reduzierung des relevanten Ergebnlsraumes. Eine Bedingung stellt nmlich eine Beschrnkung auf Ereignisse dar, die auftreten, whrend ein anderes Ereignis vorher,
gleichzeitig oder hypothetisch aufgetreten ist. Aufgrund der Bedingung bernimmt
jetzt eine Teilmenge der Elementarereignisse die Rolle des sicheren Ereignisses.
Bedingte Wahrscheinlichkeiten gehorchen ebenso den Axiomen von Kolmogorov.
Es gilt fr alle Ben also P(A IB) ~ 0 fr jedes mgliche A c n, P(Q I B) = 1 und
falls A, n A, = 0 auch P(A, u A, I B) = P(A, I B) + P(A, I B). Zudem lassen sich
die unter II 1.3.1 definierten Stze auf bedingte Wahrscheinlichkeiten bertragen.

1.5.2

Multiplikationssatz

Der Multiplikationssatz ergibt sich durch einfache Umformung der Definition der
bedingten wahrscheinlichkeit. Er besagt, dass die wahrschelnllchkelt dafr,
dass zwei Ereignisse A und B glelchzeltig eintreten, bei P(A) > 0 als
P(A n B) = P(A) P(B IA)
ermittelt werden kann. Es gilt natrlich bei P(B) > 0 auch
P(A n B) = P(B) . P(A I B) .

Beispiel 11 1-23

(I1l: 49)
(I1l: 50)
Multiplikationssatz

In einer Urne befinden sich 2 rote und 3 schwarze Kugeln. Es werden nacheinander ohne
Zurucklegen zwei Kugeln gezogen. Betrachten wir in diesem Zusammenhang die folgenden beiden Ereignisse:
A: "Die erste gezogene Kugel ist rot."
B: "Die zweite gezogene Kugel ist rot."

11 Wahrscheinlichkeitsrechnung

180

Die Ergebnisse bzw. der Ablauf dieses zweistufigen Zufallsexperimentes lassen sich in
einem sog. Baumdiagramm (vgl. nachfolgende Grafik) anschaulich darstellen. Die Wahrscheinlichkeiten der auf jeder Stufe mglichen Ereignisse werden darin an den entsprechenden sten abgetragen. Auf der ersten Verzweigung finden sich so die Wahrscheinlichkeit von A und die seines Komplementrereignisses:
2
2 3
P(A)=S
--> P(A)=1-P(A)=1- =S
S
Die Wahrscheinlichkeit des Ereignisses B hngt nun vom Ausgang des ersten Zuges ab
und nimmt daher, wie wir im Baurndiagramm erkennen knnen, bedingte Werte an. Die
bedingte Wahrscheinlichkeit P(B IAl beschreibt z.B. die Wahrscheinlichkeit, beim zweiten
ZUg eine rote Kugel zu erwischen, wenn bereits beim ersten Zug eine rote Kugel entnommen wurde. Da sowohl die Zahl der roten Kugeln und damit auch die Gesamtkugelzahl in
der Urne durch das Ziehen einer roten Kugel beim ersten Zug um Eins abnimmt (Ziehen
ohne ZurOcklegen), gilt
P(BIA)= 2-1

5-1

=~.
4

Analoges gilt tOr die weiteren bedingten Wahrscheinlich kelten Im Diagramm.


MiHels dieser Daten lisst sich nun z.B. die Wahrscheinlichkeit, zweimal hintereinander
eine rote Kugel zu ziehen, folgendennaen angeben:
P(AnB) = P(A).P(BI A) = ~.~ = 1~
Diese nach dem Mulliplikationssatz entstehenden Wahrscheinlichkeiten geben die Wahrscheinlichkeiten der vier Elementarereignisse dieses Zufallsexperimentes an und warden
an den Endpunkten des Baumdiagrammes abgetragen:
P{BIA)",~

P{AnB) = P{A)P(B I A) =f~ =i

P(AnB) = P(A) .P(B I A) = ~t =~

P(nB) = P()P{B I ) =~i = ~

P(nB) - P() .P(B I ) - tt - ~

P{A) "'~
P(8IA) - ~
P{BI)=~
P()=~
P(BI) - ~

Zug 1

Zug 2

Ob die Berechnung der Werte des Baumdiagrammes korrekt durchgefOhrt wurde, kann
ganz einfach geprOft werden. Es muss nAmlich
P(AnB)+P(A nB)+P(nB)+P(nB) - 1
gelten.

1. Grundlagen der Wahrscheinlichkeitstheorie

181

Fr den Fall von drei Ereignissen A, Bund C kann der Multiplikationssatz folgendennaen dargestellt werden:
peC n Bn A) =peC I Bn A) peB I A) peA)

(I1l: 51)

Diesen Zusammenhang knnen wir recht einfach beweisen: Bezeichnen wir zur
einfacheren Darstellung zunchst den Durchschnitt B n A mit D, d.h.
D=BnA.
Es ergibt sich damit
pec nBn A) = pecn D) = pec I D) peD).
Ersetzen wir nun D wieder durch den Durchschnitt B n A , erhalten wir
peC nB nA) = peC I B nA) peBn A).
Fr peB n A) kann dann schlielich das Ergebnis des Multiplikationssatzes fr
zwei Ereignisse A und B eingesetzt werden:
peCn Bn A) =peC I B nA) peB I A) peA)
Beispiel 11 1-24

Multiplikationssatz fOr drei Ereignisse

Ein Fertigungslos umfasst genau 100 Bauteile. Davon sind in der Regel 10 % fehlerhaft.
Wie gro ist nun die Wahrscheinlichkeit, beim Ziehen (ohne Zurcklegen) einer Stichprobe
von 3 Stck genau 3 einwandfreie Bauleile zu erhaHen?
Zur Beantwortung dieser Frage definieren wir die folgenden drei Ereignisse:
A: "Erstes Bauteil fehlerfrei."
B: "Zweites Bauteil fehlerfrei."
C: "Drittes Bauteil fehlerfrei."
Es gilt fr die Wahrscheinlichkeit beim ersten Zug ein einwandfreies Bauteil zu erhalten

P(A)=~.
100

Die Wahrscheinlichkeit beim zweiten Zug ein einwandfreies Bauteil zu erhalten, unter der
Bedingung, dass bereits beim ersten Zug ein fehlerfreies Stck entnommen wurde, ergibt
sich als
P(B IA)= : : '
da durch die Entnahme sowohl die Gesamtzahl der Bauleile als auch die Anzahl der fehlerfreien Stcke um Eins abnimmt. Entsprechend ergibt sich die bedingte Wahrscheinlichkeit des Ereignisses C unter der Bedingung, dass vorher die Ereignisse A und B eingetre
len sind als
P(CI AnB) = 88.
98
Die Wahrscheinlichkeit, dass alle drei Bauteile in Ordnung sind, ergibt sich damit als
88 89 90
178
P(CnBnA)= P(CIBnA)P(B IA)-P(A) = 98 -99 -100 = 245 =0,7265_

182

11 Wahrscheinlichkeitsrechnung
Alternativ knnte hier auch mit der Laplace-Formel gerechnet werden. Sie liefert
0
P(CnBnA)

Anzahl der gnstigen Elementarereignisse = (93 ) = 07265.


Anzahl der mglichen Elementarereignisse C~O)

Zusatz:
Wie gro wre die Wahrscheinlichkeit im obigen Beispiel beim Ziehen mit Zurcklegen?

P(CnBnA)=~.~.~=
100 100 100

90' =09'=0729
100"

Fr eine beliebige Anzabl m von Ereignissen A,.A, ... ,A m c


ganges gilt der allgemeine Multiplikationssatz

eines Zufallsvor-

P(A, n ... n Am) = P(A , )' P(A, I A,)' .... P(Am I A, n ... n Am_l )

(II1: 52)

wobei P(A, n ... n Am_l ) > 0 gelten muss.

1.5_3

Unabhngigkeit von Ereignissen

Zwei Ereignisse A und Beines Zufallsvorganges werden als unabhngig bezeichnet, wenn das Eintreten des einen keine Infonnationen ber die Wahrscheinlichkei-

ten des Eintretens des anderen liefert bzw. die Wahrscheinlichkeit des Eintretens
des einen vollkommen unbeeinflusst davon ist, ob das Ereignis B eingetreten ist

oder nicht. Man spricht hier auch hufig von stochastischer Unabhngigkeit.
Ist das Ereignis A von Ereignis B unabhngig. so gilt (sofern P(A) > 0)
P(A I B) = P(A I B) = P(A) .

(II1: 53)

Damit ist natrlich auch das Ereignis B von A unabhngig und es gilt (bei P(B) > 0)
P(B I A) = P(B I A) = P(B) .

(II1: 54)

Aus diesen Zusammenhngen und dem bereits unter 1.5.2 behandelten Multiplikationssatz fr zwei Ereignisse A und B lsst sich durch einfaches Einsetzen der sog.
Multipllkationssatz fr unabhngige Ereignisse ableiten. Dieser ergibt sich als
P(A n B) = P(A) . P(B) .

(II1: 55)

Dieser Satz ist in zweierlei Hinsicht hilfreich. Er kann Zum einen dazu verwendet
werden Wahrscheinlichkeiten Zu bestimmen. wenn vorn Sachverhalt her klar ist,
dass zwei Ereignisse unabhngig sind. Zum anderen kann er dazu angewendet
werden. zu prfen. ob zwei Ereignisse A und B bei gegebenen Werten von P(A).
P(B) und P(A n B) unabhngig sind.
In diesem Zusammenhang wird in der Literatur hufig die sog. Vierfe1dertafe1

aufgefhrt. mit der sich fr zweistufige Zufallsexperimente Wahrscheinlichkeiten


anschaulich beschreiben bzw. darstellen lassen. Das typische Aussehen einer solchen Tafel ist in Abbildung II 8 dargestellt. Ihre Anwendung wird in Beispiel II 1-25
veranschaulicht.

1. Grundlagen der Wahrscheinlichkeitstheorie

183

Ereignis B

Ereignis B

Ereignis A

P(AnB)

P(AnB)

P(A)

EreignisA

P(AnB)

P(AnB)

P(A)

P(B)

P(B)

P(Q)

=1

Abbildung II 8: Vierfeldertafel

Beispiel 11 1-25

UnabhngigkeitsprOfung

Von den Kunden eines Supermarktes ist bekannt, ob sie mit der Parkplatzsituation (P) und
dem Service (S) zufrieden sind. 22 % der Kunden sind mit der Parkplatzsituation und 50 %
mit dem Service unzufrieden. Insgesamt 48 % der Kunden waren sowohl mit dem Service
als auch mit der Parkplatzsituation zufrieden. Es ergibt sich daraus die Vierfeldertafel:

I
I

P
P

0,48

0,30

0,78

0,02

0,20

0,22

0,50

0,50

1,00

I
I

Anhand dieses Zahlenmaterials wollen wir nun prOfen, ob die Ereignisse Sund P voneinander unabhngig sind. Im Unabhngigkeitsfall mOsste P(S n P) = P(S) P(P) gelten. FOr
die vorliegenden Befragungsresultate ergibt sich nun aber P(S) P(P) = 0,500,78 = 0,39.
Da dieser Wert nicht mit 0,48 bereinstimmt, sind die beiden Ereignisse Sund P nicht stochastisch unabhngig bzw. stochastisch abhngig.

Beispiel 11 1-26

Wahrscheinlichkeitsermittlung

Wie gro ist beim zweimaligen Werfen einer idealen Mnze die Wahrscheinlichkeit, zweimal "Kopf" zu erhalten?
Bei jeder einzelnen DurchfOhrung dieses Zufallsexperimentes ist die Wahrscheinlichkeit
"Kopf" zu werfen gleich 0,50. Die beiden Wrfe sind eindeutig voneinander unabhngig.
Fr die beiden Ereignisse
A: "Der erste Wurf zeigt Kopf"
B: "Der zweite Wurf zeigt Kopf"
liefert der Multiplikationssatz fOr unabhngige Ereignisse daher
P(AnB) = P(A)P(B) =0,500,50 = 0,25.

184

11 Wahrscheinlichkeitsrechnung

Fr den Fall von drei unabhngigen Ereignissen A, Bund C stellt sich der Multiplikationssatz fr unabhngige Ereignisse wie folgt dar:
P(A n B n C) = P(A) P(B) P(C)

(I1l: 56)

Die Ereignisse A, Bund C sind also nur dann voneinander unabhngig, wenn
P(A) = P(A I B)=P(A I C) =P(A I BnC)
P(B) = P(B I A)=P(B I C) =P(B I AnC) .
P(C) = P(C I A)=P(C I B) =P(C I A nB)
Beispiel 11 1-27

(II1: 57)

Drei unabhngige Ereignisse

Wie gro ist die Wahrscheinlichkeit beim dreimaligen Wrfeln dreimal hintereinander die

"6" zu erhalten?
Fr die im Falle eines fairen Wrfels eindeutig unabhngigen Ereignisse
A: "Erster Wurf = 6"
B: "Zweiter Wurf = 6"
C: "Dritter Wurf = 6"
gilt
1 1 1
1
P(AnBnC) = P(A)P(B)P(C) =-.-.- = - .

6 6 6

216

Fr eine beliebige Anzahl m unabhngiger Ereignisse A, gilt analog


P(A, n ... n Am) = P(A,)' .... P(A m ) .
Beispiel 11 1-28

(II1: 58)
m unabhngige Ereignisse

Wie gro ist die Wahrscheinlichkeit, dass beim europischen Roulette (Glcksrad mit 18
roten, 18 schwarzen und einem grnen Feld) 10-mal in Folge "rar erscheint?
Bezeichnen wir mit A; das Ereignis, dass das Rouletterad beim i-ten Drehen "rot" zeigt,
dann gilt fr die gesuchte Wahrscheinlichkeit
P(A,n ... nA,,)=P(A,) ... P(A,,)= 18)"
37
=0,00074.
(

In Abschnitt 1.5.2 dieses Kapitels wurde im Zusatz zu Beispiel II 1-24 eine Stichprobenentnahme mit Zurcklegen behandelt. Nur beim Ziehen mit Zurcklegen
erfolgen die Entnahmen unabhngig voneinander. Deswegen konnten wir im Beispiel einfach 0,9 . 0,9 . 0,9 rechnen und knnen bei derartigen Stichprobenentnabmen stets den Multiplikationssatz fr unabhngige Ereignisse heranziehen.
Abschlieend ist noch zu erwhnen, dass unabhngige Ereignisse nicht mit disjunkten Ereignissen verwechselt werden drfen. Fr zwei disjunkte Ereignisse A und B
gilt nmlich immer P(A n B) = O. Zwei disjunkte Ereignisse sind also nur dann un-

185

1. Grundlagen der Wahrscheinlichkeitstheorie

abhngig, wenn mindestens eines der Ereignisse die Wahrscheinlichkeit Null besitzt. Disjunkte Ereignisse mit positiver Wahrscheinlichkeit sind In hchstem Mae
abhngige Ereignisse, denn wenn eines von ihnen eintritt, dann kann das andere
gar nicht mehr eintreten.

1.5.4

Satz der totalen Wahrscheinlichkeit

Hinter dem Begriff der totalen Wahrscheinlichkeit verbirgt sich nichts anderes als
eine einfache Wahrscheinlichkeit. Der Zusatz "total" dient nur als Abgrenzung zur
bedingten Wahrscheinlichkeit, die sich nur auf eine Teilmenge von n bezieht.
Die einfache bzw. totale wahrscheinlichkeit eines Ereignisses B knnen wir berechnen, wenn wir seine bedingten Wahrscheinlichkeiten und die Wahrscheinlichkeilen der Bedingungen kennen. Sie ergibt sich dann als
P(B) = P(B I A) . P(A) + P(B I ) . P() .

(I1l: 59)

Den Beweis dieses Zusammenhangs wollen wir im Folgenden unter Nutzung von
Abbildung II 9 erbringen. Der Ergebnisraum n teilt sich hier auf in die disjunkten
Ereignisse A und A. Das Ereignis B setzt sich zusanunen aus den disjunkten Ereignissen B n A und B n . Nach dem Multiplikationssatz ist die Wahrscheinlichkeit
dieser Ereignisse durch
P(B n A) = P(B I A) . P(A)
und
P(B n ) = P(B I ) . P()
defmiert. Nach Axiom 3 folgt dann schlielich
P(B)

= P(B I A) . P(A) + P(B I ) . P() .

Abbildung II 9: Herleitung der totalen wahrscheinlichkeit I

Beispiel 11 1-29

Satz der totalen Wahrscheinlichkeit

An einer Fachhochschule lesen zwei Professoren die Fcher Mathematik und Statistik.
Aus Erfahrungswerten ergaben sich folgende Wahrscheinlichkeiten (M: "Mathematikklausur bestanden", S: "Statistikklausur bestanden"):
P(M} = 0,65, P(S I M} = 0,75, P(S I M} = 0,30

186

11 Wahrscheinlichkeitsrechnung
Wie hoch ist nun die Wahrscheinlichkeit die Statistikklausur zu bestehen?
P(S) = P(S I M) P(M) + P(S I M). P(M)

= 0,750,65+0,30 (1-0,65)
=0,5925
Analog zur obigen Herleitung kann die totale Wahrscheinlichkeit auch ennittelt
werden, wenn eine Aufteilung des Ergebnisraumes in mebr als zwei Teile vorliegt.
Besteht eine vollstndige Zerlegung des Ergebnisraumes in m Ereignisse A"A" ... ,A,.,

= 1,2, ... ,m mit i" p,


aber zusammen den Ergebnisraum ganz auffllen (A, uA, ... u Am = n),
die sich gegenseitig ausschlieen (A, n Aj

=0

fr alle j,i

und ist zustzlich P(A,) > 0 fr alle j = 1,2, ... ,m, so gilt fr ein jedes Ereignis Ben
folgender allgemeiner Satz der totalen Wahrscheinlichkeit:
m

P(B) = LP(B I A)' P(A j )

(I1l: 60)

1_'

Zur Veranschaulichung dieses Zusammenhangs betrachten wir auch hier zunchst


eine einfache grafische Darstellung, und zwar Abbildung II 10. Wie wir erkennen,
ergibt sich das Ereignis B als Vereinigung der disjunkten Ereignisse B n A" B n A"
... , B n A,.. Nach dem MultiplikationssalZ (I1l: 52) gilt fr die Wahrscheinlichkeiten
dieser Ereignisse aber gerade P(B n AI) = P(B I AI)' P(AI), sodass ihre Summe den
allgemeinen SalZ der totalen Wahrscheinlichkeit in (I1l: 60) ergibt.

Abbildung II 10: Herleitung der totalen Wahrscheinlichkeit II

Beispiel 11 1-30

Verallgemeinerter Satz der totalen Wahrscheinlichkeit

Ein Unternehmen stellt tglich 1.000 Konsumartikel auf drei Maschinen unterschiedlicher
Kapazitten und Ausschusswahrscheinlichkeiten her. Die Daten je Maschine sind in folgender Tabelle enthalten:
Maschine
Tagesproduktion
Ausschusswahrscheinlichkeit

200 SI.

100 SI.

2%

4%

700 SI.
1%

187

1. Grundlagen der Wahrscheinlichkeitstheorie

Wie gro ist die Wahrscheinlichkeit, dass ein zufllig ausgewhltes StOck aus der Tagesproduktion fehlerhaft ist?
Bezeichnen wir mit A, (i = 1,2,3) das Ereignis, dass ein ausgewhltes Stck auf der Maschine M, hergestellt wurde und mit B, dass es fehlerhaft ist, so lassen sich folgende
Wahrscheinlichkeiten angeben:

P(A)= 200 =020


, 1.000
'

P(BI A,) =0,02

)=~=010
1.000
'

P(B I A,) = 0,04

P(A)= 700 =070


,
1.000
'

P(B I A,) = 0,01

P(A

Nach dem Satz der totalen Wahrscheinlichkeit kann nun die gesuchte Wahrscheinlichkeit
P(B) damit wie folgt ermittelt werden:

P(B)= P(B I A,)' P(A,) +P(B I A,)' P(A,) + P(B I A,) P(A,)
= 0,020,20 +0,040,10 +0,010,70
= 0,015

1.5.5

Formel von Bayes

Die sog. Formel von Bayes bildet die Brcke zwischen zwei bedingten Wahrscheinlichkeiten, bei denen die Rollen von Bedingung und Ereignis vertauscht sind,
also beispielsweise zwischen P(A I B) und P(B I A) . Der bereits behandelte Multiplikationssatz fr zwei Ereignisse A und B stellt einen ersten Schritt zur Herleitung
dieser Fonnel dar. Er besagte folgendes:
P(A n B) = P(A I B) . P(B)
P(A n B) = P(B I A) . P(A)
Setzen wir die beiden rechten Seiten dieser Gleichungen gleich und nehmen anschlieend eine einfache Urnfonnung vor, so ergibt sich

P(A I B) . P(B) = P(B I A) . P(A)


bzw.
P(A I B) = P(B I A) . P(A) .
P(B)

(I1l: 61)

Nach dem Satz der totalen wahrscheinlichkeit knnen wir fr den Fall, dass sich
der Ergebnisraum n aus nur zwei Ereignissen A und A zusammensetzt, fr P(B)
P(B) = P(B I A) . P(A) + P(B I A) . P(A)
schreiben und in (111: 61) einsetzen. Das Resultat davon ist die Formel von Bayes,
bei der aber zu beachten ist, dass neben P(A) > 0 und P( A) > 0 auch P(B) > 0 gelten muss:
P(A I B) =

P(B I A) . P(A)
P(B I A) . P(A) + P(B I A) . P(A)

(I1l: 62)

188

11 Wahrscheinlichkeitsrechnung

Analog gilt natrlich auch


P(. I B) =

P(B I .) . P(.)
.
P(B I A) . P(A) + P(B I A) . P(A)

(II1: 63)

Bei Berechnungen mit der Formel von Bayes sind oft die komplementren Beziehungen P(A I B) + P(. I B) = 1 und P(A I B) + P(. I B) = 1 wertvoll. Es gilt jedoch
nicht P(A I B) + P(A I B) = 1 oder P(. I B) + P(. I B) = 1 .

Die Fonnel von Bayes ist besonders bei einer Situation interessant, bei der zwei
sich gegenseitig ausschlieende Ereignisse A und . als mglich erachtet werden
und ber die Chancen der einzelnen Zustnde (nmlich "wahrl! zu sein) Vermutungen bestehen, welche sich in Gestalt von Wahrscheinlichkeiten beschreiben lassen.
Die Werte P(A) und P(.) bezeichnen wir in diesem Zusammenhang auch als
a-priori-Wahrscheinlichkeiten der Ereignisse A und .. Wird nun ein Zufallsvorgang realisiert, wobei fr mgliche Ereignisse B dieses Zufallsvorganges die bedingten wahrscheinlichkeiten P(B I A) bzw. P(B I .) bestimmbar sind, so knnen
fr das tatschlich eintretende Ereignis B gem der Formel von Bayes die bedingten Wahrscheinlichkeiten P(A I B) und P(. I B) berechnet werden. Diese werden
auch als a-posteriori-Wahrscheinlichkeit der Ereignisse A und . bezeichnet
und als "Verbesserung" gegenber der a-priori-Wahrscheinlichkeit interpretiert, da
sie auf mehr Informationen ber das Eintreten von A und . fuen (gegeben durch
das Eintreten oder Nichteintreten von B) als P(A) und P(.). Wir knnen also sagen, dass die Formel von Bayes der Informationsverarbeitung dient.

Beispiel 11 1-31

Formel von Bayes

Bei der Herstellung eines Produktes ergibt sich aus Erfahrungswerten ein Anteil einwandfreier Teile von P(E) = 0,97. Nachdem die Erzeugnisse die Fertigungsstrae durchlaufen
haben, werden sie alle auf Funktionsfhigkeit getestet, wobei das dabei verwendete Testverfahren die Eigenschaften P(F I E) = 0,02 und P(F I E) = 0,999 aufweist. Dabei gilt F:
"Prfverfahren zeigt Defekt an".
Wie gro ist nun die Wahrscheinlichkeit dafr, dass ein Erzeugnis defekt ist, obwohl bei
der Qualittsprfung kein Mangel festgestellt wurde?
- P(E I F)

P(FIE)P(E)
P(F I E). P(E) + P(F I E). P(E)

(1-0,999)(1-0,97)
(1- 0,999) (1- 0,97) + 0,980,97

0,00003

Wie gro ist hingegen die Wahrscheinlichkeit dafr, dass ein Erzeugnis einwandfrei ist,
wenn bei der Kontrolle kein Mangel festgestellt wurde?
P(E I F) = 1-P(E I F) = 1-0,00003 = 0,99997
Whrend die a-priori-Wahrscheinlichkeit fOr ein einwandfreies Produkt bei 0,97 lag, ist die
a-posteriori Wahrscheinlichkeit, die zustzliche Informationen aus dem PrOfverfahren nutzt,
mit 0,99997 hier hher und verbessert die anfnglichen Erfahrungswerte. Die Wahrscheinlichkeit dafr, dass ein defektes Produkt an einen Kunden verkauft wird, sinkt somit drastisch.

189

1. Grundlagen der Wahrscheinlichkeitstheorie

In der Praxis wird die Fonnel von Bayes hufig zur Berechnung der Wahrscheinlichkeiten von Hypothesen (Annahmen) benutzt. Hier korrunt der Infonnations-

verarbeitungsgedanke der Fonnel von Bayes besonders zum Tragen. Veranschau-

lichen wollen wir dies direkt anhand eines hufig in der Literarur zu findenden Beispiels zum Zufallsvorgang Mnzwurf.

Beispiel 11 1-32

Hypothesen und Formel von Bayes

Beim Glcksspiel Mnzwurf vermutet ein Mitspieler, dass die Mnze zwei Zahlseiten besitzt. Dieser Annahme bzw. Hypothese, nmlich dem Ereignis A: "Mnze besitzt zwei Zahlseiten", rumt er die subjektive Wahrscheinlichkeit P(A) = 0,70 ein. Der Gegenannahme
bzw. AIte",-ativhypothese, es handle sich um eine faire Mnze, wird daher die Wahrscheinlichkeit P(A) = 0,30 zugeordnet.
Fllt nun beim ersten Wurf tatschlich "Zahl" (Ereignis B), sieht sich der Spieler in seiner
Beliirchtung besttigt und bestimmt unter Verwendung dieser neuen Information erneut die
Wahrscheinlichkeit daliir, dass es sich tatschlich um eine Mnze mit zwei Zahlseiten
handelt. Da fr eine Mnze mit zwei Zahlseiten P(BIA) = 1 und eine faire Mnze P(BI ) =
0,5 gilt, wird er daher die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass
vorher das Ereignis B eingetreten ist, wie folgt berechnen:
P(A I B) _

P(B I A) P(A)
P(B I A) P(A) + P(B I A) P(A)

10,70
10,70+0,50,30

0,8235

Wir knnen also sagen, dass sich durch den ersten Wurf die Wahrscheinlichkeit der Hypothese, es liege eine falsche Mnze mit zwei Zahlseiten vor, von 0,70 auf 0,8235 erhht.

Die oben definierte Formel von Bayes gilt nicht nur fr den Fall, dass sich der Ergebnisraum n in zwei disjunkte Mengen A und zerlegt, sondern entsprechend
auch fr allgemeinere Zerlegungen von n. Bilden die m Ereignisse A" A" ... Am eine
vollstndige Zerlegung des Ergebnisraumes n, liegt P(A) > 0 vor und ist B ein Ereignis mit P(B) > 0, dann gilt fr jedes A,
P(A, IB) = !(B I A) P(A,)

(I1l: 64)

LP(BIAj)'P(A j)
1_1

Zur Herleirung dieser allgemeinen Fonnel mssen wir lediglich den verallgemeinerten Satz der totalen Wahrscheinlichkeit (I1l: 60) in (I1l: 61) einsetzen und das Ereignis A entsprechend indizieren.

Beispiel 11 1-33

Verallgemeinerte Formel von Bayes

Auf drei verschiedenen Fertigungsanlagen F" F2 und F3 wird der gleiche DVD-Player-Typ
produziert. Fr diese Fertigungsanlagen liegt folgendes Datenmaterial vor:
Fertigungsanlage
Anteil an der Produktion
Ausschussanteil

F3

0,30
0,05

0,30
0,03

0,40
0,07

190

11 Wahrscheinlichkeitsrechnung
Aus der Gesamtproduktion wird nun zufllig ein DVD-Player entnommen. Wie gro ist die
Wahrscheinlichkeit, dass dieser auf F" F. bzw. Fa gefertigt wurde, wenn festgestellt wird,
dass er von einwandfreier Qualitt (al bzw. defekt (b) ist?
Aus dieser AufgabensteIlung lsst sich zunchst
P{F,) = 0,30, P{D I F,) = 0,05 -->

P{D I F,) = 1-0,05 = 0,95

P{F2 ) = 0,30, P{D I F2 ) = 0,03 -->

P{D I F2 ) = 1-0,03 = 0,97

P{F,)=0,40, P{D I F,) = 0,07 -->

P{DIF,)=1-0,07=0,93

ableiten, womit wir beide Fragestellungen beantworten knnen:


a) FOr die Berechnung der gesuchten Wahrscheinlichkeiten empfiehlt es sich zunchst
die totale Wahrscheinlichkeit P{D) zu ermitteln:
P{D) = P{D I F,). P{F,) +P{D I F2 ) P{F2 ) + P{D I F,) P{F,)
= 0,950,30+0,97 0,30 +0,930,40 = 0,948
Die bedingten Wahrscheinlichkeiten ergeben sich damit als
P{F 10)= P{D I F,)P{F,)
,
P{D)

0,950,30
0,948

0,3006

P{f I 0)= P{D I F2 ) P{F2 )


2
P{D)

0,97 0,30
0,948

0,3070

P{f 10)= P{D I F,)P{F,)


,
P{D)

0,930,40
0,948

0,3924

und ergeben in der Summe natOrlich Eins.


b) Die hier zu berechnenden bedingten Wahrscheinlichkeiten erfordern zunchst die Bestimmung von P{D). Der Wert dafr ergibt sich als
P{D) = P{D I F,) P{F,)+P{D I F2 ) P{F2 )+P{D I F,)' P{F,)
oder
P(D) = l-P(D) = 1-0,948 = 0,052.
Die gesuchten bedingten Wahrscheinlichkeiten, die auch hier in der Summe wieder
Eins ergeben massen (ggf. Rundungsungenauigkeiten), ergeben sich damit zu:
P{f ID)=P{DIF,).P{F,)
,
P{D)

0,050,30 02885
0,052'

P(f ID)=P{DIF2 )P{F2 )


2
P{D)

0,03.0,3=01731
0,052'

P{f I D)= P{D I F,)P{F,)


,
P{D)

0,070,40 05385
0,052'

Diese Teilaufgabe knnen wir dazu verwenden eine wichtige Interpretationsmglichkeit


der Formel von Bayes zu beschreiben: "Betrachten wir die Ereignisse F, als Ursachen,
die eine gewisse Wirkung, nmlich das Ereignis D, auslsen, liefert die Formel von
Bayes die Mglichkeit, die Wahrscheinlichkeit dafr auszurechnen, dass der beobachteten Wirkung eine der Ursachen F; zugrunde liegt." So ist beispielsweise die Wahrscheinlichkeit dafOr, dass das gefundene defekte Stack (Wirkung) von Fa stammt (Ursache), mit 0,5385 am grOten.

191

1. Grundlagen der Wahrscheinlichkeitstheorie

Beispiel 11 1-34

Dreitorespiel

Die frher sehr beliebte Gameshow "Geh aufs Ganze" mit Moderator Jrg Drger endete
gewhnlich mit dem sog. "Superdeal". Dabei konnte ein Spieler seinen in der Show gewonnenen Preis setzen und hatte dadurch die Mglichkeit in einem "Drei-Tore-Spiel" ein
Auto zu gewinnen. Dem Spieler standen dabei drei Tore zur Auswahl. In einem befand
sich ein Auto und in den beiden anderen ein "Zonk" (Stoffpuppe). Nachdem sich der Spieler fOr ein Tor entschieden hatte, ffnete der Showmaster eines, das der Spieler nicht gewhlt hatte. Anschlieend hatte der Spieler erneut die Gelegenheit sich fr ein anderes Tor
zu entscheiden oder bei dem bereits gewhlten zu bleiben.
Nehmen wir an, dass sich der Spieler fOr das Tor 1 entschieden hat und betrachten dazu
folgende drei Flle. Das x kennzeichnet dabei jeweils die Position des Autos.
Tor 1
x

Fall 1
Fall 2
Fall 3

Tor 2

Tor 3

x
x

Welche Strategie sollte dieser Spieler, der sich anfnglich fOr Tor 1 entschieden hat, nun
nach ffnung eines Tores durch den Showmaster verfolgen? Bei einer B/eibestrategie gewinnt der Spieler nur im Fall 1. Im Fall 2 und 3 wrde er das Auto nicht gewinnen, falls er
weiterhin Tor 1 whlt. Deswegen fhrt die Wechse/strategie in den Fllen 2 und 3 zum
Gewinn des Autos. Dies gilt, da der Showmaster grundstzlich ein "leeres Tor" (Tor ohne
Auto bzw. mit "Zonk") ffnet bzw. aus dem Spiel nimmt. Die nachfolgenden Berechnungen
sollen diese Strategien nun noch nher beleuchten. Wir verwenden dabei die Ereignisse
S,: "Der Showmaster ffnet Tor L" und T,: "Das Auto befindet sich hinter Tor L":
Die Wahrscheinlichkeit, das Tor mit dem Auto bei der ersten Auswahl eines Tores zu erwischen, liegt bei

P(T,) = P(T,) = P(T,) = 3'


Hat sich der Spieler fr Tor 1 entschieden, bleiben dem Showmaster nur noch zwei Tore,
die er ffnen kann. Berechnen wir nun die unbedingte Wahrscheinlichkeit dafOr, dass der
Showmaster Tor 3 ffnet. Wir erhalten sie ber den Satz der totalen Wahrscheinlichkeit zu
P(S,) = P(S, I T,)P(T,)+ P(S,I T,)P(T,) +P(S, I T,)P(T,)
1 1
1
1 1
=--+1-+0-=-.

2 3

Die darin verwendeten bedingten Wahrscheinlichkeiten ergeben sich wie folgt: Die Wahrscheinlichkeit dafr, dass der Showmaster Tor 3 ffnet, wenn das Auto in Tor 1 ist, liegt bei
P(S,IT,) = 0,5, da es in diesem Fall egal ist, welches der Tore 2 oder 3 er aus dem Spiel
nimmt. Ist das Auto in Tor 2, liegt die Wahrscheinlichkeit dafr, dass er Tor 3 ffnet, bei
P(S,IT,) = 1, da er das Auto nicht fruhzeitig aus dem Spiel nimmt und naturlich auch nicht
das Tor des Spielers ffnen kann. Aus den gleichen Grunden wird er nicht Tor 3 Offnen,
wenn das Auto in Tor 3 ist, sodass P(S,IT,) = 0 gilt.
Nach den gleichen berlegungen knnen wir auch die unbedingte Wahrscheinlichkeit
P(S,) = 0,5 bestimmen.

192

11 Wahrscheinlichkeitsrechnung
Es gilt nun nach der Formel von Bayes

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 2 befindet, nachdem der Showmaster Tor 3 geffnet hat
P(T IS )=P(S,IT2)P(T2)
2'
P(S,)

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 3 befindet, nachdem der Showmaster Tor 2 geffnet hat
P(T IS )=P(S2I T,).P(T,)
'2
P(S2)

q=~.
t 3

!:.L~.

fiir die Wahrscheinlichkeit, dass sich das Auto in Tor 1 befindet, nachdem der Showmaster Tor 3 geffnet hat
P(T IS)= P(S, IT,)P(T,) = H =.1..
"
P(S,)
t 3

fur die Wahrscheinlichkeit, dass sich das Auto in Tor 1 befindet, nachdem der Showmaster Tor 2 geffnet hat
P(T 1S ) = P(S21 T,)P(T,) =U =.1..
, 2
P(S2)
t 3

Die Wahrscheinlichkeitsrechnung empfiehlt dem Spieler also einen Wechsel des Tores,
nachdem der Showmaster eines der beiden anderen Tore geffnet hat, da die Gewinnwahrscheinlichkeit der Wechselstrategie bei 2/3 und nicht wie bei der Bleibestrategie bei
1/3 liegt. Auch hieran ist die Bedeutung der Formel von Bayes wieder sehr schn erkennbar. Es wird nmlich die zustzliche Information berucksichtigt, die sich durch die ffnung
des Tores durch den Showmaster ergibt.
Diese Berechnungen knnen analog fr die Flle, in denen sich der Spieler anfnglich fr
Tor 2 oder 3 entscheidet, durchgefiihrt werden. Auch hier zeigt sich, dass der Spieler mit
einer Wechse/strategie die bessere Chance zum Gewinnen des Autos hat.

2.

Zufallsvariablen

Ein wichtiges Thema der Wahrscheinlichkeitsrechnung stellen Zufallsvariablen dar, da sie


die praktische Anwendung von stochastischen Modellen erheblich erleichtern. Wir widmen uns zunchst zwei Klassen von eindimensionalen Zufallsvariablen (stetigen und
diskreten). FOr beide Klassen beschftigen wir uns nher mit der dazugehrigen Wahrscheinlichkeits- und Verteilungsfunktion sowie der Berechnung von Erwartungswert und
Varianz. Des Weiteren gehen wir ausfOhrlich auf mehrdimensionale Zufallsvariablen ein
und legen hier den Schwerpunkt insbesondere auf die Korrelation und Linearkombination
von Zufallsvariablen.

2.1

Begriff der Zufallsvariable


Im vorhergehenden Kapitel wurden den Elementarereignissen und anderen Ereig-

nissen eines Zufallsexperimentes Wahrscheinlichkeiten zugeordnet. Bei der Betrachtung eines Zufallsexperimentes treten nun aber hufig Situationen auf, die es

erforderlich machen, den Elementarereignissen zunchst reelle Zahlen und erst diesen reellen Zahlen Wahrscheinlichkeiten zuzuordnen. Typische Flle dafr sind:

Als Elementarereignisse werden qualitative Gren beobachtet (z.B. "Mann",

"Frau l1 oder "Europer", ItAmerikaner", "Afrikaner") fr die man eine Codierung


in ein Zahlensystem wnscht.
Es interessiert nicht die gesamte Vielfalt der mglichen Versuchsausgnge,

sondern nur bestinunte Merkmale (z.B. die Anzahl defekter Gerte aus einer
Lieferung oder die Augensumme beim dreimaligen Wrfeln).

Nicht bei allen Zufallsexperimenten ist eine Codierung (Zuordnung reeller Zahlen
zu den Elementarereignissen) erforderlich. Bei manchen Zufallsexperimenten sind
die Ergebnisse bereits reelle Zahlen.
Beispiel 11 2-1

Codierung

Ergebnisse sind bereits reelle Zahlen:


Einmaliger WOrfelwurf (Augenzahl), Stichprobe aus der laufenden Produktion (Anzahl
fehlerhafter StOcke), Rendite eines Wertpapiers in einer Periode

Beispiele fOr Codierung:


Europisches Roulette: "grn" --+ 0, "schwarz" --+ 1, "rot"
Befragung nach Geschlecht: "Mann" -+ 0, "Frau" -+ 1

---+

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_7, Springer Fachmedien Wiesbaden 2015

194

11 Wahrscheinlichkeitsrechnung

Eine Funktion X, die jedem Elementarereignis 00 E n genau eine reelle Zahl X(oo)
R zuordnet, wird als ZufalJsvariable oder stochastische Variable bezeichnet.
Anders ausgedrckt, bildet also die Zufallsvariable X die Elemente von n auf die
reelle Zahlengerade ab (vgl. Abbildung II 11). Zufallsvariablen werden im Allgemeinen mit groen lateinischen Buchstaben bezeichnet. Man verwendet dabei bevorzugt jene am Ende des Alphabets, d.h .... , X, Y, Z. Die einzelnen Werte, die eine Zufallsvariable X bei Durchfhrung des Zufallsexperimentes annimmt, heien
Reallsationen (Ausprgungen) der Zufallsvariablen und werden mit den entsprechenden kleinen lateinischen Buchstaben x" x" ... bezeichnet. Wir knnen daber
E

X(ooj) =

(II2: 1)

Xi

schreiben. Den Ergebnisraum n nennen wir Deftnitionsberetch der Funktion X. Die


Menge der reellen Zablen ist ihr Wertebereich. Der Wertebereich muss jedoch nicht
zwangslufig alle reellen Zablen umfassen.
Defmitionsbereich

---------~)

Wertebereich

00
n

- -- - --- - --- - -- - --- - -- - --- - --- - -- - --- - --- - -- - ---

-:

-- - --- - -- - --- - -- - --- - --- - -- - --- - --- - --

--,,

:,

v
~E~-+--r-~-+-~-r~-r--)~x

-1

Abbildung II 11: Zufallsvariablen als Abbildung von n auf die reelle Achse
Beispiel 11 2-2

Definitions- und Wertebereich

Beim Zufallsexperiment "Zweimaliges Werfen einer Mnze" wollen wir die Frage untersuchen, wie oft "Kopf" erscheint. Wir definieren dazu die Zufallsvariable X: "Anzahl Kopf",
die drei mgliche Realisationen x, = 0, X:! = 1 und"" = 2 besitzt. Der Wertebereich der Zufallsvariable X ergibt sich dabei durch folgende Zuordnung:
Definitionsbereich

X(ID;) = x;

-----'--'-----;)~

Wertebereich

- --- - --- - -- - --- - -- - - -- - --- - -- - - --- - -- - --- - -- -

----,

,,
,,

CD, =KZ

--------------------1___________________

ro, = KK

(ll.

,,

___________ : ___________
___________ J

,,

= ZK

:
E

'IV

Xl

---:::

=0

,,
'

:
:

2. Zufallsvariablen

195

Beispiel 11 2-3

Weitere Zufallsvariablen

Wird ein fairer Wurfel zweimal geworfen, ergibt sich ein Ergebnisraum mit 36 Elementarereignissen der Form n = {(i,i): i = 1,2, ... ,6 und j = 1,2, ... ,6}. Typische Zufallsvariablen fUr
ein solches Zufallsexperiment sind z.B.
o
X: "Augensumme" mit den 11 Ausprgungen x = 2,3, ... ,12 und
o
Y: "Absolutbetrag der Augendifferenz" mit den 6 Ausprgungen y = 0,1,2, ... ,5.

Unsere bisherigen Ausfhrungen lassen erkennen, dass bei der Definition einer Zufallsvariable, Wahrscheinlichkeiten keine Rolle spielen. Weder ist die Zuordnung
der X(ro) zu den ro E n zufllig, noch ordnen Zufallsvariablen Wahrscheinlichkeiten zu. Den mglichen Realisationen einer Zufallsvariable werden hingegen
Wahrscheinlichkeiten zugeordnet. Wie dies geschieht, werden wir im Folgeabschnitt II 2.2 im Detail behandeln.
Die meisten in der Praxis vorkommenden Zufallsvariablen knnen in zwei Typen
aufgeteilt werden. Es ist zu unterscheiden zwischen stetigen und diskreten Zufallsvariablen. Kriterium fr die Aufteilung sind die Ergebnisrume, ber die die jeweiligen Zufallsvariablen definiert sind.
o
Diskrete Zufallsvariablen
Wird eine Zufallsvariable ber einem endlichen Ergebnisraum definiert, umfasst sie auch nur endlich viele Realisationen. Solche Zufallsvariablen, deren

Wertevorrat nur endlich oder abzhlbar unendltch viele Ausprgungen besitzen, werden als diskrete Zufallsvariablen bezeichnet.! Ihre Ausprgungen
werden ber einen Zhlvorgang ermittelt. Es gilt also
W={X1,X 2,X"",} mit WeR.

Typische Beispiele fr diskrete Zufallsvariablen sind etwa X: "Anzahl Kopf


beim dreimaligen Mnzwurf' oder Y: "Anzahl defekter Glhbirnen in einer
Stichprobe von 10 Stck".
Stetige (kontinuierliche) Zufallsvariablen
Diese Zufallsvariablen knnen zumindest in einem bestimmten Bereich der
reellen Zahlen jeden belteblgen Wert annehmen. Ihre Ausprgungen werden
ber einen Messvorgang bestimmt. Es gilt
W={xlaSxSb} mit WeR.
Theoretisch kann der Wertevorrat auch aus der ganzen reellen Achse bestehen. Es gilt dann W = R. Als typische Beispiele fr stetige Zufallsvariablen
sind z.B. X: t'Zeitaufwand zur Produktion eines Werkstcks lt oder Y: IIGewicht
einer zufllig aus einer Abfllanlage entnommenen lL-Flasche ll ZU nennen.

Wie diese Beispiele erkennen lassen, knnen wir jedes Zufallsexperiment mit reellwertigen Elementarereignissen (z.B. Aktienrenditen) automatisch als Zufallsvariable
auffassen, indem wir X(ro) = ro fr jedes roE n setzen. Es soll auch nicht unerwhnt bleiben, dass sich stetige Zu[allsvariablen aufgrund nicht beliebig erhhbarer
Messgenauigkeit in der Praxis streng genommen hufig nur diskret et!assen lassen.
1 Eine Menge wird dann abzhlbar unendlich genannt, wenn sie zwar unendlich viele Elemente besitzt, sich aber jedem einzelnen Element eine natrliche Zahl zuordnen lsst.

196

11 Wahrscheinlichkeitsrechnung

Die Ntzlichkeit von Zufallsvariablen begrndet sich zum einen dadurch, dass
durch sie das umstndliche Rechnen mit Elementarereignissen und Ereignissen
weitgehend entI:illt. Zum anderen knnen mit ihrer Hilfe bestinunte Ereignisse statt
als Teilmengen von Cl krzer dargestellt werden. Typische Beispiele dafr sind:
"X nimmt (genau, mindestens oder hchstens) den Wert x an."
Neue Darstellung: X = x, X ~ x, X S x

"X nimmt Werte zwischen a und ban."


Neue Darstellung: a'" X ,., b

Besonders bei der Berechnung von Wahrscheinlichkeiten wird sich diese neue
Schreibweise im Folgenden noch als sehr vorteilbaft erweisen.

2.2 Diskrete Zufallsvariablen


2.2.1

Wahrscheinlichkeitsfunktion

Ist X eine diskrete Zufallsvariable, die endlich viele Werte

X 1 ,X 2J ... ,xn

annehmen

kann, so ergibt sich die Wahrscheinlichkeit, dass X eine spezielle Ausprgung Xi


annimmt, d.h. p(X = x), durch Addition der Wahrscheinlichkeiten detjenigen
Elementarereignisse ~, denen die Realisation X, zugeordnet ist. Es gilt also formal
p(x = x) =

X(Olj)=Xj

Beispiel 11 2-4

P(coJ).

(112: 2)

Wahrscheinlichkeiten und Zufallsvariablen

Ein idealer Wrfel werde zweimal geworfen. Die betrachtete Zufallsvariable X sei die Au
gensumme. Der Ergebnisraum und die einzelnen Realisationen der Zufallsvariablen (hoch
gestellte Zahlen) sind durch folgende Tabelle beschrieben:

4
5

(1,1)

(1,2)

(2,1)

(2,2)

(3,1)

(3,2)

(4,1)

(5,1)

(6,1)

(1,3)
(2,3)
(3,3)

(4,2)

(4,3)

(5,2)

(5,3)

(6,2)

(6,3)

1.

(1,4)
(2,4)
(3,4)
(4,4)
(5,4)
(6,4)

(1,5)

(2,5)

(3,5)

(4,5)

1.

(5,5)

11

(6,5)

1.
11

"

(1,6)
(2,6)
(3,6)
(4,6)
(5,6)
(6,6)

Jedem dieser 36 gleichwahrscheinlichen Elementarereignisse wird nach der klassischen


Wahrscheinlichkeitsdefinition die Wahrscheinlichkeit 1/36 zugeordnet. Die Wahrscheinlichkeiten der unterschiedlichen Ausprgungen der Zufallsvariablen X ergeben sich durch
Addition der Wahrscheinlichkeiten der dazugehrigen Elementarereignisse wie folgt:

P(X= x;)

1/36

2/36

456
3/36

4/36

5/36

10

11

12

6/36

5/36

4/36

3/36

2/36

1/36

2. Zufallsvariablen

197

Mit diesem Beispiel knnen wir sehr schn veranschaulichen, warum wir in Formel (112: 2)
zwei Indizes i und j bentigen. Fr das Zufallsexperiment, das wir hier betrachten, existieren nmlich genau 36 Elementarereignisse ~ mit j = 1, ... ,36. Fr die Augensumme gibt es
jedoch nur 11 mgliche Werte x; mit i = 1, ... ,11. Jedem i wird also mehr als ein j zugeordnet, sodass wir nicht allein mit einem Index auskommen.

Eine Funktion fex), die jeder reellen Zahl x die Wahrscheinlichkeit zuordnet, mit
der sie bei dieser diskreten Zufallsvariablen X auftritt, heit Wahrschelnllchkeitsfunktion der Zufallsvariablen. Fr sie gilt
fex) = {

P(X = x) falls x =

sonst

Xi

(112: 3)

Die Wahrscheinlichkeitsfunktion ist auf der gesamten reellen Achse ~ < x < ~
definiert und hat nur an den Stellen x = x" die zum Wertevorrat der Zufallsvariablen gehren, nichtnegative Werte p(x = x,). Dazwischen ist sie Null.
Jede Wahrscheinlichkeitsfunktion muss die Eigenschaften

o~ fex) ~ 1 und

~)(x) = 1 fr jeweils i = 1,2, ...

(112: 4)

etfllen. Wie aus diesen Eigenschaften zu erkennen ist, haben die Wahrscheinlichkeiten fex,) die gleichen Eigenschaften wie die im Rahmen der deskriptiven Statistik
behandelten relativen Hufigkeiten. Die Wahrscheinlichkeitsverteilung ist damit ein
Analogon zur Verteilung der relativen Hufigkeiten. Auch die grafische Darstellung
der Verteilung in Fonm eines Stahdiagrammes ist hnlich.

Beispiel 11 2-5

Wahrscheinlichkeilsfunktion

Fr eine Zufallsvariable X: "Anzahl defekter Zndkerzen in einer 3er-Box" ergaben sich


folgende Realisationen und zugehrige Wahrscheinlichkeiten:

o
f(x;)

0,125

0,375

0,375

0,125

1,000

Grafisch l!isst sich diese Wahrscheinlichkeitsfunktion wie folgt skizzieren:


f(x)
0,375
0,250
0,125
0,000

198

11 Wahrscheinlichkeitsrechnung

Mit Hilfe der Wahrscheinlichkeitsfunktion kann natrlich auch angegeben werden,


wie gro die Wahrscheinlichkeit dafr ist, dass die Zufallsvariable einen Wert in
einem Intervall [a, bl annimmt. Es gilt nmlich
P(aSXSb)=

P(X=x)=

aS:x. S:b

fex).

(H2: 5)

aS:x. S:b

Beispiel 11 2-6

Anwendung von (112: 5)

Stellen wir im Zusammenhang mit Beispiel 11 2-5 die Frage, wie gro die Wahrscheinlichkeit dafr ist, dass 1 oder 2 defekte Stcke auftreten, so kann diese folgendennaen beantwortet werden:

P(I'; X,; 2) =

f(x,) =0,375+0,375 =0,75

1:S:xl S:2

Die einfache Addition lsst sich damit begrnden, dass die beiden Ereignisse X = 1 und
X = 2 disjunkt sind.

2.2.2

VerteIlungsfunktion

Eine Funktion, die die Wahrscheinlichkeit dafr angibt, dass eine Zufallsvariable X
hchstens den Wert x annimmt, bezeichnet man als Vertellungsfunktion F(x) der
Zufallsvariablen X. Die Werte der Verteilungsfunktion lassen sich durch Aufsummieren derjenigen Funktionswerte der Wahrscheinlichkeitsfunktion ermitteln, die
zu den Ausprgungen Xi S x gehren.
F(x) = p(X S x) =

L fex)

(112: 6)

",.>

Wie wir hieraus gut erkennen knnen, ist die Verteilungsfunktion ein Analogon zur
Summenhufigkeitsfunktion aus der deskriptiven Statistik. Das Bild der Verteilungsfunktion einer diskreten Zufallsvariable ist daher auch das einer Treppen/unktion.
Fr eine Verteilungsfunktion ergeben sich aus ihrer Definition die Eigenschaften:

1. Der niedrigste Wert von F(x) ist Null, der hchste Eins. F(x) nimmt also nur
Werte zwischen F(-) = und FC+oo) = 1 an, d.h. es gilt

OSF(x)Sl

fr alle

XE

IR.

Die Funktion F(x) besitzt also die beiden Grenzwerte F(x)


F(x) ~ 1 fr X ~ +~.

0 fr x

~ ~

und

2. F(x) steigt fr wachsendes x monoton an oder bleibt zumindest auf gleicher


Hhe. Dies bedeutet, dass fr alle - S a S b S +00 Folgendes gilt:
F(a) S F(b)
3. Die Verteilungsfunktionen diskreter Zufallsvariablen weisen eine typische Treppen/arm auf. Ihr Funktionswert verharrt auf dem gleichen Niveau und springt
an den Stellen", um den Betrag der Wahrscheinlichkeit P(X = x) nach oben.
An den Sprungstellen selbst gilt der "obere" Wert.

2. Zufallsvariablen

199

Beispiel 11 2-7

Verteilungsfunktion

Betrachten wir die Zufallsvariable X: "Anzahl der Kpfe beim einmaligen MOnzwurf". Da die
Wahrscheinlichkeit Kopf zu werfen 0,5 betrgt, beschreibt die folgende Tabelle die Wahrscheinlichkeits- und Verteilungsfunktion dieser Zufallsvariablen.

x,
f(x,)

0,5

F(x,)

0,5

0,5
1,0

Die Werte F(x,) entstehen, einfach ausgedruckt, immer durch Addition von f(x,) und aller
"vorhergehenden" Werte der Wahrscheinlichkeitsfunktion (Beispiel: F(I) = f(l) + f(O) = 0,5
+ 0,5 = 1,0). Die Verteilungsfunktion ist hier konkret durch die folgende Grafik und Funktion gegeben:
F(x)
1,0
fr

x<O

F(x) = E5 fr OSx<1
1,; x
fr

0,5

Unter Zuhilfenahme der Verteilungsfunktion Fex) lsst sich die Wahrscheinlichkeit,


dass eine diskrete Zufallsvariable X einen Wert im Intervallla,bl annimmt, einfach
berechnen. Es gilt nmlich fr alle a,b mit ~,; a'; b,; +00 stets die Beziehung
pea < X'; b) = Feb) - Fea).2

012: 7)

Allgemein erleichtert die Verwendung von Fex) die Berechnung von Wahrscheinlichkeiten spezieller Ereignisse erheblich, was folgendes Beispiel verdeutlichen soll.

Beispiel 11 2-8

Wahrscheinlichkeitsberechnung und Verteilungsfunktion

Die Anzahl der in einer Reparaturwerkstatt pro Stunde abgefertigten Pkw besitzt folgende
Verteilungsfunktion. Wie sich damit zunchst zeigen lsst, knnen wir aus der jeweiligen
SprunghOhe von F(x) die Werte f(Xi) ermitteln:
x,

F(x,)

0,7

0,9

1,0

f(x,)

0,4

::

0,4
0,3
0,2
0,1

2 Es gilt auch pex>a)-1- pexSa)-1- Fea), pex<a)-pexSa) - Pex-a)-Fea) - pex-a),


pex;, a) = 1- peX < a) = 1- Fea) + peX = a). Daraus folgt pea'; X,; b) = F(b) - Fea) + pex = a),
pea < X < b) - F(b) - pex - b) - Fea) und pea S X < b) - F(b) - pex - b) - Fea) + pex - a).

200

11 Wahrscheinlichkeitsrechnung
Gesucht sind nun die Wahrscheinlichkeiten dafOr, dass
a) genau 1 Pkw abgelertigt wird,
b) weniger als 2 Pkw die Werkstatt verlassen,
c) mindestens 1, aber hchstens 3 Pkw in einer Stunde abgelertigt werden, und
d) die Wahrscheinlichkeit dalr, dass mindestens 2 Pkw repariert werden, sowie
e) die gralische Darstellung der Verteilungslunktion.
Lsungen:

a)

P(X= 1) = P(XS 1)-P(X S 0) = F(I)-F(O) = 0,7-0,4 = 0,3


AHernativ: 1(1) = 0,3

b)

P(X< 2) = P(X ,; 1) = F(I) = 0,7


AHernativ: 1(0)+1(1)=0,4+0,3=0,7

c)

P(1 S XS3) = P(O < X S 3) = F(3)-F(0) = 1,0-0,4 = 0,6


Alternativ: 1(1)+1(2) +1(3) = 0,3+0,2+0,1 = 0,6

d)

P(X:' 2) = 1-P(X'; 1) = 1-F(I) = 1-0,7 = 0,3


Alternativ: 1(2)+1(3)=0,2+0,1=0,3

e) Gralische Darstellung:
F(x)
1,0 - ----- -- ----- ----- -- ----- - - - . , - - - -

0,8
0,6
0,4
0,2

2.2.3

---'
,,

,
----,
,
,

Zusammenfassende Gegenberstellung

Diesen ersten Abschnitt zu diskreten Zufallsvariablen wollen wir mit einer Zusammenfassung der Zusammenhnge zwischen Wahrscheinlichkeits- und Verteilungsfunktion abschlieen (vgl. insbesondere die Abbildung auf der nchsten Seite). Das
Verstndnis dieser Beziehungen ist fr die folgenden Abschnitte besonders wichtig.
Die Verteilungsfunktion F(x) lsst sich leicht aus der Wahrscheinlichkeitsfunktion
f(x) durch Aufsummieren derjenigen Werte von f(x) gewinnen, die zu den Ausprgungen Xi ,; X gehren. Es gilt nmlich nach (112: 6)
F(x) = P(X ,; x) =

L fex,) .

Dieses Vorgehen ist der Grund fr die Sprnge von Verteilungsfunktionen diskreter
Zufallsvariablen an den Stellen x = x,.

2. ZUfallsvariablen

201

Aus der Verteilungsfunktion F(x) lsst sich umgekehrt auch wieder die wahrscheinlichkeitsfunktion f(x) ableiten, indem wir an jeder Stelle x von ihrem Funktionswert
den linksseitigen Grenzwert abziehen:
fex) = F(x) - !im F(x - Ax)

(II2, 8)

h~

Da diese Differenz bzw. f(x) nur an den Sprungstellen


denen Wert annimmt, knnen wir alternativ auch

einen von Null verschie(II2, 9)

schreiben. Um die Wahrscheinlichkeit der Realisation X, zu bestimmen, mssen wir


also lediglich vom Funktionswert der Verteilungsfunktion an der Stelle X, ihren
Funktionswert fr die nchstkleinere Realisationsmglichkeit abziehen. Diese Vorgehensweise ist uns bereits im Beispiel 11 2-8 begegnet.
F(x)

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~'
}

!
,

....._ . .ir''''')

f~) - F(x.;)-F(J:,)

, x

fex)

fex.)
f(x 5 )

~ ~~~~~~~~~~~~~~~~~~~~

I
X,

1I I
x,

x,

x,

x,

Abbildung n 12: Zusammenhang Wahrscheinlichkeits- und Verteilungsfunktion

202

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-9

Abschlieendes Beispiel zu diskreten Zulallsvariablen

Fr eine diskrete Zulallsvariable X ergab sich folgende lckenhafte Wahrscheinlichkeitsund Verteilungslunktion. Es gilt nun die lehlenden Werte a, b, c und d zu ermitteln, wobei
bekannt ist, dass P(3 < X ,; 5) = 0,5 gilt.

2
0,1
0,1

0,2

3
b
d

0,2
1,0

0,8

1,0

Die gesuchten Werte ergeben sich wie lolgt:


a = F(2) = 1(2)+1(1) = 0,2+0,1 =0,3
d = F(3) ..... P(3 < X,; 5) = F(5) -F(3) = 0,5 ..... F(3) = 1,0-0,5 = 0,5
b = 1(3) = F(3)-F(2) = 0,5 -0,3 = 0,2
O,I+0,2+0,2+c+O,2 = 1 ..... c =0,3
Der Wert von c liee sich auch schneller uber den lolgenden Zusammenhang emnitteln:
P(3 < X,; 5) = 1(4)+1(5) = 0,5 ..... c = 1(4) = 0,3

2,3 Stetige Zufallsvariablen


2,3_1

Verteilungsfunktion

Ist eine Zufallsvariable X stetig, so kann sie in einem bestimmten Intervall jeden beliebigen Wert annehmen. Dies hat zur Folge, dass ihre Vertellungsfunktion F(x)
=
x) keioe Treppenfunktion mehr ist, sondern eioe stetige Funktion (vgl. Abbildung II 13) darstellt.

pex ,;
F(x)
1

F(x) -

Abbildung II 13: Verteilungsfunktion einer stetigen Zufallsvariable


Die Eigenschaften der Verteilungsfunktionen stetiger Zufallsvariablen siod denen
diskreter Zufallsvatiablen sehr hnlich und weichen nur io eioem Aspekt voneioander ab. Die Verteilungsfunktion F(x) stetiger Zufallsvariablen hat im Allgemeioen
folgende Eigenschaften:

203

2. Zufallsvariablen
1.
2.

3.

Die Funktionswerte liegen im Intervall 0 S F(x) SI.


F(x) besitzt die Grenzwerte F(x) -7 0 fr x -7 - und F(x) -7 1 fr x -7 +=.
F(x) ist monoton wachsend, d.h. fr a < b gilt F(a) S F(b). Wir knnen alternativ auch F(x) S F(x + c) fr c > 0 schreiben.

Im Gegensatz Zu diskreten Zufallsvariablen kommt folgende Eigenschaft hinzu:

4.

F(x) ist keine Treppenfunkrion, sondern berall stetig.

Ein typisches Beispiel fr eine stetige Zufallsvariable, deren Verteilungsfunktion einen verlauf wie in Abbildung II 13 zeigt, ist die Lebensdauer eines Gertes. Die
Verteilungsfunktion gibt hier die Wahrscheinlichkeit dafr an, dass ein Gert eine
Lebensdauer von hchstens x Zeiteinheiten besitzt.

2.3.2

Dichtefunktion

Die erste Ableitung der Verteilungsfunktion F(x) nach x wird als WahrscheinIlchkeitsdichte oder Dichtefunktion fex) bezeichnet. Sie ist bis auf hchstens endlich
viele Stellen ebenfalls eine stetige Funktion und entspricht formal (nicht jedoch in
ihrer Interpretation) der Wahrscheinlichkeitsfunktion im diskreten Fall.
fex) = d F(x) = F'(x)
dx

(II2: 10)

Umgekehrt lsst sich aus der Dichtefunktion durch Integration CI - Integrationsvariable) wieder die Verteilungsfunktion bestimmen.
F(x) =

f(t) dt

(II2: 11)

Die Dichtefunktion fex) besitzt folgende wichtige Eigenschaften:


1. Die Dichtefunktion verluft stets oberhalb oder auf der reellen Zahlengeraden
(x-Achse). Dies folgt unmittelbar aus der Tatsache, dass die Verteilungsfunktion
monoton steigend ist, also nirgends eine negative Ableitung haben kann.
(II2: 12)
fex) :<: 0
2. Die gesamte Flche, die zwischen x-Achse und Dichtefunktion eingeschlossen

wird, besitzt den Flcheninhalt Eins .

....

Jfex) dx=1

([[2: 13)

Wie bereits erwhnt wurde, sind Dichte- und Wahrscheinlichkeitsfunktion miteinander verwandt. Es ist aber ZU beachten, dass die Dichtefunktion im Gegensatz zur
Wahrscheinlichkeitsfunktion auch ohne weiteres Funktionswerte annehmen kann,

die grer als 1 sind. Sie gibt nmlich keine Wahrscheinlichkeiten an. Dichtefunktionen geben Wahrscheinllchkeiten nur mittelbar an. Wahrscheinlichkeiten sind
lediglich als Flchen unter der DichteJunktIon und fr bestimmte Intervalle zu
finden. 3 Wie Z.B. Abbildung II 14 zeigt, kann die Wahrscheinlichkeit p(X S x)
bzw. F(x,) als Flche unter der Kurve f(x) dargestellt werden:
3 Diese Eigenschaft ist vergleichbar mit der von Histogrammen aus der deskriptiven Statistik.
In diesen geben nicht Sulenhhen, sondern -flchen Auskunft ber Hufigkeiten.

204

11 Wahrscheinlichkeitsrechnung

P(X S x.) = F(x,) =

f(1) dt

(H2: 14)

Auerdem lsst sich die Wahrscheinlichkeit dafr, dass die stetige Zufallsvariable X
einen Wert im Intervall [a,bl mit ~ S a S b :5: +00 annimmt, als Flche unter der
Dichtefunktion in den Grenzen a und b interpretieren. Es gilt
b

P(a:5:X:5:b)= !f(x) dx.

(II2: 15)

fex)
P(a

P(X s x)

b) =F(b)-F(a)

= F(x)

p(X ~ e) = I-F(e)

Abbildung H 14: Dichtefunktion einer stetigen Zufallsvariable


Besonders wichtig ist bei stetigen Zufallsvariablen, dass die Wahrscheinlichkeit dafr, dass ein spezieller Wert x angenommen wird, immer Null ist. 4
P(X=x)=O

frallexER

(H2: 16)

Dies knnen wir wie folgt beweisen:


P(X = x) = 1f(1) dt = F(x)-F(x) = 0
Aus diesem Grund ist es bei der Bestimmung von P(a :5: X :5: b) unerheblich, ob die
beiden Grenzen a und b in das Intervall eingeschlossen werden oder nicht. Es gilt
also bei stetigen im Gegensatz zu diskreten Zufallsvariablen immer
P(a S X S b) = P(a < X S b) = P(a S X < b) = P(a < X < b) .

(H2: 17)

4 Trotzdem ist das Ereignis X "" x nicht fr alle x urunglich. Diese auf den ersten Blick verwirrend scheinende Aussage wird verstndlich, wenn wir uns klar machen, dass irgendeine der Realisationen x zwangslufig angenorrunen werden muss und in der Praxis oft
nicht zwischen der Realisation x (z.B. x - 0,5) selbst und einem je nach Messgenauigkeit

mehr oder weniger kleinem Intervall um x (z.B. 10,45; 0,55]) unterschieden wird. Sofern
ein Intervall im Wertebereich liegt, fllt ein stetiges X bereits mit positiver Wahrscheinlichkeit in dieses Intervall, auch wenn das Intervall noch so klein ist.

2. Zufallsvariablen

205

Dies schliet natrlich auch die Gltigkeit ein von


P(X

x) = P(X < x) .

(HZ: 18)

Neben der Integration der Dichtefunktion fex) bietet die Verteilungsfunktion F(x)
eine weitere Mglichkeit zur Berechnung der Wahrscheinlichkeit P(a ~ X:S: b). Da
P(a :s: X:S: b) = P(X :s: b) - P(X:S: a), P(X:S: b) = F(b) und P(X:S: a) = F(a) gilt, kann
P(a ~ X ~ b) = F(b) - F(a)

(HZ: 19)

geschrieben werden.

Beispiel 11 2-10

Charakterisierung stetiger Zufallsvariablen

Fr eine stetige Zufallsvariable X, die die Versptung einer Straenbahn an einer bestimmten Hallestelle {in Minulen} beschreibt, sei die vermeintliche Dichtefunktion

f{X}={0,4-0,08X fr 0:S:x:S:5
sonst
gegeben. Wir wollen zunchst prfen, ob es sich dabei tatschlich um eine Dichtefunktion
handeln kann. Dazu mssen die beiden Voraussetzungen {1I2: 12} und {1I2: 13} erfOlit sein.
1. f{x};'

fOr alle x

Diese Voraussetzung iSI klar erfllt, was ein Blick auf die grafische Darstellung der
Funktion {grobe Skizze} besttigt:
f{x}
0,4
:s: X:S:4}

2. Die Flche unter der Funktion muss gleich 1 sein.


+-

+-

f f{x} dx = f {O,4-0,08x} dx =f {Q,4-0,08x} dx =[ O,4x -0,04x'], = {2-1}-{O-O} = 1


o
Es handelt sich also hier klar um eine echte Dichtefunktion. Die dazugehrige Verteilungsfunktion ergibt sich zu
F{x} =

bzw.

Jf{l} dt = Jo {Q,4-0,08I} dt = [0,41-0,041']; = 0,4x -0,04x'

fOr
x<
F{x}= 0,4x-O,04x' fOr 0:s:x:S:5.
fOr
x>5
1

Wir berechnen nun die Wahrscheinlichkeit dafOr, dass die Zufallsvariable X einen Wert
zwischen 2 und 4 annimmt, d.h. die Versptung zwischen 2 und 4 Minuten betrgt. Uns
stehen dazu die beiden folgenden MOglichkeiten zur VerfOgung:

11 Wahrscheinlichkeitsrechnung

206
1.

Mglichkeit (Integral):

"

P(2 S X S 4) = [I(x) dx = [(0,4-0,08x) dx = [Q,4x-O,04x'], = 0,98-0,84 = 0,32


2.

Mglichkeit (Verteilungsfunktion):

P(2 S X S 4) = F(4)-F(2) = (0,4.4-0,04.4')-(0,4.2-0,04.2') = 0,96-0,64 = 0,32


Skizziert zeigt sich die Lsung anhand der Verteilungsfunktion folgendermaen:
F(x)

-------

1,00
:::::::::::::::::::::::::::::::::~::::~---~----~-0,96
,

0,64 -----------------

,,
,,
,

F(4)-F(2)

------------------~-

~----------~----------~----------+x
Bel.plel ff 2-11

Bestimmung der Dichtefunktion

Gegeben sei folgende Verteilungsfunktion einer stetigen Zufallsvariable X:


x<O
0 ru,
F(x)= i-x fOr Q:S:x:S:20
{

rur

x>20

Die Dichtefunktion kann daraus durch AbleibJng aller drei TeilstOcke ermittelt werden:

o fur

fex) -

i- fur_

x<O

{-.L

0 S x S 20 bzw. fex) _ 20
{ o 'Or x > 20
0

rur O:SxS20

fOr

sonst

Wie diese Beispiele zeigen, sind beim Umgang mit stetigen ZufaUsvariablen Kenntnisse der Differenzial- und der Integralrechnung hilfreich. Wir haben daher die
Formelsammlung in unserem Online-Service auch um die wichtigsten Regeln aus
diesem Gebiet ergnzt.

2,3,3

Zusammenlassende Gegenberstellung

Da der Zusanunenhang zwischen Verteilungs- und Dichtefunktion bei stetigen Zufallsvariablen ebenfalls sehr wichtig fr die folgenden Kapitel ist, wollen wir ihn
zum. Abschluss dieses Abschnitts wie bereits bei diskreten Zufallsvariab1en noch
einmal bersichtlich grafisch darstellen.

2. Zufallsvariablen

207

F(x)

1,0
F(b) .

F(a)

P(a':; X':; b)

Abbildung II 15: Zusammenhang Verteilungs- und Dichtefunktion

2.4 Kennzahlen von Wahrscheinlichkeitsverteilungen


Wie auch bei den Hufigkeitsverteilungen der deskriptiven Statistik lassen sich fr
die Charakterisierung von Wahrschetnltchkeitsverteilungen von Zufallsvariablen
Mazahlen (Verteilungsparameter) berechnen. Es knnen Lage- und Streuungsparameter sowie weitere auf Momenten basierende Parameter bei eindimensionalen und Kovarianzen und Korrelationskoeffizienten bei mehrdimensionalen Zufallsvariablen (vgl. Abschnitt II 2.7) ennittelt werden.

2.4.1

Erwartungswert

2.4.1.1

Definition

Der wohl wichtigste Lageparameter der Wahrscheinlichkeitsverteilung einer Zufallsvariablen X ist der analog zum arithmetischen Mittel einer Hufigkeitsverteilung
gebildete Erwartungswert E(X). Dieser dient insbesondere dazu, den zu erwartenden Wert zu bestimmen, den eine Zufallsvariable bei einem Zufallsexperiment
annimmt. Prziser formuliert: Der Parameter beschreibt den Durchschnitt/Mittelwert, den eine Zufallsvariable bei unendlich vielen Durchfhrungen eines Zufallsexperimentes annimmt. Der Erwartungswert charakerisiert damit den Schwerpunkt

208

11 Wahrscheinlichkeitsrechnung
der Wahrscheinlichkeitsverteilung (z.B. erwartete Lebensdauer eines Produktes,

erwarteter Gewinn bei einem Glcksspiel).5


Der Erwartungswert ist fr eine diskrete ZufallsvarIable X mit der Wahrscbeinlichkeitsfunktion fex) als
(H2: 20)
definiert. Diese Formel zeigt deutlich die Verwandtschaft zum arithmetischen Mittel
einer Hufigkeitsverteilung. Der einzige Unterschied besteht darin, dass die Gewicbtung der einzelnen Werte X, mit der wahrscheinlicbkeit erfolgt, mit der die Zufallsvariable diese Werte annimmt. Die Wahrscheinlicbkeiten fex,) treten also an die
Stelle der relativen Hufigkeiten.
Sind fr alle Werte X, einer diskreten Zufallsvariablen X die dazugehrigen Wahrscbeinlicbkeiten p(x = x,) gleich, so kann E(X) vereinfacht als
1
1
1 1
1
E(X)=x, _+x, -+ ... +xn _=_(x, +x, + ... +xn )=_
n

LX,
n

(H2: 21)

i_I

berechnet werden. n ist hierbei die Anzahl der Realisationsmglicbkeiten der Zufallsvariablen X. E(X) ist also interpretierbar als der Mittelwert einer endlicben
Grundgesamtheit.
Fr eine stetige ZufallsvarIable X mit der Dichtefunktion fex) kann der Erwartungswert folgendennaen ermittelt werden:
E(X) =

-J

x fex) dx

(H2: 22)

Sollte die Dichtefunktion nur in einem Intervall X u ~ x ~ X o positive Werte annehmen, mssen wir nur ber diesem Intervall die Integration ausfhren.

Jx fex) dx

x"

E(X) =

(H2: 23)

'.

Der Erwartungswert E(X) oder dessen Zahlenwert wird in der Literatur auch hufig
mit dem griechischen Buchstaben 11 (gesprochen: m) bezeichnet. Um konkret
auszudrcken, zu welcher Zufallsvariable der Erwartungswert gehrt, ist dann
narrlich eine Form wie Il. erforderlich.

Beispiel 11 2-12

Erwartungswert diskreter Zufallsvariablen

Die folgende Tabelle zeigt die Wahrscheinlichkeit dafr, dass ein Notebook einer bestimmten Marke nach X Jahren funktionsuntchtig wird.
Jahr X;

P(X = x;) = f(x;)

X; f(x;)

0,02

0,18

0,30

0,28

0,10

0,02

0,06

0,72

1,50

1,68

0,70

0,16

5 Betrachtet man Krper an den Orten ~ mit den Massen l'I\ - f(x) oder eine Massenver-

teilung mit der Massendichte fex), dann ist der Erwartungswert tatschlich der physikalische Schwerpunkt der Massenverteilung.

2. Zufallsvariablen

209

Wie hoch ist die erwartete Lebensdauer eines Notebooks dieser Marke?
E(X} =

LX,
, f(x;} =0+0+0,06+0,72+1,50+1,68+0,70+0,16 = 4,82 Jahre

Beispiel 11 2-13

Erwartungswert diskreter Zufallsvariablen

Eine Frau schliet eine Risiko-Lebensversicherung ber eine Summe von 100.000 Euro
und einer Laufzeit von einem Jahr ab. Die Prmie hierfr betrgt 800 Euro. Wie hoch ist
der "durchschnittliche Reingewinn" fr die Versicherung, wenn die Sterbewahrscheinlichkeit der Frau mit 5 Promille kalkuliert wird?
Gesucht ist hier der Erwartungswert der Zufallsvariablen X = "Reingewinn der Versicherung". Die Wahrscheinlichkeitsfunktion von X lsst sich wie folgt tabellarisch darstellen:

Reingewinn (x,)

Frau stirbt
-99.200
(= -100.000 + 800)

Frau stirbt nicht

0,005

0,995

P(X = x;} = f(x;}

800

Der erwartete Reingewinn ergibt sich damit als


E(X} = Lx,.f(x,} = -99.2000,005+8000,995 = 300 Euro.
I

Beispiel 11 2-14

Erwartungswert stetiger Zufallsvariablen

In Beispiel 11 2-10 hatten wir eine stetige Zufallsvariable X: "Versptung einer Straenbahn
in Minuten" mit der Dichtefunktion
f(X}={O,4-0,08X fr OSxS5
o
sonst
betrachtet. Zur Berechnung ihres Erwartungswertes gehen wir wie folgt vor:
E(X} =

JXf(x} dx = Jx (O,4-0,08x) dx = J(O,4x -O,08x') dx

XD

..

[0.-4 x2 _ 0,08 X3 J5
2

= 5 _!Q. =.i Minuten


3

Inhaltlich bedeutet dieses Ergebnis, dass bei der Straenbahn im Durchschnitt von einer
Versptung von 100 Sekunden auszugehen ist.

2_4_1.2

Eigenschaften

Fr die Berechnung von Erwartungswerten bzw. den Vergleich von Erwartungswerten verschiedener Zufallsvariablen sind folgende Regeln und Eigenschaften von
EOO sehr ntzlich:
1. Der Erwartungswert der Abweichungen jeder Zufallsvariablen X von ihrem Erwartungswert !Ix ist stets Null.
E(X - !Lx) = 0

(112: 24)

Dies entspricht der im Abschnitt I 2.2.1.3 besprochenen Zentraleigenschaft des


arithmetischen Mittels.

210

11 Wahrscheinlichkeitsrechnung

2. Die Erwartungswertbildung lsst sich auch auf Funktionen von X ausdehnen. Ist
die Funktion g : R --7 Reine reellwertige Funktion, sodass mit X auch Y = g(X)
eine Zufallsvariable ist, so kann der Erwartungswert von Y ohne (direkte)
Kenntnis der Verteilung von Y aus der Verteilung von X emtittelt werden.
Im diskreten Fall gilt
E(Y) = E [g(X)I =

L g(x) . fex) .

(H2: 25)

E(Y) = E [g(X)I =

Jg(x) fex) dx .

(112: 26)

Im stetigen Fall gilt

Beispiel 11 2-15

Veranschaulichung von (1I2: 25)

Bei einer Maschine treten pro Tag X Strfalle auf. Die Wahrscheinlichkeitsfunktion der
Zufallsvariable X: "Anzahl der Strfalle pro Tag" kann durch folgende Tabelle beschrieben werden:

o
f{x,)

0,35

0,50

2
0,10

3
0,05

Die Kosten (in Tausend Euro), die fiir die Behebung dieser Strflle entstehen, werden
durch die folgende Kostenfunktion beschrieben:
5
g{x)=6- x+2
Die Ermittlung der erwarteten Kosten erfolgt unter Zuhilfenahme der folgenden Tabelle:
X;

g{x;)
f{x;)

3,50
0,35

4,33
0,50

2
4,75
0,10

3
5,00
0,05

Da die Kosten eines jeden einzelnen Strfalles mit ihrer Wahrscheinlichkeit bewertet
werden mssen, ware es falsch einfach E{X) = 0,85 in die Kostenfunktion einzusetzen
(g[E{X)] = 4,25). Die korrekte Berechnung der erwarteten Kosten der Strfallbeseitigung pro Tag ergibt stattdessen
E[g{x)] = 3,500,35 +4,33 0,50+ 4,750,10+5,00 0,05 = 4,12.
Der Zusammenhang zwischen E[g{X)] und g[E{X)] wird im Rahmen der Jensenschen

Ungleichung (1I2: 27) bzw. (1I2: 28) noch nher betrachtet.

Fr einige wichtige lineare Transformationen von Zufallsvarlablen sind die


Erwartungswerte in folgender Tabelle zusammengestellt. Die dargestellten Zusammenhnge gelten fr alle a, b ER.

(A)
(B)
(e)

(D)

Ybzw. g(X)

E(Y) bzw. E(g(X))

a
bX
a+X
a+bX

a
b E(X)
a+E(X)
a+bE(X)

2. ZUfallsvariablen

211

Wir erkennen daran sehr schn die gleiche Transformationseigenschaft wie


beim aritlunetischen Mittel (vgl. Abschnitt I 2.2.1.3) und knnen daher auf die
Erbringung eines formalen Beweises verzichten.

Beispiel 112-18

Erwartungswert und Lineartransfonnation

Betrachten wir die Wahrschelnllchkeltsfunktlon einer diskreten ZUfallsvariablen X:


-1
0,10

o
0,30

0,40

0,05

0,10

FQr den Erwartungswert dieser Zufallsvariablen gilt


E(X) = (-2)0,05 + (-1)0,10 +00,30 + 1 0,40 +20,05 +30,10 = 0,6.

Multiplizieren wir nun die ZUfallsvariable X bzw. deren Realisationen mit der Konstanten b '" 2 und addieren die Konstante a '" 1, so ergibt sich der neue Erwartungswert
E(1 + 2 X) = [1 + 2 (-2)]0,05 +[1 + 2 (-1)]. 0, 10 + [1 + 20] 0,30 + [1 +2 .1]. 0,40
+[1 + 2 2]0,05+ [1 + 2 ,3], 0, 10 - 2, 2.

Unter Verwendung des Zusammenhangs E(a + b . X) '" a + b . E(X) lisst sich dieses
Ergebnis natOrlich viel schneller bestimmen:
E(1+2 X) = 1+2E(X) = 1 +2Q,6 = 2,2

IIeloplalll2-17

Beweis der Z&ntralelgenschaft von E(X)

Die Beziehung E(a + X) = a + E(X) er1aubt fUr a = - J1X die Herleilung der Zentraleigenschaft des Erwartungswertes (112: 25). Es gilt nmlich
E(X-.,)=E(X)-., =0.

3. Ist die wahrscheinlichkeits- bzw. Dichtefunktion f(x) von X symmetrisch bezglich eines Punktes x - a, d.h. ist f(a - x) - f(a + :x;) fr alle x, so gilt EOO - a
(falls der Erwartungswert existiert). Abbildung 11 16 veranschaulicht dies.
f(x l ) = f(xn )

fex)

f(x l ) = f(x,,_l)
--t E(X) = a

I ,

I,

I _a

...

I._.

X.

Abbildung n 16: Symmetrie und Erwartungswert (stetige ZV)

212

11 Wahrscheinlichkeitsrechnung

4. Gilt fr jedes Elementarereignis 01 der zugrunde liegenden Zufallsexperimente


zweier Zufallsvariablen X und Y die Ungleichung X(Ol)" Y(Ol) , so folgt auch
fr die Erwartungswerte E(X)" E(Y) .
5. Ist gex) eine konvexe oder konkave Funktion der Zufallsvariablen X, so gilt die
sog. Jensensche Ungleichung. Diese ist definiert als
E[g(X)]:2: g[E(X)]. falls g(X) konvex

(112: 27)

E[g(X)]" g[E(X)]. falls g(X) konkav.

(H2: 28)

bzw.

Beispiel

112-18

Jensensehe Ungleichung

Eine Person nimmt an einem Glcksspiel teil, bei dem sie jeweils mit einer Wahrscheinlichkeit von 50 % entweder 1.000 Euro oder 3.000 Euro gewinnen kann. Die Zufallsvariable X, welche ihren Gewinn beschreiben soll, kann daher nur diese zwei Werte annehmen. Der Erwartungswert des Gewinns liegt bei E{X} = 1.000 . 0,5 + 3.000 .
0,5 = 2.000 Euro. Die konkave Funktion g{X} beschreibe das Nutzenniveau, welches
diese (risikoaverse) Person aus einem Gewinn zieht, und stellt sich wie folgt dar:
g{X)
g(E{X))
E(g{X))
200
150
100

1.000

2.000

3.000

Untersuchen wir nun fr dieses Beispiel die Gltigkeit der Jensenschen Ungleichung
(1I2: 28). Halten wir zunchst fest, dass der Erwartungswert des Nutzens
E(g{X)) = 100 0,5+200 0,5 = 150
und der Nutzen des erwarteten Einkommens offensichtlich
g(E{X)) = g{2.000)
ist. Betrachten wir diese Werte und die obige Grafik, knnen wir klar feststellen, dass
E(g{X)) = 150

<

g(E{X)) = g{2.000).

213

2. Zufallsvariablen

2.4.2

Varianz und Standardabweichung

2.4.2.1

Definition

Wie stark die Verteilung einer Zufallsvariablen X um ihren Mittelwert (Erwartungswert) streut, kann durch ihre Streuungsparameter angegeben werden. Die Streuungsparameter, mit denen wir uns im Folgenden beschftigen, sind die Varianz
Var(X) und die daraus zu gewinnende Standardabweichung.
Ist X eine Zufallsvariable und l1x ihr Erwartungswert, so wird der Erwartungswert
der quadrierten Abweichungen der Zufallsvariablen von ihrem Erwartungswert als
Varianz der Zufallsvariablen X bezeichnet. Es gilt also
Var(X) = E[(X -l1x)'] .

(H2: 29)

An Stelle der Notation Var(X) oder um ihren Zahlenwert zu bezeichnen, verwendet


man hufig das Symbol 0' (gesprochen: sigma quadrat). Um auszudrcken, auf
welche Zufallsvariable sich die Varianz bezieht, schreibt man oft auch

er..

Konkret berechnet wird die Varianz im diskreten Fall mit der Formel
Var(X) = ~)x; - E(X)]' . fex) .

(H2: 30)

Aus dieser Formel ist deutlich zu erkennen, dass die Varianz einer Zufallsvariablen

X in ihrer Konstruktion der mittleren quadratischen Abweichung einer Hufigkeitsverteilung entspricht (vgl. Abschnitt I 2.2.2.3).
Ist X eine diskrete Zufallsvariable, die alle Werte

X 1 ,X 2 , ... ,x n

mit gleicher Wahr-

scheinlichkeit annimmt, so gilt fr die Varianz vereinfacht


1
Var(X) = -. L[x, - E(X)l' .
n

(H2: 31)

Im stetigen Fall errechnet sich die Varianz konkret als

Var(X) =
bzw.

Var(X) =

J[x - E(X)]' . fex) dx

..J

[x - E(X)l' . fex) dx .

(H2: 32)

(H2: 33)

I,.

Beispiel 11 2-19

Varianz diskreter Zufallsvariablen

Die Zufallsvariable X: Anzahl der KOpfe beim zweimaligen Mnzwur!" besitzt folgende
Wahrschainlichkaitsfunktion:

o
0,25

0,50

2
0,25

Wegen der Symmetrie der Verteilung besitzt die Zufallsvariable X den Erwartungswert
E{l<) = I. FOr ihre Varianz gilt
Var{X] = {O -I]' 0,25+ (I_I)' 0,50+ (2-1)'. 0,25 = 0,50.

214

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-20

Varianz stetiger Zufallsvariablen

In Beispiel 11 2-14 hatten wir den Erwartungswert einer stetigen Zufallsvariable X: "Versptung einer Straenbahn in Minuten" mit der Dichtefunktion
f(X)={0.4-0,08X

als E(X) =

Minuten bestimmt. Die zugehrige Varianz erhalten wir wie folgt:

Var(X) =

I (x-E(X))'.f(x) dx= I(x-t)'(O,4-0,08x) dx

...

'.
5

Io (x -1fx+~HO,4-0,08x) dx

J(O.4x
5

-O,08x 3

-t x + 3 x
8

= J(--O,08X3+~X2_Jt-X+~)
o

= [-O,02x +iX3

2.4.2.2

fr O:S;x:S;5
sonst

+~-i x) dx

dx

-~ x2 +~x J: = -12,5+ 2~D - 1: +W = 1,39 Minuten 2

Eigenschaften

Fr die Berechnung und Interpretation der Varianz sind folgende Regeln und
Eigenschaften von besonderem Nutzen:
1. Die Varianz ist abgesehen von dem trivialen Sonderfall einer Zufallsvariablen,

die stets denselben Wert anninunt, positiv. Beim erwhnten Sondetfall ninunt
sie einen Wert von 0 an.
2. Die positive Wurzel aus der Varianz einer Zufallsvariablen X bezeichnet man als
Standardabweichung (Jx der Zufallsvariablen X.
(Jx

= ,JVar(X)

(H2: 34)

An Stelle dieser Notation knnen wir auch kurz


zur Variable X nicht relevant ist.

0'

verwenden, wenn ein Bezug

3. Der fr die mittlere quadratische Abweichung bekannte Verschiebungssatz (vgl.


Abschnitt I 2.2.2.3) gilt auch fr die Varianz von Zufallsvariablen. Er besagt hier
Var(X) = E(X') -11i

(H2: 35)

Konkret bedeutet dies fr diskrete Zufallsvariablen


Var(X) =
bzw. stetige Zufallsvariablen
Var(X) =

L x~ . fex,) - [E(X)],

-J

x' . fex) dx - [E(X)]' .

(H2: 36)

(H2: 37)

2. Zufallsvariablen

215

Beispiel 11 2-21

Vereinfachte Varianzberechnung diskreter ZV

Kurz vor Saisonende hat eine Fu ballmannschaft noch 3 Spiele zu absolvieren. Dem
Trainer und begeisterten Statistiker gelang es, die Wahrscheinlichkeitsfunktion fiir die
Zufallsvariable X: "Anzahl der Siege bis Saisonende" aufzustellen:

X,

f{x;)

0,1

0,2

0,3

0,4

Wie stark streut die Anzahl der Siege um die erwartete Anzahl E{X) = 2?
Var{X) = LX~' f{x,) -[E{X)]' = 0' 0,1 + l' 0,2+2' 0,3 +3' 0,4-2' = 5-4 = 1
I

Beispiel 11 2-22

Vereinfachte Varianzberechnung stetiger ZV

Berechnen wir die Varianz der stetigen Zufallsvariable X: "Versptung einer Straenbahn in Minuten" aus Beispiel 11 2-20 nun mittels der aus dem Verschiebungssatz resultierenden Formel:
~

Var{X) = J x'f{x) dx-[E{X)]' = Jx'.{O,4-0,08x) dx-{~)'


5

= J{O,4x'-O,08x') dX-~=[D;'X'-O,02x'JD-~
o

=~-12,5-~=1,39 Minuten2

Wie zu erwarten war, stimmen die Ergebnisse beider Berechnungsvarianten Oberein.

4. Die Bildung von Varianzen lsst sich auch auf Funktionen von X ausdehnen. Ist
die Funktion g : lR -+ lR eine reellwertige Funktion, sodass mit X auch Y = gOO
eine Zufallsvariable ist, so kann die Varianz von Y ohne Kenntnis der Verteilung von Y aus der Verteilung von X ennittelt werden. Fr einige wichtige lineare Funktionen sind die Varianzen (inklusive Standardabweichungen) in der
folgenden Tabelle zusammengestellt:

(A)
(B)
(e)

(0)

Ybzw. gOO
a
bX
a+X
a+bX

Var(Y) bzw. Var(gOO)


0

b' Var(X)
Var(X)
b' Var(X)

O'y

bzw. (Je

0
I b Iox

I b Iox

Wir erkennen daran die gleiche Transfonnationseigenschaft wie auch bei der
Varianz bzw. der Standardabweichung aus der deskriptiven Statistik (vgl. Abschnitt I 2.2.2.3) und knnen daher auf fonnale Beweise verzichten.
Wir knnen aus obiger Tabelle folgende allgemeine Schlsse ziehen: (1) Eine
Konstante kann unmglich streuen. Ihre Varianz muss daher Null sein. (2) Addieren wir zu jedem Wert x eine Konstante a, dann fhrt dies zu einer Ver-

schiebung der Verteilung nach links (a < 0) oder rechts (a > 0). Die Verscbie-

216

11 Wahrscheinlichkeitsrechnung

hung der Verteilung um den konstanten Betrag a verndert aber ihre Streuung
nicht, da auch der Erwartungswert um a verschoben wird. (3) Wird jeder Wert
x einer Zufallsvariable mit einem konstanten Faktor b multipliziert, so fhrt dies
ZU einer Streckung oder Stauchung der Verteilung. Ist I b I > 1 spricht man von
Streckung, bei I b I < 1 von Stauchung der Verteilung.
Beispiel 11 2-23

Varianz und lineare Transformation

Betrachten wir eine diskrete Zufallsvariable X mit folgender Verteilung:

f(x;)

490

500

510

0,2

0,5

0,3

Um die Varianz von X einfacher berechnen zu knnen, knnte nun X mittels


Y=0,IX-50
transformiert werden. Die neue Zufallsvariable Y htte damit die folgende Verteilung:

y;

-1

f(y;)

0,2

+1

0,5

0,3

Erwartungswert und Varianz knnen wir nun fOr diese neue Verteilung bestimmen als
E(Y) = (-1) 0,2+00,5+ 10,3 = 0,1
Var(Y) = (_I)' 0,2+0' 0,5+1' 0,3-0, I' = 0,49.
Daraus wird schlielich Var(X) durch Riicktransformation ermittelt:
Var(X) = Var(10 Y +500) = 10' Var(Y) = 1000,49 = 49

Ein wichtiger Anwendungsfall dieser linearen Transformation ist die sog. Standardisierung von Zuja/lsvarlahien, auf welche im Abschnitt II 2.4.2.3 noch separat eingegangen wird.

5. Auch fr die Varianz gilt die sog. Minima/eigenschaft, die wir bereits von der
mittleren quadratischen Abweichung kennen. Sie besagt, dass immer

E[(X -l1x)]' < E[(X - h)]'

fr

* l1x

(II2: 38)

gilt, egal ob h grer oder kleiner als l1x ist. Fr h = I1x nimmt E[(X - h)]' also
sein Minimum an.

2.4.2.3

Standardisierung von Zufallsvariablen

Wird eine stetige oder diskrete Zufallsvariable X mit dem Erwartungswert l1x und
der Varianz <J~ bzw. der Standardabweichung <Jx in der Form
Z=a+bX

mit

a=_l1x

und

O'x

b=~
O'x

bzw.
mit

<J x

>0

(II2: 39)

2. ZUfallsvariablen

217

linear transformiert, dann heit die dabei entstehende transformierte Zufallsvariable


Z standardisiert. Die gleiche Art von Standardisierung ist uns bereits in der deskriptiven Statistik begegnet (vgL Abschnitt I 2.2.2.3), wobei wir hier nun x durch J.l. x
und Sx durch O"J: ersetzen. Die besondere Eigenschaft einer standardisierten Zufallsvariable Z ist ein Erwartungswert von Null und eine Varianz bzw. eine Standardabweichung von Eins. Die folgende Tabelle stellt die besonders im Zusammenhang
mit der Normalverteilung (vgL Abschnitt TI 3.2.3) wichtige Standardisierung noch
einmal kompakt dar. Der erste Schritt X --t Y (Verschiebung) dient dabei der Generierung eines Erwartungswertes von Null, whrend der zweite Schritt Y --t Z (Streckung) die Varianz bzw. die Standardabweichung von Eins herbeifhrt.

....

Y=X-J.l.x

Zufallsvariable

Erwartungswert

~.

Varianz

<fx

<fx

[J.

[J.

Standardabweichung

....

Boloplolll 224

X-I'x

Z=-[J.

1
1

Standardisierung von Zufallsvariablen

Betrachten wir die WBhrscheinlichkeitsfunktion der folgenden diskreten Zufallsvariablen X:

10
0,1

(.)

12
0,4

11
0,5

Ihr Erwartungswert !.Lx liegt bei 11,30 und Ihre Standardabweichung O"x bel 0,6403. Wird
nun eine Standardisierung von X mittels
Z= X-H30
0,6403
durchgefOhrt, so ergibt sich folgende neue Verteilung mit !.Lz - 0 und ~ - 1 bzw. O"z _ 1:
'(.)

-2,0303
0,1

-0,4685
0,5

1,0932
0,4

Wie das Beispiel 11 2-24 gezeigt hat, ndert sich im Falle einer diskreten Zufallsvariablen X durch die Standardisierung das Wahrscheinlichkeitsmuster nicht,
d.h. es gilt fr die Wahrscheinlichkeitsfunktion f(z) der standardisierten Zufa11svariablen Z
fez) = fex)

fr

(D2,4O)

alle i .

Handelt es sich bei der zu standardisierenden Zufa11svariablen X nun aber um eine


stetige ZufalJsvariable, so gilt fr deren Dichtefunktion nach der Kettenregel
f(x) = dF(x) = dF(z). dz =f(z).~.

dx

dz

dx

O"x

Die Dicbtefunktton f(z) der neuen Zufa11svariablen Z ergibt sich daher als
fez) = f(x) O"x'

CTI2: 41)

218

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-25

Standardisierung und Dichtefunktion

Die Standardabweichung einer stetigen Zufallsvariablen X sei "x = 4. Wird diese Zufallsvariable nun standardisiert, fOhrt dies dazu, dass die Dichtefunktion in x-Richtung auf ein
Viertel zusammengedruckt wird. Damit die Flache unter der Dichtefunktion gleich Eins bleiben kann, wird f(z) gleichzeitig viermal so hoch sein.

Der Vorteil einer Standardisierung liegt darin, dass die entstehenden Werte

Zi

eine

Reihe ntzlicher Intetpretationen zulassen, die wir bereits aus der deskriptiven
Statistik kennen. Ist z, nmlich positiv, so zeigt dies, dass X, ber dem Erwartungswert l1x liegt, d.h. z, > 0 --+ x, > 11x. Analog gilt auch Z, < 0 --+ x, < 11x. Zudem gibt z,
an, um welches Vielfache der Standardabweichungen Clx die Realisation x, von l1x
abweicht.

2.4.3

Hhere Momente

Ist X eine Zufallsvariable mit einer gegebenen Verteilung und k eine natrliche
Zahl, so heit der Erwartungswert der koten Potenz
E(X)

(H2: 42)

das kote Moment der Verteilung. Der Erwartungswert der koten Potenz der Abweichung vom Erwartungswert
(H2: 43)
heit kotes zentrales Moment. 6 Bei der Charakterisierung von Verteilungen sind vor
allem das erste Moment E(X) und das zweite zentrale Moment E[(X -IL)'] = Var(X)
von Bedeutung. Der Erwartungswert beschreibt die Lage, die Varianz die Streuung
der Verteilung. Hhere Momente messen andere Eigenschaften.
Wie in der deskriptiven Statistik (vg!. Abschnitt I 2.2.3) wollen wir nun auch fr Zufallsvariablen die auf zentralen Momenten basierenden Kennzahlen der Schiefe 'Y
(eng!. skewness) und der Wlbung K (eng!. kurtosis) einfhren:
E[(X -IL)']

'Y

a'

(H2: 44)

(H2: 45)
Das dritte zentrale Moment E[(X - IL)'] lsst erkennen, ob die Verteilung symmetrisch oder schief ist. Wie alle ungeraden zentralen Momente nimmt auch dieses bei
einer symmetrischen Verteilung den Wert Null an. Dies liegt daran, dass durch eine
ungerade Potenz das Vorzeichen einer Abweichung nicht verloren geht und sich
die Abweichungen so gegenseitig aufheben knnen, wenn die Verteilung symmetrisch zu ihrem Mittelwert ist. Das vierte zentrale Moment E[(X - 1L)4] gibt Auskunft
ber den Grad der Wlbung einer Verteilung.
6 Zur konkreten Berechnung von Momenten und zentralen Momenten sind insbesondere die

Formeln (ll2: 25) und (H2: 26) mit gOO - x' bzw. gOO - CX - 11)' relevant.

219

2. ZUfallsvariablen

Da das dritte und vierte zentrale Moment von der Maeinheit, in der eine Zufallsvariable gemessen wird, und ihrer Streuung beeinflusst wird, sind sie allein jedoch
keine sehr geeigneten Mae fr die Asymmetrie und die Wlbung einer Verteilung.
Die zentralen Momente werden daher zur Ausschaltung dieser Einflsse durch die
dritte bzw. vierte Potenz der Standardabweichung dividiert.
Fr symmetrische Verteilungen ist r - 0, fr recht<!schiefe r > 0 und fr linksschiefe
r < 0.1 Fr die besonders in der induktiven Statistik bedeutende Nonnalverteilung,
die wir unter 11 3.2.3 ausfhrlich diskutieren werden, gilt r - 0 und lC - 3. Verteilungen mit greren lC-Werten haben schlankere Dichtefunktionen mit dickeren
(fetten) Enden (eng!. sog. fat tails), solche mit kleineren K-Werten besitzen dnnere
Enden als die Normalverteilung.
Beispiel 11 2-26

Hhere Momente Q .

Betrachten wir die einfache diskrete Zufallsvariable X, die nur die AusprAgungen 0, 1, 2
und 3 annehmen kann und deren Wahrscheinlichkeilsfunktion sich wie folgt darstellt:

f(xl
0,40

0,30
0,20
0,10

Diese Verteilung besitzt einen ErwariungS'N8r1 von 1.1. '" 1,5 und eine Varianz bzw. Standardabweichung von a2 '" 0,65 bzw. (J '" 0,806. Schiefe und WOlbung ergeben sich zu

1Je _

(0 _1,5)3 0,1 + (1-1,5)30,4 + (2-1,5)'0,4 + (3 _1,5)3 0,1

0,806'

(0-1,5t 0,1+(1-1,5t O,4+(2-1,5t 0,4+(3-1,5t .0,1 _ 2,51.


0,806 4

Die Verteilung ist damit symmetrisch und weist eine kleinere WOlbung als die Normalverteilung auf.

2,4,4

Quantile

Neben den aus den Momenten und den zentralen Momenten resultierenden Mazahlen dienen auch Quantile als Kenngren von wahrscheinlichkeitsverteilungen. 8 Als Spezialfall ist hierbei vor allem der Median (50 %-Quantil) interessant.
1 Vgl. dazu insbesondere auch die Ausfhrungen unter 12.2.1.6 und I 2.2.3.
8 Gelegentlich ist auch der Modus x..... einer Zufallsvariable X relevant. Er ist der Wert x, fr
den die Wahrschdnlichkeits- bzw. Dichtefunktion f(x) maximal wiId.

220

11 Wahrscheinlichkeitsrechnung

Der Median x..", einer stetigen oder diskreten Zufallsvariablen X ist dadurch definiert, dass X jeweils mit mindestens 50 % Wahrscheinlichkeit grer gleich bzw.
kleiner gleich x..", ist. Es gilt also die allgemeine Mediandefinition
P(X~XMod)~0,5

und P(X:S;XM'd)~0,5.

(II2:46)

Die Besrimmung des Median bei diskreten Zujallsvariablen erfolgt wie in der deskriptiven Statistik (vgl. Abschnitt I 2.2.1.2), d.h. es wird der kleinste x-Wert mit
F(x) > 0,5 gewhlt. Es kann dabei jedoch wieder der Fall auftreten, dass alle Werte
zwischen zwei SprungsteIlen die Bedingung (II2: 46) erfllen. Um einen eindeutigen Wert zu erhalten, whlt man dann in den meisten Fllen das aritmetische Mittel aus beiden Sprungstellen.
Im Falle einer stetigen Zujallsvariable kann der Median wie in Abbildung II 17 aus

der Verteilungsfunktion F(x) ermittelt werden. Existiert die Umkehrfunktion p-' der
Verteilungsfunktion bei F(x) = 0,5, so ist zur Besrimmung des Median also nur ZU
prfen, an welcher Stelle x die Verteilungsfunktion F(x) den Wert 0,5 annimmt:
P(X:S; XMod ) = F(xMod ) = 0,5
(II2: 47)
Wir sehen also, dass sich die Bedingungen (II2: 46) im Falle einer stetigen Zufallsvariablen zu (II2: 47) vereinfachen.

F(x)

0,5

,,

Abbildung II 17: Besrimmung des Median (stetige ZV)


Beispiel 11 2-27

Median bei stetigen ZV

In Beispiel 11 2-10 hatten wir fr die stetige Zufallsvariable X: "Versptung einer Straenbahn in Minuten" die Verteilungsfunktion
0
fr
x< 0
F(x)= 0,4x-0,04x' fr OSxS5
{
1
fr
x> 5
bestimmt. Ermitteln wir nun den Median fOr diese Verteilung, indem wir den relevanten Ast
von F(x) gleich 0,5 selzen und die resultierende Gleichung nach x auflsen:

0,4x-0,04x'=0,5

--+

-{),04x'+0,4x-0,5=0

2. Zufallsvariablen

221

ber die Lsungsformel fOr quadratische Gleichungen erhalten wir daraus


x

_
'.' -

-0,4~0,4' -4{-0,04){-0,5)
2{-0,04)

-->

x, =1,46

x, = 8,54.

Da nur x, innerhalb des Definitionsbereiches der "Teilfunktion" 0,4x -0,04x' liegt, ist die
Lsung x, = 1,46 der Median.

Ist X eine stetige ZuJallsvariable, so gibt es Zu jeder Zahl a mit 0 < a < 1 mindestens einen Wert x., sodass X ~ x. genau mit der Wahrscheinlichkeit a eintritt. Ein
solches Xa wird als a-Fraktil oder a-Quantil der Verteilung von X bezeichnet:
P(X ~ x.) = F(x.) = a

(H2: 48)

Fraktilswerte spielen besonders in der induktiven Statistik bei Konfidenzintervallen


und statistischen Tests eine groe Rolle, weshalb ihrer Bestimmung aus speziellen
Verteilungen (vgl. Kapitel H 3) eine besondere Bedeutung zukommt.
Beispiel 11 2"28

Quantile bei stetigen ZV

Bestimmen wir fr die stetige Zufallsvariable X aus Bespiel 11 2-27 das 98 %-Fraktil der
Verteilung von X. Wir mssen dazu (analog zum Median) lediglich den relevanten Ast der
Verteilungsfunktion F{x) gleich 0,98 setzen und nach x auflsen. Wir erhalten konkret
I

0,4x-O,04x'=0,98

x, = 4,29

x,=5,71.

Da nur x, im Definitionsbereich der "Teilfunktion" 0, 4x - 0,04x' liegt, gilt Xo,.. = 4,29.

Da die Quantilsdefinition (H2: 48) Ld.R. nur fr stetige Zufallsvariablen einen


wohldefinierten Wert liefert, mssen wir die Definition zur Anwendung auf diskrete
ZuJallsvariablen verallgemeinern. In Anlehnung an die allgemeine Mediandefinition (H2: 46) gilt
P(X ~ x.);:: a

und

P(X;:: x.);:: 1-a.

(H2: 49)

Auch hier kann sich nun wieder der Fall einstellen, dass alle Werte zwischen zwei
SprungsteIlen a und b diese Bedingung erfllen. Jeder Wert im Intervall a ~ Xa ~ b
ist also ein a-Quantil. Um einen eindeutigen Wert zu erhalten, whlt man auch hier
in den meisten Fllen das arithmetische Mittel aus beiden SprungsteIlen. Wir verzichten an dieser Stelle auf ein konkretes Beispiel, da die Vorgehensweise derjenigen der Quantilsbestimmung aus der deskriptiven Statistik (vgl. Abschnitt I 2.1.5)
gleicht.

2.5 Ungleichung von Tschebyscheff


Ist X eine stetige oder diskrete Zufallsvariable mit dem Erwartungswert l1x und der
Standardabweichung CJ" so gilt fr jedes k > 0 und unabhngig von der Verteilungsjunktion stets die Ungleichung von Tschebyscbeff. Diese besagt

p("t"'x -kCJx <X<"t"'x +kCJX );::1-~


k2 .

(H2: 50)

222

11 Wahrscheinlichkeitsrechnung

In der Literatur hufig zu findende alternative Schreibweisen zum linken Term im


Ausdruck (II2: 50) sind
und

p(IX -l1xl < k O"x).


Mit der Ungleichung von Tschebyscheff lsst sich ohne Kenntnis der Verteilung
von X abschtzen, wie gro die Mindestwahrscheinlichkeit dafr ist, dass die Zufallsvariable X um einen Wert von kleiner als k O"x von ihrem Erwartungswert
abweicht9 Es sei aber erwhnt, dass die Ungleichung nur grobe Abschtzungen liefert und so keine praktische Schtzmethode fr Wahrscheinlichkeiten darstellt. Fr
eine stetige Zufallsvariable X lsst sich der Bereich (bzw. die Wahrscheinlichkeit),
der mit der Ungleichung von Tschebyscheff abgeschtzt werden kann, wie in Abbildung II 18 grafisch darstellen.
fex)

x
Abbildung II 18: Ungleichung von Tschebyscheff

Beispiel 11 2-29

Ungleichung von Tschebyscheff I

Fr ausgewhlte Werte von k erhalten wir die folgenden Abschtzungen:


k=I,5 :

P{l1x -1,5 "x < X< I1x + 1,5 "x)

k=2:

P{l1x -2"x < X < I1x +2"x)

k=2,5:

P{l1x -2,5"x < X< I1x +2,5"x)

k=3:

P{l1x -3"x < X < I1x +3"x)

:.
:.
:.
:.

0,5555 ...
0,7500
0,8400
0,8888 ...

Wir erkennen daran deutlich, dass die Wahrscheinlichkeit, dass X innerhalb des offenen
Intervalls 1l1x - k . <>x; I1x + k . <>xl liegt, mit zunehmendem k ebenfalls ansteigt. Dieser
Sachverhalt wird auch bei BetraChtung von Abbildung 11 18 schnell deutlich. Nimmt k zu,
wird nmlich auch die in der Abbildung markierte Flche grer.

9 Streng genommen liefert die Ungleichung erst fr k > 1 echte Erkenntnisse, da sich fr
k"" 1 eine Wahrscheinlichkeit von Null ergeben wrde.

2. Zufallsvariablen

223

Interessieren wir uns fr die Wahrscheinlichkeit, dass X auerhalb des offenen Intervalls 1l1x - k crx; I1x + k crx[ liegt, knnen wir diese ganz einfach als Komplementrwahrscheinlichkeit zu (H2: 50) bestimmen. Es gilt daher
(H2: 51)

Beispiel 11 2-30

Ungleichung von Tschebyscheff 11

Fr verschiedene Werte von k erhalten wir folgende Abschtzungen:


k = 1,5:

P<IX-l1xl2: 1,5"x}

0,4444 ...

k=2:

P<IX-l1xl2:2"x}

,,0,2500

k=2,5:

P<IX-l1xl2:2,5"x}

"

k=3:

P<IX-l1xl2:3"x}

,,0,1111 ...

0,1600

Wir erkennen deutlich, dass die Wahrscheinlichkeit dafOr, dass X auerhalb des offenen
Intervalls 1l1x - k . <>x; I1x + k . <>x[ liegt, mit zunehmendem k abnimmt.

2.6 Anwendungsbeispiele
2_6_1

Renditen als Zufallsvariablen

Nach der Portfoliotheorie von H. Markowitz lO entscheidet sich ein rationaler Investor bei der Wahl zwischen zwei alternativen Anlagemglichkeiten fr diejenige, die
bei gleicher erwarteter Rendite das geringere Risiko aufweist. Unter der Rendite r,
ist dabei die relative Wertnderung zwischen einer Anfangsinvestition K,-, zum
Zeitpunkt t - 1 und dem Endwert Cinkl. Dividenden, etc.) der Anlage K, zum Zeitpunkt t zu verstehen:
[ =
t

_K-,,_-_K--,='_cc'
K

_
t 1

Nehmen wir beispielsweise an, dass es sich bei der Anlage um eine Investition in
Aktien handelt, so ist klar, dass K, zum Investitionszeitpunkt t - 1 ungewiss ist. r,
kann daher als Ausprgung einer Zufallsvariable R, angesehen werden, die sich
durch ihren Erwartungswert und ihre Varianz charakterisieren lsst. Die Varianz

bzw. die Standardabweichung von Renditen, ist nun aber, wie wir bereits unter
I 2.2.2.4 gesehen haben, das in der Praxis am hufigsten eingesetzte Risikoma.
Dies bedeutet, dass uns mit diesen beiden Kennzahlen von Renditeverteilungen
smtliche Infonnationen vorliegen, die uns ein Treffen von Investitionsentscheidungen nach der Theorie von H. Markowitz erlauben. Das nachfolgende Beispiel
II 2-31 veranschaulicht dies.

10 vgl.

MarkowilZ (1952, 1959).

224

11 Wahrscheinlichkeitsrechnung

Beispiel 11 2-31

Erwartungswert und Standardabweichung von Renditen

Ein Investor habe die Mglichkeit zwischen zwei Aktien A und B zu whlen. FOr drei mgliche gesamtwirtschaftliche Entwicklungstendenzen wurden von Analysten folgende Renditen geschtzt:
Wahrscheinlichkeit p;

Entwicklung
2

u Berst positiv
normal

u Berst negativ

20%
60%
20%

Rendite r,A

Rendite r,B

30%
tO%

50%
10 %

-10%

-30 %

Die erwartete Rendite der Aktie A errechnet sich daraus wie folgt:
3

E(R') = ~), .r;' = 0,200,30+0,600,10 +0,20 (-{l, 10)


i~1

=0,10=10%
Analog ergibt sich fr Aktie B ebenfalls eine erwartete Rendite von 10%.
Fr die Standardabweichung der Renditen von Aktie A ergibt sich:
3

<>(R') = ~), . (r,' -E(R'))'


i_1

= ~0,20 (0,30-0,10)' +0,60 (0,10 -0,10)' +0,20(-0,10-0,10)'


=0,1265
Da wir bei analoger Berechnung fr die Volatilitt von Aktie B einen hheren Wert von
0,2530 erhalten, wird ein risikoaverser Investor (da gleiche erwartete Renditen) in Aktie A
investieren.

2.6.2

Zufallsvariablen beim Roulette

Beim amerikanischen Roulette wird ein Rad mit 38 Zahlenschlitzen gedreht. Dieses
Rad weist 18 rote und 18 schwarze Zahlen sowie die grnen 0 und 00 aufl l Ziel ist
es, die Zahl vorauszusagen, auf der die Kugel landet. Mit einer richtigen Voraussage erhlt man dann auf diese Wette eine Auszahlung. Die Auszahlung hngt
wiederum von der Art der Wette ab. Es gibt allgemein neun verschiedene Wettarten. Jede Wettart umfasst eine bestimmte Spanne von Zahlen und hat ihre eigene
Auszahlungsrate. Auf der Folgeseite sind ein typischer "Wetttisch,,12 und eine Tabelle mit den verschiedenen mglichen Wettarten abgebildet. Die darin enthaltenen
Wettarten 1-6 werden auch als "inside beiS', die letzten 7-12 als "outside beiS' bezeichnet.

11 Im Gegensatz dazu fehlt beim europischen Roulette die 00.


12 Es ist dabei zu beachten, dass die hellgraue Frbung die Farbe rot und die dunkelgraue
die Farbe schwarz darstellen soll.

2. Zufallsvariablen

225

Typischer Roulettetisch:

0
1

1 to 18
I" 12
EVEN

Q
7

ttl)

m
2,d 12

16
19

m
25

000
3'" 12
19 to 36

m
m

00

fl

Gi

[J

9
12

14

18

fli]

21

23

f!d

27

FE

30

32

34

2 to 1

2 to 1

36
2 to 1

bersicht und Erklrung der Wettarten:


Wettart
Straight Up

Erklrung
Der Einsatz wird direkt auf eine einzelne Zahl (ein-

Beispiel
4

_.............. __~0!i~_~~0. 9. ~~~ .~g? .~~~~!~~'.............................................. _


_~p.~~~c:~ ________ ~~_~~~_~~_~c:~~c:~~1?~~_~~~~_~_~s_~~_t: _________________ ~!~_________ _
Street Bet
Man setzt auf eine Zahlenreihe von 3 Zahlen.
13,14,15
---------------------------------------------------------------------------------------------Corner Bet
Die Spiehnarke wird auf einer Ecke platziert, auf
1,2,4,5
der sich vier Zahlen treffen.
Five Bet
Diese umfasst die ersten beiden Zahlenreihen. Man

.................................................. .

_.............. __~~~t. ~~~ !':~~ ?,9?N,.~'


Line Bet
Die Wette umfasst alle Zahlen von zwei aneinan22,23,24,25,26,27
__________________ ~~!~~~c:~?~~}~~~~?:'_~~'!_~_~~~?:. _____________________________________ _

Column Bet
Es wird auf die 12 Zahlen einer Spalte (ohne und
2,5,8,11,14,17,
................ _.00) .l!esetzt.............................................. 2(j,23,26,29,32!35.. _
Dozen Bet
Setzt man seine Spiehnarken in eine der Boxen "1 ot 25,26,27,28,29,30,
12", "2"" 12" oder "3rd 12", umfasst die Wette diese
31,32,33,34,35,36
12 Zahlen.
RedIBlack
Es wird auf alle roten oder alle schwarzen Zahlen

_.............. __9~Y:~!i:'. ~~. !:~~,!-, .'!~!'.~.~ ~'!-~. 9?? !l~~~.~'................................ _


Even/Odd
Man setzt auf alle geraden oder alle ungeraden
................ _.Zall1e~ Cje,,:eils.18. Z"hlen,. "hne. 0. u~d.OO): ............................... _
_~_~_~~ __________ I?_~~~~i~_l~:_~c:~t_~~r?~~_~~~l~_~_':~~_~_~~_~~: _____________________________ _
19 to 36
Der Spieler setzt auf die Zahlen von 19 bis 36.

11 Wahrscheinlichkeitsrechnung

226

Fr die Auszahlungen und die dazugehrigen wahrscheinlichkeiten gilt:


Wette auf

Mglicher Gewinn

Trefferchance

1 Zahl

35 zu 1

f, -

2 Zahlen

17 zu 1

f. - 5,26 %

3 Zahlen

11 zu 1

4 Zahlen

8 zu 1

5 Zahlen

6 zu 1

1.= 7,89 %
1. =10,53 %
is =13,16 %

6 Zahlen

5 zu 1

t. - 15,79 %

12 Zahlen

2 zu 1

18 Zahlen

1 zu 1

2,63 %

*= 31,58 %
*= 47,37 %

Es ist besonders zu beachten, dass wenn die Kugel auf 0 oder 00 landet, Wetteinstze auf rot, schwarz, ungerade, gerade, 1 to 18 und 19 to 36 nicht komplett verlorengehen. Stattdessen verliert jeder Spieler nur die Hlfte des ursprnglichen Wetteinsatzes. Die andere Hlfte kann vom Spieltisch wieder zurckgenommen oder
erneut eingesetzt werden. 13
Nach Beschreibung dieser allgemeinen Rouletteregeln wollen wir uns nun mit dem
Gewinn beschftigen, den wir bei Setzen eines Betrages B auf bestimmte, ausgewhlte Zahlenkombinationen erwarten knnen. Wir erhalten im Gewinnfall auch
den Einsatz B zurck, sodass wir diesen im Folgenden nicht als echten Gewinn
(Zufallsvariable) betrachten. Konkret untersuchen wir drei einfache Tippstrategien:
1t
Setzen eines Betrages B auf eine einzelne Zahl k, auf "1 1211 oder "rot/schwarz"
l1
bzw. "evenlodd ,

1. Setzen eines Betrages B auf eine einzelne Zahl k


Wahrscheinlichkeit

Gewinn

P(kD =-!a

35B

fs

-B

P({k)) =

Wahrscheinlichkeit Gewinn

,.

.l;B

-*.B
E(G) - -t,-.B

Das Risiko einer solchen Wette kann zahiemnig wie folgt ausgedrckt werden:
Var(G)= (35 B)' .-!a+ (-B)' .
(JG

fs-(-f,- B)' = ?,'.B' - ,l, B' = 33,2078 B'

5,7626 . B

13 Beim europischen Roulette bedeutet eine 0 hingegen einen 100 %igen Verlust, sofern
nicht auf 0 selbst gesetzt wurde.

2. Zufallsvariablen

227

2. Setzen eines Betrages B auf "1- 12"


Wahrscheinlichkeit
P({l" 12))

="'

Gewinn

38

2B

P({1" 12)) = ~

-B

Wahrscheinlichkeit Gewinn

E(G) = -,',.B
Fr das Risiko gilt hier:
Var(G) = (2 . B)' . "'
+ (-B)' ...
- (_l
. B)' = R
. B' 38
38
19
19

~
. B'
361

= 1, 9446 B'

O"G = 1,3945 B

3. Setzen eines Betrages B auf "rot/schwarz" oder "even/odd"


Wahrscheinlichkeit

Gewinn

Wahrscheinlichkeit . Gewinn

P({rot)) = ~

~'B

P({schwarz)) = ~

-B

-~'B

P(IO)) = t.

-t B
-t B

--#6B
--#6B

P(100)) = t.

E(G) - -t..B
Das Risiko ergibt sich hier als:
Var(G) = B' . ~ + (-B)' . ~ + (-t B)' . t. + (-t B)' . t. =O,9605B'

(-t.. B)'

-,i.. B' =O,9598B'

O"G= 0,9797 B
Wir sehen, dass alle Wettstrategien einen negativen Erwartungswert aufweisen und
sich hinsichtlich des Risikos stark unterscheiden. Generell knnen wir festhalten,
dass Roulette langfristig zu Gunsten des Kasinos ausgelegt ist.

2.7 Mehrdimensionale Zufallsvariablen


2.7.1

Begriff

Bisher haben wir uns nur mit Verteilungen einzelner Zufallsvariablen (univariate
Verteilungen) beschftigt. Bei vielen praktischen und theoretischen Fragestellungen
betrachtet man als Ergebnis eines Zufallsexperimentes nicht nur eine einzige, sondern mehrere Zufallsvariablen. So kann beispielsweise die Wirtschaftslage eines
Landes am Ende einer Periode als Ergebnis eines Zufallsvorganges betrachtet werden, bei dem jedes mgliche Elementarereignis (wirtschaftliche Situation) durch eine Reihe von Zufallsvariablen wie etwa das Bruttoinlandsprodukt X, die Inflations-

11 Wahrscheinlichkeitsrechnung

228

rate Y oder die Arbeitslosenquote Z beschrieben wird. Von besonderem Interesse


werden bei der Anlayse nun aber nicht die Verteilungen von X. Y und Z fr sich
sein, sondern Beziehungen und Abhngigkeitsverhltnisse zwischen den Zufallsva-

riablen. Es liegt also nahe. das Ergebnis des Zufallsvorganges als eine dreidimensionale Zufallsvariable (X. Y. Z) aufzufassen.
Die gemeinsame Wahrscheinlichkeitsverteilung zweier Zufallsvariablen bzw. die
Verteilung einer zweidimensionalen Zufallsvariable wird als bivariate Verteilung
bezeichnet. Bei drei- und mehrdimensionalen Zufallsvariablen hingegen spricht
man von multivariaten Verteilungen. Aus Grnden der rechnerischen Einfachheit
und der Tatsachen. dass sich dieser Fall grafisch noch anschaulich darstellen lsst
und ein Transfer auf mehr als zwei Zufallsvariablen leicht mglich ist. beschrnken
wir uns im Folgenden auf diskrete zweidimensionale Zufallsvariablen14

2.7.2

Wahrscheinlichkeits- und Verteilungsfunktion

Die bei eindimensionalen Zufallsvariablen eingefhrten Begriffe der Verteilungsfunktion. Wahrscheinlichkeitsfunktion und -dichte knnen wir auch auf mehrdimensionale Zufallsvariablen bertragen. Auch knnen wir hier wieder eine weitgehende Analogie zur zweidimensionalen Hufigkeitsverteilung beobachten.
2.7.2.1

Gemeinsame WahrscheinIichkeitsfunktion

Sind X und Y zwei diskrete Zufallsvariablen mit den Ausprgungen x, und y,. so
gibt die gemeinsame Wahrscheinlichkeitsjunkt/on f(x.y) von X und Y (zweidimensionale Wahrscheinlichkeitsverteilung) die Wahrscheinlichkeit dafr an. dass
die Zufallsvariable X den Wert x und die Zufallsvariable Y gleichzeitig den Wert y
annimmt. Sie ist definiert als

fex. Y) = {

P(X = x" Y =

Yj) =

f(x" Yj) falls x = x"

Y = Yj

sonst

fr i.i = 1.2...

(H2: 52)

Wie im eindimensionalen Fall nimmt die Funktion also nur an den Stellen konkrete
Werte an. die Zum Wertebereich der Zufallsvariablen X und Y gehren. Andernfalls
ist sie Null. Analog zur zweidimensionalen Hufigkeitsverteilung muss immer
O:S;

f(x .. Yj):S; 1

LLf(x" Yj) = 1
,

fr i.i = 1,2, ...


fr i.i = 1.2...

(H2: 53)
(H2: 54)

gelten. Fr den Fall. dass die Zufallsvariablen X und Y eine endliche Anzahl von
Ausprgungen annehmen knnen. lsst sich die gemeinsame Wahrscheinlichkeitsverteilung tabellarisch mittels Abbildung H 19 darstellen. Man beachte dabei. dass
die Anzahlen kund r der Ausprgungen von X und Y gleich sein knnen. iedoch
nicht mssen.

14

Unter II 2.7.6 folgt ein kurzer berblick ber die wichtigsten Zusammenhnge bei zweidimensionalen stetigen Zufallsvariablen. Eine ausgezeichnete allgemeine Einfhrung in
multivariate Verteilungen bieten Schmid, Po, Trede, M. (2005) im Kontext von Renditen.

2. Zufallsvariablen

229

...

y,

y,

x,

fex"~ y,)

fex"~ y,)

x,

fex"~ y,)

f(x, , y,)

x,

f(x" y,)

f(x y,)
"

x.

fex"~ y,)

f(x k , y,)

...
...

...
...
...
...

...

Yj

...
...

fex"~ Yj)
fex"~ Yj)

...
...

f(x" Yj)

...
...

f(x., Yj)

y,
fex"~ y,)
fex"~ y,)

f(x" y,)
f(x k , y,)

Abbildung II 19: Gemeinsame Wahrscheinlichkeitsfunktion


Beispiel 11 2-32

Zweidimensionale Wahrscheinlichkeitsverteilung

Bei einer bestimmten Automarke werden regelmig Defekte in der Lichtmaschine und im
Steuergert festgestellt. In einer Vertragswerkstatt wurde diesbezOglich eine Statistik gefhrt. Es lie sich aus den Erfahrungswerten dieser Statistik eine gemeinsame Wahrscheinlichkeitsfunktion bilden, in der X die Anzahl pro Tag ''vorgefahrener'' Pkws mit defekter Lichtmaschine und Y die Anzahl derjeniger mit defektem Steuergert bezeichnet.

Lichtmaschinendefekte (x)

0
0,10
0,05
0,05

0
1
2

Steuergertdefekte (y)
1
2
0,20
0,05
0,10
0,20
0,05
0,20

Aus dieser Tabelle knnen wir nun z.B. ablesen, dass die Wahrscheinlichkeit dafOr, dass
an einem Tag 1 Pkw mit Lichtmaschinendefekt und gleichzeitig 2 Pkws mit Steuergertdefekt in der Werkstatt repariert werden, bei P(X = 1, Y = 2) = f(l ; 2) = 0,20 liegt.
Grafisch lsst sich die gemeinsame Wahrscheinlichkeitsfunktion (bei Nutzung des Befehls
"stem3" in der Software Matlab 2009a) wie folgt darstellen:

Q2

." -

... -

. -

Als Alternative zu diesem Stabdiagramm knnte auch ein Streuungsdiagramm verwendet


werden, in dem alle x-y-Kombinationen abgetragen und zu jedem Punkt die Zahlenwerte
f(x,y) angegeben werden.

230

11 Wahrscheinlichkeitsrechnung

2.7.2.2

Gemeinsame Verteilungsfunktion

Die gemeinsame Verteilungsfunktion F(x,y) gibt an, mit welcher Wabrscheinlichkeit


die Zufallsvariable X hchstens den Wert x und zugleich die Zufallsvariable Y
hchstens den Wert y annimmt. Sie ergibt sich bei diskreten Zufallsvariablen durch
Summation der entsprechenden Werte der gemeinsamen Wahrscheinlichkeitsfunktion f(x,y). Es gilt also

F(x,y)=P(X~x,Y~y)=

L Lf(x"YI)'

(H2: 55)

XjSx YJsy

Fr die gemeinsame Verteilungsfunktion gelten hnliche Regeln, wie sie im Abschnitt H 2.2.2 fr den eindimensionalen Fall angegeben wurden. Wir wollen sie
daher hier nicht im Einzelnen formulieren.

Beispiel 11 2-33

Zweidimensionale Verteilungsfunktion

Fr das Beispiel 11 2-32 zur defektanflligen Automarke zeigt die folgende Tabelle (links)
die gemeinsame Verteilungsfunktion F(x,y}:
F(x,y}:

f(x,y}:
y

x
0
2

0,10

0,30

0,35

0,15

0,45

0,70

0,20

0,55

1,00

0
2

0,10
0,05
0,05

0,20
0,10
0,05

0,05
0,20
0,20

Wie wir hier sehr schn erkennen knnen, wird also, vereinfacht ausgedruckt, nichts anderes getan als jeweils zum "aktuellen" Zellwert all diejenigen Werte zu addieren, die links
und oberhalb davon liegen. Der Fettdruck veranschaulicht dies. So erhalten wir 0,55 = 0,10
+ 0,05 + 0,05 + 0,20 + 0,10 + 0,05. (Die weiteren Markierungen in den Tabellen bentigen
wir im Folgenden fOr weitere Beispiele.)

Zwischen gemeinsamer Verteilungsfunktion und gemeinsamer Wahrscheinlichkeitsfunktion gilt die Beziehung


(H2: 56)
Mit der Graufrbung aus Beispiel H 2-33 knnen wir so z.B. den Wert FO,2)
FO,I) + F(O,2) - F(O,I) + fO,2) = 0,45 + 0,35 - 0,30 + 0,20 = 0,70 bestimmen 15
2.7.2.3

Randverteilungen

Sind X und Y diskrete Zufallsvariablen, so kann aus der gemeinsamen Wahrscheinlichkeitsfunktion fr X eine Randverteilung mit den Wahrscheinlichkeiten fxCx,) und
fr Y eine Randverteilung mit den Wabrscheinlichkeiten fy(Y? abgeleitet werden.

15 Mittels Beispiel 11 2-33 lsst sich auerdem veranschaulichen, dass fr die Wahrscheinlichkeit eines Ereignisses Ca < X ~ b, C < Y ~ d) mit a < bund c < d stets der Zusammenhang P(a < X ~ b, c < Y ~ d) = F(b, d) - F(b, c) - F(a, d) + F(a, c) gilt.

2. Zufallsvariablen

231

fxex,) gibt dabei an, wie gro die Wahrscheinlichkeit dafr ist, dass X einen speziellen Wert X, annimmt, wobei es gleichgltig ist, welchen Wert die Zufallsvariable Y
annimmt. Analoges gilt fr fvCYI' Die beiden Randverteilungen fr X und Y lassen
sich aus den Werten fex" YI der tabellarischen gemeinsamen Wahrscheinlichkeitsfunktion durch die Bildung von Zeilen- bzw. Spaltensummen errechnen. Es gilt
fxex) = peX = x) = fexl>Y,) + fe xI> y,) + ... = ~)exI>Yj) fr i = 1,2, ... e1l2: 57)
j

und

Durch "Elimination" der jeweils anderen Zufallsvariable werden also die eindimen-

sionalen Verteilungen von X und Y abgebildet.


Beispiel 11 2-34

Randverteilungen

Fr unser Automobilbeispiel 11 2-32 erhalten wir nach (112: 57) und (112: 58) folgende Randverteilungen von X und Y:
Y

0,10

0,20

fx(x;)

x
0
1

0,05

0,10

0,05 ---7

0,20 ---7

0,35
0,35

0,05

0,05

0,20 ---7

0,30

fy(Y j )

0,20

0,35

0,45

1,00

"

"

"

Die Wahrscheinlichkeit, dass etwa an einem Tag 2 Pkws mit Lichtmaschinendefekt "vorgefahren- werden, liegt also hier bei fx(2) = 0,30.

Unsere bisherigen Ausfhrungen zeigen, dass die gemeinsame Wahrscheinlichkeitsfunktion fex,y) alle Infonnationen ber die Wahrscheinlichkeitsfunktionen fix) und
fyey) der eindimensionalen Zufallsvariablen X und Y enthlt und daher fix) und
fyey) aus fex,y) abgeleitet werden knnen. Umgekehrt ist die Kenntnis der Randverteilungen im Allgemeinen jedoch nicht ausreichend, um die gemeinsame Wahrscheinlichkeitsfunktion zu ennitteln. Dies ist nur im Falle stochastisch unabhngiger
Zufallsvariablen mglich evgl. Abschnitt 11 2.7.3).
2.7.2.4

Bedingte Verteilungen

Bedingte Verte/lungen knnen ebenfalls aus der gemeinsamen Wahrscheinlichkeitsfunktion gewonnen werden. Solche Verteilungen geben die Wahrscheinlichkeit dafr an, dass eine Variable einen bestimmten Wert annimmt, unter der Bedingung,
dass die jeweils andere bereits einen bestimmten Wert angenommen hat.

232

11 Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeit P(X = XI I Y = Yj)' dass die Zufallsvariable X einen bestimmten Wert ~ annimmt, unter der Bedingung, dass Y einen Wert Yj angenommen hat, ennittelt sich im diskreten Fall, sofern P(Y > 0 ist, als

YI

(H2: 59)

Es gilt natrlich analog auch


P(Y = y. I X = x.) =
I

P(X = xi> Y = y.)

'

P(X=x)

f(x i , Yj)
fx(x)

Beispiel 11 2-35

f(Yj I x) .

(II2: 60)

Bedingte Verteilungen

Fr das Beispiel 11 2-32 auf Seite 227 ergeben sich fr die Zulallsvariable X: "Anzahl der
Pkws mit delekter Lichtmaschine" ber
l(x.1 0) = l(x"O) I(x.ll) = I(x" 1) und I(x. 12) = l(xi ,2)
,
ly(O)"
l y(l)
,
l y (2)
die drei lolgenden bedingten Verteilungen:
x

l(x,O)

I(x I 0)

l(x,l)

I(x 11)

l(x,2)

I(x 12)

0,10

0,10/0,20 0,50

0,20

0,20/0,35 0,57

0,05

0,05/0,45 0,11

0,05

0,05/0,20 0,25

0,10

0,10/0,35 0,29

0,20

0,20/0,45 0,44

0,05

0,05/0,20 0,25

0,05

0,05/0,35 0,14

0,20

0,20/0,45 0,44

0,20

1,00

0,35

1,00

0,45

1,00

Fr die Zulallsvariable Y: "Anzahl der Pkws mit delektem Steuergert" ergeben sich ber
I(Y.I 0) = I(O'Yj) I(Y.ll) = 1(I,yj ) und I(Y.12) = 1(2'Yj)
I
Ix(O)'
I
I x(l)
I
I x(2)
ebenlalls drei bedingte Verteilungen:
Y

1(0, y)

I(y I 0)

1(1, y)

I(y 11)

1(2, y)

I(y 12)

0,10

0,10/0,35 0,29

0,05

0,05/0,35 0,14

0,05

0,05/0,30 0,17

0,20

0,20/0,35 0,57

0,10

0,10/0,35 0,29

0,05

0,05/0,30 0,17

0,05

0,05/0,35 0,14

0,20

0,20/0,35 0,57

0,20

0,20/0,30 0,66

0,35

1,00

0,35

1,00

0,30

1,00

2. Zufallsvariablen

2.7.3

233

Stochastische Unabhngigkeit

Zwei Zufallsvariablen X und Y sind grob gesprochen dann voneinander stochastisch unabhngig, wenn sie keinerlei Einfluss aufeinander haben. Ausgehend vom
Multiplikationssatz fr unabhngige Ereignisse eIn: 55) knnen wir stochastische
Unabhngigkeit daher ber die folgende Beziehung konkretisieren:
:ex=x"Y=YJ)=pex=x,~~'(Y=YJ~
f:a:(x.)

f(:a:t'Yj)

fr i,j=1,2, ...

eII2: 61)

fY(YJ)

Die gemeinsamen Wahrscheinlichkeiten mssen also dem Produkt der jeweiligen


Randverteilungswahrscheinlichkeiten entsprechen 16 Ist eII2: 61) nicht fr alle i und
j erfllt, dann sind die beiden Zufallsvariablen stochastisch abhngig.

Beispiel 11 2-36

Stochastische Unabhngigkeit

Bezeichnen wir beim zweimaligen Wurf einer fairen MOnze das Ergebnis des ersten Wurfs
mit X und das des zweiten mit Y, wobei wir die Codierung "Kopf" = 1 und "Zahl" = 0 vornehmen, so erhalten wir die gemeinsame Wahrscheinlichkeitsverteilung durch:
1

fx(x)

0,25

0,25

0,50

0,25

0,25

0,50

fy(y)

0,50

0,50

1,00

Die Zufallsvariablen X und Y sind klar stochastisch unabhngig, da hier nach (112: 61) die
gemeinsamen Wahrscheinlichkeiten gerade als Produkte der jeweiligen Randverteilungswahrscheinlichkeiten entstehen. Wie wir bereits unter 11 2.7.2.3 erwhnt halten, steckt also
im Falle stochastischer Unabhngigkeit die vollstndige Information zur gemeinsamen Verteilung der Zufallsvariablen X und Y in den Randverteilungen von X und Y.

Unter Verwendung von eII2: 61) ergibt sich bei den bedingten Verteilungen von
unabhngigen Zufallsvariablen
fex" Y,)

fxex) fvey,)

fvey,)

fvey,)
Unabhngigkeit

und
fxex) fvey,)
fxex)

Eine quivalente Bedingung zur Unabhngigkeit besteht also in der bereinstimmung der bedingten Verteilungen mit den jeweiligen Randverteilungen:
fex, I y,) = fxex,)

fr i,j = 1,2,...

eII2: 62)

16 Bei stochastischer Unabhngigkeit gilt natrlich auch fr die gemeinsame Verteilungsfunktion F(x" y,) = Fx(x,)' Fv(y,) fr i,j = 1,2, ....

234

11 Wahrscheinlichkeitsrechnung

(H2: 63)

fr i,j = 1,2, ...

Sind die bedingten Verteilungen fr verschiedene Bedingungen unterschiedlich, so


ist eine Variable davon abhngig, welchen Wert die andere annimmt. Die Variablen
sind stochastisch abhngig.

2.7.4

Kennzahlen zweidimensionaler Wahrscheinlichkeitsverteilungen

2.7A.l

Erwartungswert und Varianz

Die Erwartungswertbildung fr eindimensionale Zufallsvariablen lsst sich auch auf


zweidimensionale Wahrscheinlichkeitsverteilungen ausdehnen. Sind X und Y zwei
diskrete Zufallsvariablen mit der gemeinsamen Wahrscheinlichkeitsfunktion f(x,y),
so ergibt sich der Erwartungswert von X als
(H2: 64)
j

Da aufgrund allgemeiner Summationsregeln und nach (H2: 57) die Beziehungen

LLx, .f(x" y,) = Lx,Lf(x" y,) = LX, .fx(x)


i

gelten, knnen wir den Erwartungswert der Zufallsvariable X also auch mit Hilfe
der Randverteilung von X bestimmen:
(H2: 65)
Fr die Zufallsvariable Y erhalten wir analog
E(Y) =

Beispiel 11 2-37

LY,
, .fy(y,) .

(H2: 66)

Erwartungswerte aus Randverteilungen

Fr unser Beispiel der Lichtmaschinen und Steuergertdefekte bzw. die Tabelle in Bei
spiel 11 2-34 ergeben sich nach (112: 65) und (112: 66) folgende Erwartungswerte:

E(X) =

LX,
fx(x;) = 00,35+10,35+20,30 = 0,95
,-1
3

E(Y) = Ly,fy(Y,) =00,20+10,35+20,45 = 1,25


i:01

Dies bedeutet nun, dass im Durchschnitt tglich 0,95 Autos mit Lichtmaschinen- und 1,25
Autos mit Steuergertdefekt ''vorgefahren" werden. Da diese Werte vielleicht etwas abstrakt scheinen (es sind ja wohl ganze Autos), empfiehlt sich in diesem Fall eine Hochrechnung der Ergebnisse auf andere Zeitrume (etwa Wochen, Monate).

Analog zur Herleitung des Erwartungswertes lsst sich auch die Varianz von X aufgrund von
Var(X) = E[X -E(X)]' = LL[xj -E(X)]' . f(x" y,) = L[x j
i

E(X)],

Lf(x" y,)
J

2. Zufallsvariablen

235

mittels der Randverteilung von X als


Var(X) = ~)x, - E(X)]' . fx(x)

(II2: 67)

berechnen. Analog ergibt sich fr die Zufallsvariable Y


Var(Y) = ~)Yj - E(Y)]' . fY(Yj) .

Beispiel 11 2-38

(H2: 68)

Varianzen aus Randverteilungen

Fr unser Autobeispiel (Tabelle in Beispiel 11 2-34) erhalten wir unter Beachtung der Ergebnisse von Beispiel 11 2-37 und Anwendung des Verschiebungssatzes die Varianzen:
3

Var(X) = LX~' fx(x,)-[E(X)]' = 0' 0,35 +1'0,35+2'0,30-0,95' = 0,65


i=1

Var(Y) =

LI; fY(Yi) -[E(Y)]' = 0' 0,20+1' 0,35+2' 0,45-1,25' = 0,59


j=1

Fr die Standardabweichung ergibt sich hier:


"x = ~Var(X) = ~O,65 = 0,81
"y = ~Var(Y) = ~O,59 = 0, 77
Wir knnen also sagen, dass die Einzelwerte der Verteilung von X strker um ihren Erwartungswert streuen als die von Y.

Neben Erwartungswerten und Varianzen aus Randverteilungen lassen sich mit Hilfe
von bedingten Verteilungen bedingte Erwartungswerte und bedingte Varianzen
bestimmen. Bedingte Erwartungswerte ergeben sich wie folgt:

LX,
, .fex, IYj)

(H2: 69)

E(Y I x) = LYj f(Yj I x)

(H2: 70)

E(X I Yj) =

Bedingte Varianzen ergeben sich als

Var(X Iy) = L[x, -E(X I Yj)]' f(x, I Yj)


Var(Y I x) =

L [Yj - E(Y I x)]' . f(Yj I x,) ,

(H2: 71)
(H2: 72)

wobei zur Rechenvereinfachung auch vom Verschiebungssatz Gebrauch gemacht


werden kann.

Beispiel 11 2-39

Bedingte Erwartungswerte und Varianzen

Unter Rckgriff auf unsere Ergebnisse aus Beispiel 11 2-35 knnen wir z.B. bestimmen, wie
viele Autos mit defekter Lichtmaschine im Durchschnitt an Tagen "vorgefahren" werden, an
denen genau Y = 1 Wagen mit Steuergertdefekt gewartet wird:

11 Wahrscheinlichkeitsrechnung

236
E(X 11) =

LX,'
f(x, 11) = 0,57 + 10,29 +20,14 = 0,57
'_1
3

Die zugehrige Varianz der Anzahl dieser Fahrzeuge ergibt sich dabei zu
3

Var(X 11) = LX~ f(x, 11) -IE(X 11)]' = 0' 0,57 +1' 0,29+2' 0,14-0,57' = 0,53.

'.1

Interessieren wir uns fr die durchschnittliche tgliche Anzahl an Fahrzeugen mit Steuergertdefekten M an Tagen, an denen genau X = 2 Fahrzeuge mit Lichtmaschinendefekten "vorgefahren" werden, und die zugehrige Varianz, erhalten wir folgende Ergebnisse:
E(Y 12) =

LYI .f(YI 11) = 00,17 +10, 17 +2 0,66 = 1,49


3

11

Var(Y 12) = LY~ .f(YI 12) -IE(Y 12)]' = 0' 0,17 +1' 0,17 + 2' 0,66 -1,49' = 0,59
1=1

Erwartungswerte und Varianzen liefern in ihrer unbedingten Fonn keine Information ber den stochastischen Zusammenhang zwischen zwei Zufallsvariablen X und
Y. Lediglich bedingte Gren knnen zur Feststellung eines solchen Zusammenhanges verwendet werden. Sind zwei Zufallsvariablen voneinander unabhngig, so
sind die bedingten und unbedingten Erwartungswerte identisch, d.h.

E(X I Yj) = E(X)

fr j = 1,2, ... ,

([[2: 73)

E(Y I x) = E(Y)

fr i = 1,2, .. ..

([[2: 74)

Dies ist darauf zurckzufhren, dass im Falle der Unabhngigkeit nach ([[2: 62)
bzw. ([[2: 63) die bedingten Wahrscheinlichkeiten den Randverteilungswahrscheinlichkeiten entsprechen.
2.7A.2

Kovarianz und Korrelationskoeillzient

Der im Abschnitt I 3.2 fr zweidimensionale Hufigkeitsverteilungen behandelte


Begriff der Korrelation ist auch auf zweidimensionale Wahrscheinlichkeitsverteilungen bertragbar. Gehen groen Werte von X tendenziell mit greren (kleineren)
Werten von Y einher, sind die Zufallsvariablen X und Y positiv (negativ) korreliert.
Eine Mazahl fr die Richtung dieses Zusammenhanges ist die Kovarianz Cov(X,Y)
oder kurz csxy, welche sich als der Erwartungswert des Produktes der Abweichungen der einzelnen Zufallsvariablen von ihrem jeweiligen Erwartungswert ergibt:
Cov(X, Y) = E [IX - E(X)] IY - E(Y)]]

([[2: 75)

Fr diskrete Zufallsvariablen erhalten wir unter Verwendung der gemeinsamen


Wahrscheinlichkeitsfunktion f(x,y) konkret
Cov(X,Y)= L~)x, -E(X)]' IYj -E(Y)].f(x"Yj)

L LX, .Yj . fex"~ Y) - E(X)' E(Y)

= E(XY) - E(X) . E(Y)

(II2: 76)

2. Zufallsvariablen

237

Zufallsvariablen mit positiver Kovarianz werden als positiv, solche mit negativer
Kovarianz als negativ korreliert bezeichnet. Nimmt die Kovarianz einen Wert von

Null an, so sind die Variablen unkorreliert. Die Kovarianz einer Zufallsvariable X
mit sich selbst entspricht ihrer Varianz, d.h. CovOC,X) = Var(X). Analog zur deskriptiven Statisrik knnen wir auerdem Cov(a + bX, c + dY) = bdCov(X,Y) festhalten.
Ntzlich ist fr drei Zufallsvariablen X, Y und Z hufig auch die Kenntnis der Beziehung Cov(X + Y, Z) = Cov(X,Z) + Cov(Y,Z).
Da die Kovarianz Cov(X,Y) von den Einheiten abhngt, in denen die Zufallsvariablen X und Y gemessen werden, wird in der Praxis durch die Division der Kovarianz
durch das Produkt der Standardabweichungen von X und Y ein dimensionsloses
Korrelationsma, der sog. Korrelationskoeffizient PXY' generiert. Er gibt fr den Fall,
dass Var(X) 0 und Var(Y) 0, die Strke des linearen stochastischen Zusammenhangs der beiden Zufallsvariablen an.

Cov(X,Y)

(HZ: 77)

PXY=-~~~

O'x . O'y

Wie der Bravais-Pearson-Korrelationskoeffizient aus der deskriptiven Statistik liegt


auch PXY im Invervall [-1;11 und ist so fr Vergleiche vorteilhafter. PXY ist genau
dann gleich I, wenn Y = a + bX mit b > 0 ist. Fr b < 0 nimmt Pxv den Wert -1 an.

Beispiel 11 2-40

Korrelation von Zufallsvariablen

Fr unser Automobilbeispiel 11 2-32 erhalten wir unter Verwendung der Ergebnisse aus den
Beispielen 11 2-37 und 11 2-38 die nachfolgenden Werte:
,

E(XY} = LLx'Yjf(X"Yj}
1.,1 J..1

000,10 +010,20 +020,05


+100,05 +110,10 +120,20
+200,05 +210,05 +220,20=1,4 (Stck')

Cov(X, Y} = E(XY} - E(X} E(Y}


=1,4-0,951,25=0,21 (StOck')
Pxv = -=C-=ov,-,(",x.,--Y",}
O'x . Gy

0,21 (Stck')
0,81 (Stck}O,77 (Stck)

0,34

Dieses Ergebnis deutet darauf hin, dass nur ein schwacher, positiver Zusammenhang zwischen Lichtmaschinen- und Steuergertausfllen besteht.

Wie wir wissen, gilt bei stochastischer Unabhngigkeit der in (HZ: 61) festgelegte
Zusammenhang f(x" Yj) = fx(x) fY(Yj)' Setzen wir diesen in die allgemeine Formel fr E(XY) aus (HZ: 76) ein, so ergibt sich
E(XY) = L~>, 'Yj f(x"y) =
i

LLx, .Yj fx(x) fY(Yj)


i

LX, fx(x,) LYj' fy(Y) =E(X)E(Y).


,

238

11 Wahrscheinlichkeitsrechnung

Bei Unabhngigkeit gilt also stets


E(XY) = E(X) . E(Y) .

(H2: 78)

Mit dieser neuen Erkenntnis knnen wir nun nher betrachten, wie sich die Kovarianz und der Korrelationskoeffizient bei Unabhngigkeit verhalten. Wir setzen dazu (112: 78) in (H2: 76) ein:
Cov(X, Y) = E(XY) - E(X) . E(Y)
= E(X) . E(Y) - E(X) . E(Y) = 0

Unabhngige Zufallsvariablen besitzen also hnmer eine Kovarianz von Null und
folglich auch einen Korrelationskoeffizienten von Null. Unabhngigkeit hat stets

Unkorreliertheit zur Folge.

x. Y unabhngig -7

Cov(X, Y) = 0 -7 Pxy = 0

(H2: 79)

Umgekehrt drfen wir aber bei einer Kovarianz von Null nicht allgemein auf Unabhngigkeit schlieen.!? Unkorrelierte Zufallsvariablen knnen stochastisch Abhngig sein, denn es kann ein nichtlinearer Zusammenhang bestehen. Ist die Kovarianz ungleich Null, so folgt daraus sicher die Abhngigkeit.
Die Formel (H2: 76) liefert durch einfache Umstellung den Multiplikations.atz fr
Erwartungswerte. Dieser besagt, dass der Erwartungswert des Produktes zweier
beliebiger Zufallsvariablen X und Y als
E(XY) = E(X) . E(Y) + Cov(X, Y)

(H2: 80)

bestimmt werden kann. Sind X und Y unabhngige Zufallsvariablen, so vereinfacht


sich der Multiplikationssatz zu (H2: 78). Liegen nunabhngige Zufallsvariablen
X"x., ...
vor, so gilt stets, dass sich der Erwartungswert des Produktes der Zufallsvariablen als Produkt der einzelnen Erwartungswerte ergibt:

,x..

(H2: 81)

Beispiel 11 2-41

Produkte aus Zufallsvariablen

Es sei die Zufallsvariable X die Anzahl der Bestellungen einer Einkaufsabteilung pro Jahr.
Die Zufallsvariable Y beschreibt die Anzahl der Artikel je Bestellung. Es ist nun unter Verwendung von E(X) = 10.000 StOck und E(Y) = 1.000 Stck die erwartete Anzahl der insgesamt pro Jahr bestellten Artikel E(XY) zu bestimmen.
Unterstellen wir Unabhngigkeit, so gilt
E(XY) = E(X) E(Y) = 10.000 1.000 = 10.000.000 StOck.

17 Nur im Fall gemeinsam norrnalverteilter Zufallsvariablen ist die Unkorreliertheit mit der
Unabhngigkeit quivalent.

239

2. Zufallsvariablen

2.7.5

Linearkombinationen von Zufallsvariablen

Analog zu den eindimensionalen Zufallsvariablen kann auch bei zweidimensiona-

len die Erwartungswertbildung auf Funktionen g(X,Y) der Zufallsvariablen X und Y


ausgedehnt werden. Es gilt dabei allgemein
E[g(X,Y)]= LLg(x"Yj)f(x"Yj).
i

(H2: 82)

Durch die Funktion g(X,Y) entsteht eine neue Zufallsvariable W. Eine spezielle
Mglichkeit der Generierung der Zufallsvariable W ist die sog. Linearkommnation
der Zufallsvariablen X und Y. Dies bedeutet konkret, dass
W = g(X, Y) = ax + bY
(H2: 83)
gilt, wobei a und b von Null verschiedene Konstanten sind, die als Gewichte von X

und Y in Wangesehen werden knnen. Fr den Erwartungswert einer solchen


Linearkombination W knnen wir
E(W) = a . E(X) + b . E(Y)

(H2: 84)

zeigen. Die Varianz von Wergibt sich als


Var(W) = a' . Var(X) + b' . Var(Y) + 2 a b Cov(X, Y) .

(H2: 85)

Fr einige spezielle Ausprgungen von a und b sind in der nachfolgenden Tabelle


wichtige Linearkombinationen zusammengestellt:

Summe
a = 1, b

Differenz
a = 1, b = -1
Mittelwert
a = 0,5, b = 0,5

E(W)

Var(W)

X+Y

E(X)+ E(Y)

Var(X) + Var(Y) + 2 . Cov(X, Y)

X-Y

E(X)-E(Y)

Var(X) + Var(Y) - 2 . Cov(X, Y)

1(X+Y)

1 [E(X) + E(Y)]

i .Var(X) + i .Var(Y)
+ 1 Cov(X, Y)

Auf die Auffhrung konkreter Beweise der allgemeinen Zusammenhnge (H2: 84)
und (H2: 85) wollen wir an dieser Stelle verzichten, da sie analog zu denen aus der
deskriptiven Statistik in Abschnitt I 3.2.5 erfolgen. Die aufgefhrten Beziehungen
besitzen sowohl fr diskrete als auch fr stetige Zufallsvariablen Gltigkeit. Sind X
und Y unabhngige Zufallsvariablen, so knnen die Formeln ebenfalls verwendet
werden. Es ist lediglich darauf zu achten, dass die Kovarianz dann den Wert Null
annimmt, also der entsprechende Term aus der Formel der Varianz herausfllt. Wir
erhalten also im Fall der Unabhngigkeit von X und Y aus QI2: 85) allgemein
Var(W) = a' . Var(X) + b' . Var(Y) .

(H2: 86)

Vor allem fr die praktische Anwendung (vgl. Abschnitt H 2.7.7) hat sich eine
alternative Formulierung von QI2: 85) bewhrt, die den Korrelationskoeffizienten
zwischen X und Y enthlt. Aufgrund der Beziehung

240

11 Wahrscheinlichkeitsrechnung

Pxy =

Cov(X, Y)
O'x . O'y

COV(X, Y) = O"x . O"y . Pxy

knnen wir nmlich auch

Var(W) = a' . Var(X) + b' . Var(Y) + 2 . a . b . O"x .O"y . Pxy

(112: 87)

schreiben.

Beispiel 11 2-42

Linearkombinationen beim WOrfeln

Ein idealer Wrfel wird zweimal geworfen. Betrachten wir die Zufallsvariablen S: "Augensumme". X,: "Augenzahl beim ersten Wurf" und X:.: "Augenzahl beim zweiten Wurf". so gilt
fr die Erwartungswerte der beiden letzten Variablen
E(X,) = E(x,,) =

~. (1 +2+3+4+5+6) = 3.5.

Ohne zeitraubende Umwege kann nun daraus E(S) als


S = X, + x"

....

E(S) = E(X, + X,) = E(X,)+ E(X,) = 3.5+3.5 = 7

ermittelt werden.
Zusatzfrage:
Wie verndert sich E(S). wenn die Augenzahlen auf beiden WOrfeln jeweils mit 10 multipliziert werden?
1. Mglichkeit der Lsung:
E(1 O S) = 1O E(S) = I 07 = 70
2. Mglickeit der Lsung:
E(IO X,) = I OE(X,) = 10 3.5 = 35. E(I O x,,) = I O E(X2 ) = 103.5 = 35
.... E(10S) = E(IO X,) +E(IO X 2 ) = 35 +35 = 70

Fr den Fall von n Zujallsvarlablen X" X, ... Xn und n von Null verschiedenen
Konstanten a"a, ... ,an knnen die Beziehungen (112: 84) und (112: 85) folgendermaen verallgemeinert werden:
E(t,a,x,) = t,a,E(X)

(112: 88)

var(t,a,x,) = t,t,a,ajcov(x,.xj)

(112: 89)

Da die Kovarianz einer Zufallsvariablen mit sich selbst stets ihrer Varianz entpricht.
knnen wir (112: 89) alternativ auch als

formulieren.

2. Zufallsvariablen

241

Sind die X"X, ... Xn zustzlich paarweise unabhngig. so gilt

(i>,x,)

Var

1- 1

i>~var(x) .

(H2: 90)

1=1

Eine konkrete praktische Anwendung dieser Verallgemeinerungen werden wir im


Abschnitt H 2.7.7 kennenlemen.

2.7.6

Formelzusammenstellung fr stetige Zufallsvariablen

Fr den Fall zweier stetiger Zufallsvariablen X und Y wollen wir im Folgenden die
wichtigsten fonnelmigen Zusammenhnge kurz darstellen:
Gemeinsame Dichtefunktion:

IJ fex. y) dy dx
bd

P(a < X,;; b.c < y,;; d) =

fra<bundc<d

mit den Eigenschaften


f(x.y);': 0

und

Gemeinsame Verteilungsfunktion:
F(x,.y,) =

11

f f f(x.y) dy dx = 1

f(x.y) dx dy

Randverteilungen (-dichten):
fy(y) = ff(X.y)dx

fx(x) = f fex. y) dy
Bedingte Verteilungen (Dichten):

f(y I x) = f(x.y)
fx(x)

fex I y) = f(x.y)
fy(Y)
Erwartungswert:

.. ..

..

E(X) = f fx.f(x.y)dxdy= fX'fx(x)dx

.. ..

..

E(Y) = f fyf(x.y)dxdy= fY'fy(y)dy

Varianz:
Var(X) = f f[ x - E(X))' . fex. y) dx dy

Var(Y) = f f[y-E(Y))' f(x.y) dx dy

= f[x-E(X))' fx(x) dx

= f[y -E(Y))'. fy(Y) dy

Kovarianz:

Cov(X.Y) = f f[x-E(X)).[y-E(Y)).f(x.y) dx dy

242

11 Wahrscheinlichkeitsrechnung

2.7.7

Anwendungsbeispiel : Portfoliotheorie

Wie wir unter 11 2.6.1 gesehen haben, bewerten Anleger alternative Investments auf
Basis erwarteter Renditen und der Renditevarianz bzw. -standardabweichung. Bei
gleicher erwarteter Rendite werden Anlagen mit geringerer Varianz vorgezogen.
Stellt sich nun ein Anleger ein Portfolio aus verschiedenen Anlagen zusammen, so
ergeben sich erwartete Portfoliorendite und Varianz der Portfoliorendite unter Bercksichtigung der unter 11 2.7.5 behandelten Vorschriften fr Linearkombinationen
von Zufallsvariablen. Der besondere Anreiz zur Portfoliobildung liegt fr den Anleger darin, dass er dadurch Renditevarianzen (d.h. ein Risiko) erreichen kann, die
unter den Varianzen einzelner Anlagen liegen.
Besteht ein Portfolio aus zwei Anlagen (1 und 2) mit den Renditen R, und R, sowie
den Preisen P1 und P2 und den Mengen ~ und Xl' so kann die envartete Rendite
des gesamten Port/olios in drei Schritten ermittelt werden:
1. Besrinunung der Anteile w, der Anlagen am Portfolio:

2. Berechnung der erwarteten Renditen der einzelnen Anlagen:


Die Werte von E(R,) und ECR,) werden wie unter 11 2.6.1 ermittelt.
3. Errechnung der erwarteten Gesamtrendite des Portfolios nach (112: 84):
E(Rp )

= w, . E(R,) + w, . E(R,)

Da w, + w, = 1 gilt, knnen wir auch Folgendes schreiben:


E(R p ) = w, . E(R,) + (1- w,) E(R,)

Beispiel 11 2-43

(112: 91)
Erwartete Portfoliorendite

Der Investor Uwe B. entschied sich dazu, seine Altersvorsorge zu 80 % mit den Aktien
eines Fuballvereins (X) und zu 20 % durch die Vermarktung seiner Biografie (Y) zu
sichern. Ein unabhngiger Investmentexperte analysierte dieses mutige Portfolio und kam
nach Ermittlung der erwarteten Renditen (in %) von E(Rx ) = -90 und E(Ry ) = -50 zu der
Gesamtrendite E(R) =0,80(-90)+0,20(-50) =-82. Uwe wird also voraussichtlich 82 %
des von ihm investierten Kapitals verlieren. Er sollte bei seinem nchsten Investment besser den Rat von Fachleuten einholen.

Fr die Varianz der Portjoliorendite (im Folgenden kurz Portfoliovarianz) gilt nach
(112: 85) bzw. (112: 87)
Var(R p ) = w; . Var(R,) + w; . Var(R,) + 2 w, . w, . Cov(R"R,)
;;;;;; w~ . Var(R1 ) + w~ . Var(R2 ) + 2 w 1 w 2

aRt .

a~ . PRl~

(112: 92)

Das Risiko des Portfolios hngt somit sowohl von den Varianzen der Einzelrenditen
als auch von der Korrelation zwischen den Einzelrenditen ab. t8
18 Natrlich ist auch die Gewichtung als Einflussfaktor ZU betrachten.

2. Zufallsvariablen

243

Den grten Wert nimmt die Portfoliovarianz c. p. an, wenn die Korrelation vllig
gleichgerichtet und maximal ist, d.h. PRR = +1 gilt. Dies lsst sich damit erklren,
dass die Rendite einer Anlage im gleich~;' Ausma rallt (steigt), wie auch die Rendite der anderen Anlage rallt (steigt). Es gilt in einem solchen Fall fr (H2: 92)
Var(Rp)= = w: . Var(R,) + w: . Var(R,) + 2 w, . w, . O"R,
=[W t -O'R

O"R,

+w2 .a~]2.

Den kleinsten Wert fr die Portfoliovarianz erhalten wir analog, wenn sich die
Renditen der Wertpapiere vllig gegenlufig entwickeln, also PR,.., = -1 gilt. Das
Risiko ist minimal, da ein Renditerckgang bei einer Anlage durch eine gegengerichtete Renditesteigerung bei der anderen Anlage ausgeglichen wird.
Var(Rp)mm= w: . Var(R,) + w; . Var(R,) - 2 w, . w, . 0".,
=[w 1

. 0"..,

, -wz 'O'R]2
,

'(JR

Liegt die Korrelation zwischen -1 und +1, so knnen wir sagen, dass sich die Varianz der Portfoliorendite in folgendem Intervall
[W t .

a RI

W2 .

aa

]2 ~

Var(R p ) ~ [wt . a Rl + w 2 . a Rl ]2

(H2: 93)

bewegt. Fr die Portfoliostandardabweichung gilt dann narurlich


[wt

. (JR I

W2

(J~] ~ G Rp ~

[w t

a RI + W 2

(J~].

(H2: 94)

Definieren wir das gewichtete Mittel der Standardabweichungen als


(H2: 95)
so knnen wir auerdem Folgendes feststellen:
Fall A:

(j

= Jvar(Rp)

falls

Fall B:

(j

> JVar(Rp)

falls

(H2: 96)

Nur fr den Fall einer perfekten Gleichlufigkeit der Anlagenrenditen kann also die
Portfoliosrandardabweichung einfach als gewichtetes Mittel der Einzelstandardabweichungen berechnet werden (Fall A). Ist dies nicht der Fall, rallt die Portfoliostandardabweichung immer geringer aus als das gewichtete Mittel der Einzelstandardabweichungen (Fall B).

Beispiel 11 2-44

Varianz dar Portfoliorandita

Zwei Wertpapiere seien durch folgende Monatsdaten gekennzeichnet:


Papier

Erwartete Rendite
E(R,} in %

Standardabweichung der Rendite

1,5

5,5
4,0

1,0

O'R,

in %

PR,R, = 0,1

Wir wollen nun das Risiko eines Portfolios, welches sich zu je 50 % aus beiden Aktien zusammensetzt, an hand der Portfoliostandardabweichung beurteilen. Berechnen wir dazu
zunchst die erwartete Rendite des Portfolios. Sie ergibt sich zu
E(R p } = 0,5 E(R,} +0,5 E(R,} = 0,5 (1,5+1,O) = 1,25.

244

11 Wahrscheinlichkeitsrechnung
Fr die Portfoliostandardabweichung ergibt sich
Var(Rp) = w:. Var(R,) +w:. Var(R,) +2w, w, "R, ."R, . PR,R,
= 0,5' 5,5' +0,5'4,0' +2 0,5' 5,54,0 0,1 = 12,66
"", = ~Var(Rp) = ,112,66 = 3,56.

Fr das gewichtete Mittel der Einzelstandardabweichungen erhalten wir hingegen


Cf = w, ."R, + w, "R, = 0,5 (5,5 +4,0) = 4,75.

Investiert also ein Anleger z.B. in das Papier 2, so kann er bei einer Standardabweichung
von 4,0 eine Rendite von 1,0 % erwarten. Kombiniert er dieses Papier aber mit dem Papier
1, so entsteht fr ihn die Mglichkeit bei geringerem Risiko (3,56) eine hhere Rendite
(1,25 %) zu erzielen. Ein solches Vorgehen, also die Aufteilung eines Investments auf verschiedene risikobehaftete Anlagen an Stelle der Investition in nur eine Anlage, wird als
Diversifikation bezeichnet. Wnscht der Anleger eine hhere Rendite, so muss er einen
hheren Anteil seines Kapitals in Papier 1 investieren. Mit der hheren Rendite hat der Anleger dann aber auch ein hheres Risiko zu tragen.
Zur grafischen Darstellung des Rendite-Risiko-Zusammenhangs wird hufig ein sog. 11- ,,Diagramm verwendet. In diesem Beispiel kann ein solches wie folgt skizziert werden:

IlR
1,50

------1--------------------------

Papier 1

Portlolio

(50%,50%)

1,25

1,00

,
------1---

3,56

4,00

4,75

5,5

Wie unsere Skizze zeigt, ist der Zusammenhang (112: 96) in diesem Beispiel deutlich erfllt.
Wren die Renditen der Wertpapiere nun sogar negativ korreliert, so knnten wir das Portfoliorisiko noch weiter senken.

Hufig soll nicht nur die Varianz (oder Standardabweichung) eines bestehenden
Portfolios berechnet, sondern ein Portfolio durch die Wahl der Gewichtung so zusammengestellt werden, dass die Varianz einen bestimmten Wert annimmt. Der An-

teil der Anlage 1 in einem Portfolio aus 2 Anlagen, mit dem das Portfolio bei gegebenen Einzelvarianzen VarCR,) und Var(R,) sowie gegebenen Korrelationskoeffizienten P",R, die geringste Varianz aufweist, kann wie folgt ennittelt werden:
Var(R,) - Pa,., . (JR, . (J.,

w~ar(Rp) __ ;;;;;; ---c--c---=-:--'=-'=--"'----='----

Var(R,) + Var(R,) - 2 PR,., . (Ja, . (J.,

Das damit entstehende Portfolio heit Minimum-Varianz-Porifolio.

(II2: 97)

245

2. Zufallsvariablen

Beispiel 11 2-45

Minimum-Varianz-Portfolio

Ein Portfolio soll aus den zwei Wertpapieren des vorhergehenden Beispiels 11 2-44 mit
(JR, = 5,5 und (JA, = 4,0 zusammengesetzt werden. Der Korrelationskoeffizient lag bei
diesen beiden Papieren bei PR,A, = 0,1 . Mit welchem Anteil muss Wertpapier 1 in das Portfolio aufgenommen werden, um das Portfolio mit der geringsten Varianz zu erhalten?

4,0' -0,15,5 4,0


5,5' +4,0' -20,15,54,0

13,8 = 03297 = 32 97 %
41,85'
,

Liegt ein Portfolto aus n Anlagen vor, so errechnen wir die erwartete Rendite des
Porifolios nach (II2: 88) als

Lw, E(R) .
n

E(Rp ) =

(H2: 98)

1_ 1

Fr die Portfoliovarlanz gilt nach (H2: 89)


Var(R p ) = i i w , ,w j Cov(R"Rj )
1...1 j_ 1

= ii:Wi 'W j
1...1 j_ 1

.(J~

(H2: 99)

'(JRl 'PRI~

Zum besseren Verstndnis dieser Formel betrachten wir die nachfolgende Tabelle,
die auch als (gewichtete) Varianz-Kovarianz-Matrix bezeichnet wird und die
Komponenten der Varianz eines Portfolios mit n Anlagen bersichtlich darstellt.
Auch der Fall mit 2 Anlagen ist darin gekennzeichnet (Grauschattierung).

w~ .Var(Rt )

wlwzCov(~.Rz)

w 1 'w, Cov(Rl,R,)

w 1 'w" Cov(~,Ra)

W z 'w t

Cov(Rz.R1 )

w,

Cov(R"Rt )

W" 'W 1 .

'W 1

Cov(Ru,R t )

w: .Var(Rz)
W, 'W z '

W" 'W 2

z 'w, Cov(Rz.R,)

w; -Var(R,)

Cov(R"Rz)

Cov(Rn'~)

II

'w, Cov(R",R,)

z w" Cov(R2 ,Rn )

w, 'w" Cov(R"Ra)
w! .Var(R.)

Da die Kovarianz eines Wertpapieres mit sich selbst gleich seiner Varianz ist, d.h.
Cov(R"R,) = VarCR,) gilt (vgl. Abschnitt H 2.7.4.2), ist bei nherer Betrachtung der
Tabelle festzustellen, dass die Portfoliovarianz durch die n Varianz-Terme auf der
2
Hautdiagonale und durch n - n Kovarianz-Tenne bestimmt wird.
Nehmen wir an, wir besitzen derzeit ein Portfallo aus 2 Wertpapieren und beabsichtigen ein weiteres in unser Portfolio aufzunehmen. Dies bedeutet, dass bei der

Berechnung der Portfoliovarianz ein weiterer Varianz-Tenn und vier weitere Kovarianz-Terme bercksichtigt werden mssen. Wir knnen also allgemein sagen, dass

11 Wahrscheinlichkeitsrechnung

246

Bit

die Anzahl dei Kovarianz-Tenne durch Hinzufgen weiterer Wertpapiere berproportional ansteigt. Die Portfoliovarianz wird daher weniger von den Einzelvarianzen, sondern vielmehr von den Kovarianzen bestimmt. Welchen Effekt das Hinzufgen eines Wertpapieres in ein Portfolio auf die Portfoliovarianz haben kann, wird
im nachfolgenden Beispiel veranschaulicht. 19
VerlndenJngen der Portfoliovarianz

BeloplelU2-48

Gegeben seien drei Wertpapiere, deren erwartete Renditen und Varianzen Ueweils in %)
und die zwischen Ihnen herrschenden KorrelaUonen:
Wertpapier
1
2
3

Erw. Rendite
1,50
1,00

2,00

Varianz
5,50
4,00
6,00

1-2
1-3
2-3

Korrelation
0,70
0,20
0,30

Bilden wir nun ein gleichgewichtetes Portfolio aus den Papieren 1 und 2, d.h. nehmen wir

jedes Papier zu einem Anteil von 50 % ins Portfolio auf, erhatten wir unter Nutzung der auf
der vorhergehenden Seite abgebildeten (gewichteten) Varianz-Kovarianz-Matrix folgende
erwartete Portfoliorendite und Portfoliovarianz:

1,375
0,821

Portfoliorendite
1,250
Portfoliovarianz
4,017

2
0,821
1,000

Fugen wir nun zu diesem Portfolio das Wertpapier 3 hinzu. Wir wollen emeut ein gleichgewichtetes Portfolio bilden, d.h. wir mussen alle drei Wertpapiere mit 1/3 gewichten. Als Ergebnis erhalten wir dann:

2
3

1
0,611

2
0,365

3
0,128

0,365
0,128

0,444
0,163

0,163
0,667

Portfoliorendile
1,500
Portfoliovarianz
3,034

Wir erkennen, dass durch das zustzliche Wertpapier die Varianz des Portfolios gesenkt
und die erwartete Rendite sogar erhht werden kann. Nehmen wir an, dass die Korrelation
zwischen den bisherigen Wertpapieren und dem zusAtzlichen Papier 3 negativ sind, d.h.
konkret P13 '" -0,20 und Pm '" -0,30 gilt, so knnen wir eine noch strkere Varianzreduktion erreichen:

0,611
0,365
-0,128

2
0,365
0,444
-0,163

3
-0,128
-0,163
0,667

Portfoliorendite
1,500
Portfoliovarianz
1,870

19 Eine anschauliche und kompakte Einfhrung in die Portfoliooptimierung bieten z.B. Auer,
B.R., Schuhmacher, F. (2009).

3.

Theoretische Verteilungen

Die im Folgenden beschriebenen Wahrscheinlichkeitsverteilungen knnen aus zwei Perspektiven betrachtet werden: Zunchst dienen sie in der deskriptiven Statistik dazu,
empirisch beobachtete Hufigkeitsverteilungen approximativ als Funktionen zu beschreiben. In der mathematischen Statistik lassen sich damit Wahrscheinlichkeiten fOr Ereignisse bestimmter Zufallsvariablen angeben. Wir werden uns einigen ausgewhlten eindimensionalen diskreten und stetigen Verteilungen widmen. Dabei ist zu beachten, dass
jedes der theoretischen Verteilungsmodelle eine Schar von unendlich vielen Einzeiverteilungen reprsentiert. Erst durch die zahlenmige Belegung der Funktionalparameter ist
eine Verteilung eindeutig festgelegt.

3.1

Diskrete Verteilungen

3.1.1

BInomlaiverteIlung

3.1.1.1

Wahrscheinlichkeits und Vertellungsfunktion

Die auf Jakob Bemoulli zurckgehende Binomialverteilung dient der Ermittlung


von Wabrscheinlichkeiten fr die Hufigkeit des Eintretens bestinunter Ereignisse
bei sog. Bernoullt-Experimenten (z.B. Wahrscheinlichkeit fr x Jungen bei n Geburten). Ein solches Experiment besteht aus einer Folge von Bemoulli-Versuchen, die
folgende Eigenschaften aufweisen:

Fr jeden Versuch gibt es nur zwei mgltche Ausgnge (Ergebnisse) A und


(z.B. ZahVWappen, Junge/Mdchen, fehlerhaft/fehlerfrei, Erfolg/Misserfolg).
Fr die Wahrscheinlichkeit dieser Ergebnisse gilt
P(A) = P

P() = 1- p

mit

0 ,:; p ,:; 1.

(113: 1)

Man bezeichnet p hufig als Erfolgswahrscheinlichkeit und die Wahrscheinlichkeit des Gegenereignisses Ckomplemenrres Ereignis) 1 - P als Misserfolgswahrscheinlichkeit.

Das Zufallsexperiment wird n-mal (n ist eine natrliche Zahl) unter gleichen
Bedingungen wiederholt. Damit sind die einzelnen Versuche voneinander unabhngig, d.h. das Ergebnis eines Versuches beinflusst nicht die weiteren Ergebnisse. Auerdem sind die Wahrscheinltchkelten OB: 1) konstant.

Wir beschreiben dabei den i-ten Versuch durch eine Zufallsvariable X;, die nur die
Werte 0 und 1 annehmen kann (sog. dichotome Zu[allsvariahle). Es gilt fr diese
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_8, Springer Fachmedien Wiesbaden 2015

248

11 Wahrscheinlichkeitsrechnung

X.,

={10

wenn A bei der i-ten Wiederholung eintritt


wenn A bei der i-ten Wiederholung eintritt.

(113: 2)

Die diskrete Zufallsvariable X zhlt nun, wie oft bei n Versuchen eines BemoulliExperimentes A eingetreten ist. X ist dann die Summe der X, mit den Realisationen
x = 0, x = 1, x = 2, ... x = n:
t

CI!3: 3)

Beispiel 11 3-1

Bernoulli-Experiment

Wird eine Munze dreimal geworfen (Kopf = 1, Zahl = O), so kann eine Zufallsvariable X als
"Anzahl der Kpfe" definiert werden. Diese Zufallsvariable kann die Realisationen x = 0, 1,
2 oder 3 annehmen. Welche Realisation eintritt, hngt vom Zufall ab. So kann sich z.B.
beim ersten Wurf "Zahl" (X, = O) und beim zweiten und dritten Wurf "Kopf' (x., = x. = 1) ergeben. Wir erhalten damit nach (113: 3)

X=LX,=0+1+1=2.

'_I

Gesucht ist nun die Wahrscheinlichkeit dafr, dass bei einem Bemoulli-Experiment
mit n Versuchen das Ereignis A genau x-mal auftritt. Anders ausgedrckt, suchen
wir die Wahrscheinlichkeit
= x), dass X eine bestimmte Realisation x annimmt.
Gerade diese Information liefert die Wahrscheinlichkeitsfunktion der Binomialverteilung, mit deren Herleitung wir uns nun nher befassen wollen:

pex

Nehmen wir an, dass bei der Folge von n Versuchen das Ereignis A bei den ersten
x Versuchen und bei den restlichen n - x Versuchen das Gegenereignis A eintritt.
A,A, ... ,A,A,A,
... ,, bzw. 1,1,
... ,1,0,0, ... ,0,
. .
'-v----' '

I~

(n

x)-ma!

x-mal

en x)-ma1

Da die einzelnen Versuche unabhngig voneinander sind, ergibt sich aus dem Zusammenhang

P(A) = P(X,

= 1) =

und

PCA) = P(X,

0) = 1- p ,

der fr jedes i = 1, 2, ... , n gilt, und dem Multiplikationssatz fr unabhngige Ereignisse (111: 58) folgende Schlussfolgerung:
p.p ..... ~.(l-p).(l-p) ..... (l-p) = p'. (l-pr'
x-~

(n-x)-mal

Bei der hier betrachteten Folge handelt es sich nun aber um eine spezielle Anordnung der x "Einsen" und n - x "Nullen". Natrlich gibt es eine Reihe weiterer Folgen, bei denen ebenfalls genau x-mal Ereignis A bzw. 1, jedoch in anderer Reihenfolge, eintritt. Um die Anzahl dieser Mglichkeiten zu bestimmen, bedienen wir uns

der Erkenntnisse der Kombinatorik. Zu beantworten ist die Frage, wieviele Mglichkeiten es gibt, die x "Einsen" auf die n Pltze aufzuteilen (Ziehen ohne Zurck-

legen, ohne Bercksichtigung der Reihenfolge). Es existieren demnach genau "n


ber x" Folgen, von denen jede einzelne die Wahrscheinlichkeit p' . (l- p)n-, besitzt. Nach dem Additionssatz fr sich gegenseitig ausschlieende (disjunkte) Ereignisse ergibt sich daher

249

3. Theoretische Verteilungen

(113: 4)

P(X = x) = (:J. pI. (I-pr.


Die Zufallsvariable X besitzt also folgende Wabrscbe/nllcbkeltsjunktton fB(x):
nJ,pI . (I_p)'-I
fB(x) = {( x

fr x=O.1.2... n

(113: 5)

sonst

Weist eine Zufallsvariable X die durch (113: 5) definierte Wabrscheinlichkeitsfunktion auf. so heit sie binomialverteilt. Wir schreiben kurz X - B(n. p).
Zur Veranschaulichung dieser wichtigen Verteilung bedient man sich hufig des
Urnlmmodel/s mit ZurcklegIm. Es befinden sich dabei in einer Urne mit N Kugeln
genau M Kugeln. die eine bestimmte Eigenschaft A aufweisen. (Man knnte sich
auch eine Warenlieferung des Umfangs N mit M defekten Produkten vorstellen.)
Werden aus dieser Urne nun n Kugeln zufallig und mit Zurcklegen nacheinander
gezogen. so ist gewhrleistet. dass bei jedem weiteren Zug die gleiche Wahrscheinlichkeit p = MIN vorliegt. eine Kugel mit der Eigenschaft A zu erhalten. Es wird
schlielich durch das Zurcklegen die Urne immer wieder in den Ausgangszustand
zurckversetzt. Die einzelnen Zge erfolgen also unabbnglg voneinander. Da
dies nun genau die Situation ist. die auch von der Binomialverteilung erfasst wird.
kann man eine Zufallsvariable X: "Anzahl der Kugeln mit Eigenschaft A in einer
Stichprobe von n Kugeln" als B(n.M/N)-verteilt betrachten.

Beispiel 11 3-2

Binomialverteilung und Urnenmodell

Wird aus einer Urne mit N Kugeln. von denen M eine gewisse Eigenschaft A besitzen. genau einmal (x = O. 1) bzw. zweimal (x = O. 1. 2) mit Zurcklegen gezogen. so knnen sich
allgemein folgende Wahrscheinlichkeiten ergeben:
X ist B(l.p)-verteilt:

X ist B(2.p)-verteilt:

P(X=O)= 0 .p0 (l-p), =l-p

P(X=O)= 0 .p0 (l-p), =(l-p),

P(X=l)= 1 .p (l-p)0 =p

P(X=l)= 1 .p (l-p) =2(p-p)

(1)

(1),

(2)

(2), ,
(2),

P(X=2)= 2 .p (l-p)0
=p'
Fr die Wahrscheinlichkeits/unktionen ergibt sich damit:

1
p

x
/B(X)

2
2.(p-p')

p'

Betrachten wir nun konkret eine Urne mit 10 roten und 5 schwarzen Kugeln. aus der zu/llig zwei Kugeln gezogen werden. Die Wahrscheinlichkeit. dabei genau eine schwarze
Kugel zu erwischen. ergibt sich als
P(X = 1) =

(~}(~)"(1-~)'-' =2'i'~ =~.

11 Wahrscheinlichkeitsrechnung

250

Q.

Die grafische Gestalt der wahrscheinlichkeitsfunktion der Binomialverteilung hngt


stets von ihren beiden Funkttonalparamerem n und p ab. Grundstzlich gilt, dass
alle Binomialverteilungen mit p - 0,5 symmetrisch sind. Fr p < 0,5 sind die Verteilungen linkssteil, fr p > 0,5 rechtssteil. Beispiel 11 3-3 veranschaulicht dies.

Beispiel 11 3-3

Verschiedene Binomialverteilungen

fB(X)

fB(x)

x- B(8;0,2)

0,4

x- B(8;0,7)

0,4

0,2

0,2

oLI~~~L-

__
I ~____~,

..

O~

____ I

~~~~~L-~,

2345678

fg(x)

0,4

X - B(8;0,5)

0,2

o~~~

__

~-L

__

~L-

--+,

__

2345678

Die VertetlungsfunkUon F,J7J der Binomialverteilung gibt die Wahrscheinlichkeit


an, dass eine binomialverteilte Zufallsvariable X hchstens den Wert x annimmt,
also p(X :S x). Sie besitzt, wie jede diskrete Verteilungsfunktion, die Gestalt einer
Trr!ppenjunJrtion und wird durch Summation der einzelnen binomialen Wahrscheinlichkeiten gebildet:
F,(x) = f,(O)

=(~

+ +. . +
f,(I)

I;.(x)

}po .(l-p)" +(~} p'. (l-pr' +. . +(:} p'. (l-pr

Unter Verwendung eines Swnmationsindex v knnen wir auch schrelben:

F'(X)=l~(:}p>-pr

ffu

x<O

ffu O:Sx<n
ffu

n~x

013,6)

3. Theoretische Verteilungen

251

Beispiel 11 3-4

Wahrscheinlichkeits- und Verteilungsfunktion

Aus einer groen Gerteproduktion, bei der erfahrungsgem 30 % defekt sind, werden 6
Gerte gekauft. Wie gro ist die Wahrscheinlichkeit dafOr, dass
a)
b)
c)
d)

alle 6 Gerte defekt sind,


alle 6 Gerte in Ordnung sind,
hchstens 2 Gerte defekt sind,
die Hlfte oder mehr als die Hlfte der Gerte defekt sind?

Betrachten wir die Anzahl defekter Gerte X als B(6;0,3)-verteilt, so erhalten wir folgende
Ergebnisse:

(6)

a)

P(X=6)= 6 0,36 0,70 =0,0007

b)

P(X = 0) =

c)

P(X S 2) = P(X = O)+P(X = 1)+ P(X = 2) = 0,1176 +0,3025+0,3241 = 0,7443

d)

P(X <: 3) =1-P(X S 2) = 1-0,7443 = 0,2557

(~}0,30 0,7' = 0,1176

Im Anhang ist die Wahrscheinlichkeits- und die Verteilungsfunktion der Binontialverteilung fr ausgewhlte (gebruchliche) Werte von n und p in tabellarischer
Fortn abgedruckt. Daraus lassen sich in vielen Fllen Wahrscheinlichkeiten ohne
fortnelmige Berechnungen recht schnell ertnitteln. Dazu nutzt man, f(x) = F(x) F(x - 1), um Werte der Wahrscheinlichkeitsfunktion auch aus der Verteilungsfunk-

tion zu errechnen.

3.1.1.2

Eigenschaften

Wie wir in (113: 3) gesehen haben, ist X eine Summe unabhngiger, identisch
B(1,p) verteilter Zufallsvariablen X, ntit E(X) = o (1- p) + 1 P = P . Fr X - B(n,p)
ergibt sich daher als Erwartungswert von X
(113: 7)
Der Erwanungswert einer binontialverteilten Zufallsvariable X ist sontit nichts anderes als das produkt der beiden Funktionalparameter n und p.
Fr die Varianz eines einzelnen Zuges gilt
Var(X) =

L (Xi - E(X))' . fex) = (0 - p)' . (1- p) + (1- p)' . p = ... = p. (1- p).
i ..l

Daraus lsst sich fr die Varianz von X der Zusammenhang


Var(X) = Var (

t;x,
n

= t; Var(X,) = t;p. (1- p) = n p. (1- p)

(IB: 8)

ableiten. Das zweite Gleichheitszeichen gilt dabei, da die einzelnen Zge voneinander unabhngig sind.

252

11 Wahrscheinlichkeitsrechnung

Der Sonderfall n - 1, der in der Literatur hufig als separate Verteilung (BernoulliVerleiluniJ behandelt wird, lsst E(X) und Var(X) auf Erwartungswert und Varianz
des einzigen durchgefhrten Bemoulli-Versuchs schrtunpfen. Solche B(1,p~ver
teilte Zufallsvariablen werden hufig als Indikatorvariablen, dichotome oder binre
Zufallsvariablen oder als Dummy bezeichnet.

Beispiel 11 3-5

Erwartungswert und Varianz

Eine faire MOnze wird sechsmal geworfen. Die Zufallsvariable X soll dabei die Anzahl der
erscheinenden "Kopf-Seiten" reprsentieren.
Der Erwartungswert E(X) - 6 . 0,5 - 3 besagt nun in diesem Beispiel, dass man beim
sechsmaligen Mnzwurf im Durchschnitt dreimal das Ereignis "Kopf" erhlt. Die Varianz
nimmt hier einen Wert von Var(X) - 6 . 0,5 . 0,5 - 1,5 an.
Wird die Mnze nur ein einziges Mal geworfen, ergibt sich E(X) - 0,5 und Var(X) - 0,5 . 0,5
- 0,25, wodurch die 50:50 Chance des Ergebnisses zum Ausdruck kommt.

Aus den Herleitungen von Erwartungswert und Varianz binomialverteilter Zufallsvariablen folgt unmittelbar die sog. Reproduktivitt der Binomialverteilung. Dies
bedeutet, dass wenn X - B(n"p) und Y - B(n"p) unabhngig sind, stets X + Y B(n, + n" p) gilt.
3.1.1.3

Praxisanwendung: Operationscharakteristiken

Zur Entscheidung, ob eine Lieferung wieder an den Lieferanten zurckgeschickt


werden soll, bedient man sich in der Praxis hufig eines statistischen prfplans.
Nehmen wir an, ein Unternehmen erhlt regelmig grere Lieferungen von gewissen Einzelteilen, die einen unbekannten Anteil p (Ausschussanteil) von defekten
Stcken enthalten. Es werden daraus n Stcke zufallig herausgegriffen und die Anzahl X der fehlerhaften Stcke in der Stichprobe enmittelt. Es wird zwar in der Praxis ohne Zurcklegen gezogen, doch ist der Umfang n der Stichprobe in der Regel
im Verhltnis zum Umfang N der Lieferungen sehr klein, sodass es fr den Fehleranteil in der Grundgesamtheit beim nchsten Zug keine Rolle spielt, ob bereits ein
Stck zur Prfung entnommen wurde, und somit auch vom Ziehen mit Zurcklegen ausgegangen werden kann l Ein statistischer PrfPlan stellt nun die Vorschrift dar, dass die Lieferung nicht zu akzeptieren ist, wenn die Anzahl X eine gewisse vorher definierte Grenze c (Annahmezahl) berschreitet. Ist X ~ c, wird die
Lieferung angenommen.
Zur Beurteilung eines solchen Prfplans ziehen wir seine sog. Operationscharakteristik L..(p) heran, die die Wahrscheinlichkeit fr die Annahme einer bestimmten
Lieferung in Abhngigkeit vom Ausschussanteil p dieser Lieferung angibt:
Ln,Jp) = P(X

~ c) = :t(n) , p' ,(1- pr'


v..o v

(113: 9)

Die sog. aC-Kurve (vgl. Beispiel 11 3-6) ist damit festgelegt durch die beiden Parameter n und c.
1 Dies werden wir im Abschnitt 11 3.1.2.3 zur Hypergeometrischen Verteilung bzw. ihrer Approximation durch die Binomialverteilung im Detail behandeln.

3. Theoretische Verteilungen

253

Beispiel 11 3-6

Operationscharakteristik

Fr n = t 0 und c = 1 ergibt sich fr die Operationscharakteristik


L".,{p}= ~(n),
v .p {I-p},,(10)
- = 0 .p0 {I-p},,(10),
+ 1 .p {I-p}" - , ={I-p}9 {1+9p}.

6:

Fr die minimale {p = O} und maximale {p = I} Ausschusswahrscheinlichkeit ergeben sich


die Werte L1O,,{0} = 1 und L1O,,{1} = 0, Grafisch zeigt die aC-Kurve folgendes Bild:
L1O,1{P}

0,5

0,2440

0,25

0,5

Diese Funktion sagt nun aus, dass z,B, bei einem Ausschussanteil von p = 0,25 die lieferung mit einer Wahrscheinlichkeit von L'0,,{O,25} = 0,2440 angenommen wird. Ein solches
Ergebnis macht diese aC-Kurve fOr die Praxis aber untauglich, da eine lieferungsannahme unter solchen Bedingungen nicht akzeptabel ist.

Auf einer OC-Kurve werden in der Praxis zwei Punkte vorgegeben, mit HUfe derer
entschieden werden kann, ob die jeweilige Kurve bzw, das Prfverfahren tauglich
ist. Diese Punkte sind die folgenden:

Ablebngrenze: Ausschussanteil, bei dem die Lieferung mit einer kleinen Wahrscheinlichkeit von z.B. 5 % angenommen werden soll (d.h. die Annahmewahrscheinlichkeit der Ablehngrenze betrgt 5 %)
Annabmegrenze: Ausschussanteil, bei dem die Lieferung mit einer groen
Wahrscheinlichkeit von z.B. 95 % angenommen werden soll

Beispiel 11 3-7

Ablehn- und Annahmegrenze

Ein Unternehmen hat eine Annahmegrenze von 0,02 und eine Ablehngrenze von 0,10 definiert. Fur zwei PrufplAne A {n = 20, c = I} und B {n = 100, c = 4} sollen nun die Annahmewahrscheinlichkeiten {Werte der aC-Kurven} fOr die gegebenen Annahme- und Ablehngrenzen ennittelt werden.

254

11 Wahrscheinlichkeitsrechnung

+(~0}O,021'0,981O = 0,940

A:

L",,1(O,02) = 0,98'"

B:

L,00,.(O,02) = ... = 0,949

L",1(O,1 0) = ... = 0,392


L,OD,.(O,10) = ... = 0,024

Diese Werte zeigen, dass sich Prfplan A nicht als praxistauglich erweist, da eine Lieferung, bei der 10 % der Einzelteile fehlerhaft sind, mit einer Wahrscheinlichkeit von 39,2 %
angenommen wird. Bei Prfplan B liegt diese Wahrscheinlichkeit bei nur 2,4 % und /Ur die
Annahmegrenze betrgt der Wert der
auch fast 95 %, sodass dieser geeigneter ist.

oe

3,1.2

Hypergeometrische Verteilung

3.1.2.1

Wahrscheinlichkeits- und Verteilungsfunktion

Wie wir gesehen haben, entsprach die Binomialverteilung dem Urnenmodell mit
Zurcklegen, da hier die Unabhngigkeit durch das Zurcklegen der gezogenen
Kugeln realisiert wurde. Bei Zufallsstichproben in der Praxis werden die einmal gezogenen Elemente jedoch Ld,R. nicht wieder zurckgelegt, bevor das nchste
Stichprobenelement entnommen wird. Mit diesem Urnenmodell ohne Zurcklegen
kann die Hypergeometrische Verteilung beschrieben werden:
Es werden aus einer Urne mit insgesamt N Kugeln, von denen M eine gewisse

Eigenschaft A (z.B. schwarz) und N - M eine Eigenschaft A (also nicht A, z,B,


wei) aufweisen, genau n Kugeln (n S N) rein zufallig gezogen, Eine einmal entnommene Kugel wird jedoch nicht wieder in die Urne zurckgelegt. Es vermindert
sich dadurch nach jedem Zug die Anzahl der Kugeln, die sich noch in der Urne befinden, Auerdem kommt es so zu einer Vernderung der Wahrscheinlichkeiten
beim nchsten Zug, eine Kugel mit einer der beiden defmierten Eigenschaften zu
erhalten.
Beispiel 11 3-8

Ziehen ohne Zurcklegen

Wir erhalten beim ersten Zug einer Kugel aus einer mit3 schwarzen und 3 weien Kugeln
gefllten Urne mit einer Wahrscheinlichkeit von 0,5 eine schwarze und mit 0,5 eine weie
Kugel, Wird nun z.B, beim ersten Zug eine schwarze Kugel erwischt, die nicht mehr zurckgelegt wird, reduziert sich die Zahl der Kugeln in der Urne auf 5 (2 schwarze, 3 weie).
Die Wahrscheinlichkeit bei einem zweiten Zug erneut eine schwarze Kugel zu erwischen,
ist nun nicht mehr 0,5, sondern nur noch 2/5.

Wir interessieren uns auch hier wieder fr die Zufallsvariable X: "Anzahl der gezogenen Kugeln mit Eigenschaft A". Die Zufallsvariable X konnte beim Urnenmodell
mit Zurcklegen die Realisationen 0, 1, ... , n annehmen. Beim Umenmodell ohne
Zurcklegen unterliegen die mglichen Werte x von X der Restriktion 0 S x SM, da
A nur M-mal in der Urne vorkommt, und der weiteren Restriktion 0 S n - x S N - M,
da insgesamt N - M Kugeln die Eigenschaft A nicht besitzen. Die genaue Bedeutung dieser Bedingungen knnen wir uns mittels eines einfachen Beispiels recht
schnell veranschaulichen. Ist eine Urne beispielsweise mit roten und schwarzen

3. Theoretische Verteilungen

255

Kugeln gefllt, so knnen sowohl nicht mehr rote als auch schwarze Kugeln In die
Stichprobe gezogen werden, als In der Urne sind.
Es ist nun konkret die Wahrscheinlichkeit von Interesse, dass unter den n gezogenen Kugeln genau x mit der Eigenschaft A zu finden sind bzw. X die Realisation x
annimmt: Grundstzlich gilt, dass es bei einem Ereignis X = x nicht darauf ankommt, In welcher Reihenfolge die n ohne Zurcklegen gezogenen Kugeln aus der
Gesamtmenge N entnommen wurden. Zur Bestimmung der wahrschelnlichkeitsfunktion (nach dem Laplaceschen Wahrscheinlichkeitsbegriff) kann daher fr die
Anzahl der mglichen Elementarereignisse die Anzahl der gleichwahrscheInlichen
Mglichkeiten verwendet werden, aus N Kugeln ohne Beachtung der Reihenfolge
genau n herauszunehmen:
(113: lOa)

Zur Bestimmung der Anzahl der fr X = x gnstigen Elementarereignisse betrachten wir zunchst, dass aus M Kugeln mit der Eigenschaft A genau x ausgewhlt
werden. Auch hier spielt die Reihenfolge keine Rolle. Die Anzahl der Kombinationen ohne Wiederholung der einzelnen Kugeln und ohne Beachtung der Reihenfolge betrgt nun
(113: lOb)

Analog betrgt die Anzahl der Mglichkeiten, aus den N - M Kugeln, die die Eigenschaft A nicht aufweisen, die restlichen n - x Kugeln der Stichprobe zu ziehen
N-M).
( n-x

(113: lOc)

Da nun jede mgliche Stichprobe "x Kugeln mit Eigenschaft A aus M Kugeln" mit
jeder einzelnen mglichen Stichprobe "n - x Kugeln ohne Eigenschaft A aus N - M
Kugeln" kombiniert werden kann, ergibt sich die Anzahl der Mglichkeiten, dass
genau x der n Kugeln die Eigenschaft A aufweisen, als
(I!3: IOd)

Fassen wir diese Erkenntnisse nach der Laplaceschen WahrscheinlichkeitsdefInition


zusammen, so ergibt sich fr die gesuchte Wahrscheinlichkeit

P(X = x)

(113: 11)

Die Wahrscheinlichkeitsfunktion fix) der Hypergeometrischen Verteilung nimmt


die In GI3: 11) angegebenen Werte fr die mglichen x-Werte und sonst den Wert
Null an. Besitzt eine Zufallsvariable eine solche WahrscheInlichkeitsfunktion, so
heit sie hypergeometrisch verteilt. Wir schreiben kurz X - H(N,M, n).

256

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-9

Verschiedene Fallbeispiele

1. Urnenspiel
In einer Urne seien 5 rote und 3 weie Kugeln. Es wird eine Stichprobe von 4 Kugeln ohne
Zurucklegen gezogen. Wie wahrscheinlich enthlt die Stichprobe 2 rote Kugeln?
X ist H{8;5;4)-verteilt. Es gilt damit
P{X=2)=m.G}(:)=

1~~3=~.

2. Lotto
Wie gro ist die Wahrscheinlichkeit fr 5 Richtige im deutschen Zahlenlotto?
X ist H{49;6;6)-verteilt. Wir erhalten daher
643
P{X = 5) = (6). (43) I (49) =
5
1
6
13.983.816

0 00001845 .
'

3. Warenprfung

In einer Warensendung vom Umfang 100 Stck befinden sich 10 Stucke Ausschuss. Wir
entnehmen zufllig ohne Zurcklegen 5 Gerte aus dieser Warensendung. Damit ist die
Zufallsvariable X: "Anzahl fehlerhafter Stcke in der Stichprobe" H{I 00;1 0;5)-verteilt.

Beschreiben wir wie in (II3: 2) die i-te Ziehung aus der Urne durch eine Indikatorvariable x" die dann den Wert 1 annimmt, wenn die Eigenschaft A bei der i-ten gezogenen Kugel vorliegt, und den Wert 0 annimmt, wenn A beim i-ten Zug nicht
gegeben ist, so gilt wieder (II3: 3). X ergibt sich also als Summe der x,. Auch beim
Ziehen ohne Zurcklegen besitzen die x" welche vom Standpunkt vor dem ersten
Zug aus die i-te Entnahme beschreiben, alle dieselbe B(1,MlN)-Verteilung. Im Vergleich zum Ziehen mit Zurcklegen ist allerdings eine Unabhngigkeit der X, nicht
mehr gegeben. Wurden bis zum i-ten Zug genau k Kugeln mit der Eigenschaft A
gezogen, so gilt fr die Wahrscheinlichkeit, dass beim O+l)-ten Zug A auftritt
M-k
i
)
P Xi+l =l1LX j =k = - ..
(

1_1

N-1

Beispiel 11 3-10

(II3: 12)

Bedingte Wahrscheinlichkeit

Im Lager eines WeinhAndlers befindet sich noch eine Kiste mit 30 Flaschen eines Rotweines Marke Retzbach, die allerdings schon seit langer Zeit dort lagern und deshalb die Gefahr besteht, dass sich der edle Tropfen bereits zu "Essig" gewandelt hat. Ein potenzieller
Abnehmer ist nun bereit diese Kiste zu einem Vorzugspreis abzunehmen, verlangt
aber, dass 5 Flaschen geffnet werden und bei der Verprobung mindestens 3 der 5 geffneten Flaschen einwandfrei sind. Nehmen wir nun an, dass die ersten beiden Flaschen bereits "Essig" waren. Wie gro sind nun unter dieser Bedingung die Wahrscheinlichkeiten
dafr, dass
a) die dritte Flasche, die gekostet wird, einwandfrei ist
b) der Kunde den Kauf letztendlich ttigt,
wenn tatschlich 40 % der Weinflaschen einwandfrei waren.

257

3. Theoretische Verteilungen
Definieren wir zur Lsung dieser Problemstellung die Indikatorvariable

J<; _ {1 falls I-te verprobte Weinflasche einwandfrei


o falls i-te verprobte Weinflasche bereits -Essig-.
Far die gesuchten Wahrscheinlichkeitsn gilt damit Folgendes:

a)

P(X, - jx, - o,X. - O) - ~~=~ - O,'286

Das Bild einer Hypergeometrischen Verteilung ist durch ihre FunkU'onalparameterlfll


N, Mund n bestimmt. Die Verteilungsfunlttton FlJW wird analog zur Binomialver- ~
teilung durch Summation der Einzelwahrscheinlichkeiten gebildet. Auch sie gibt
Auskunft ber die Wahrscheinlichkeit PCX S; X), dass hchstens x Kugeln mit der
Eigenschaft A in der Stichprobe enthalten sind.
3,1.2.2

Eigen.....aften

Der Erwartungswert einer H(N,M,n)-verteilten Zufallsvariable X ist identisch mit


dem einer B(n,M!N)...verteilten Zufallsvariable X.
M
E(X)=nN

Auch die Varianz ist hnlich. Sie unterscheidet sich nur durch einen zustzlichen
Faktor CN - n)/(N - 1). Es gilt
Var(X) =n. M
N

.(1-M).
N

N -n

N-1

Der auch hufig als Endllcbkeltskorrelttuifalttor bezeichnete Faktor (N - n)/(N - 1)


ist fr n > 1 stets kleiner als Eins. Damit ist auch die Varianz einer B(n,M!N)...
verteilten Zufallsvariable grer als die einer H(N,M,n)-verteilten. Dies ist unmittelbar einleuchtend, da die Varianz kleiner sein muss, wenn ohne Zurcklegen gezogen wird. Erhhen wir n bei konstantem N, so wird die Varianz immer geringer.
Ist n - N, gibt es schlielich nur noch ein mgliches Stichprobenergebnis und die
Varianz ist Null.
Ist der Auswahlsatz nlN sehr klein, ist der Faktor (N - n)/(N - 1) in der praktischen
Anwendung nahezu ohne Bedeutung (vgl. Abschnitt 11 3.1.2.3).

Boloplolll 311

Erwartungswert und Varianz

Von 20 Firmenkunden einer Bank verfUgen 12 aber eine Eigenkapilalausslatlung von mehr
als 20 %. Wie gro sind Erwartungswert und Varianz einer Zufallsvariablen X: "Anzahl der
Kunden in einer Stichprobe von 10 Kunden, deren Bilanz mehr als 20 % Eigenkapital aufweist-, wenn mit ZurOckiegen (a) oder ohne Zurucklegen (b) gezogen wird?

11 Wahrscheinlichkeitsrechnung

258
a) X ist B(10;12120)-verteilt.
M
12
E(X)=n =10. 20 =6

M (M)
12 20
8 =2,4
Var(X)=n'N'
1=10 20'

b) X ist H(20;12;1 O)-verteilt.


E(X)=6

Approximation durch die Binomialverteilung

3.1.2.3

Q.

10
Var(X)=2,4'19 =1,3

Ist der Umfang N der betrachteten Grundgesamtheit im Verhltnis zum Stlchprobenumfang n sehr gro, dann liegt die Vermutung nahe, dass das Nichtzurcklegen
keinen wesentlichen Einfluss auf die WahrscheinUchkeitsverteilung hat. Tatschlich
lsst sich beweisen, dass sich die wahrscheinlichkeitsfunktlon der H(N,M,n)Verteilung fr N ~ 00 und M!N - konstant fr alle x einer B(n,M!N)-Verteilung nhert. Beispiel II 3-12 zeigt die Gte der Verteilungsbereinstimmung auf. Zudem ist
darin ZU erkennen, dass fr grer werdendes N bei konstant kleinem n der Faktor
(N - n)/(N - 1), der die Varianz von Hypergeometrischer Verteilung und Binomialverteilung unterscheidet, gegen 1 konvergiert und so zwischen den heiden Vananzen kaum noch eine Differenz besteht.
Beispiel 113-12

AnnAherungsgOte

Zwei Lieferungen bestehen aus 100 bzw. 10 Gerten, von denen 30 bzw. 3 defekt sind.
Bel einer zuflligen Entnahme von 4 Geraten mit ZurOcklegen erhalten wir fOr belde Lieferungen dieselbe Binomialverleilung mit den Parametern n '" 4 und p '" MlN '" 0,3, d.h. die
Wahrscheinlichkeiten fUr das Auftreten von 0, 1, 2, 3 oder 4 defekten Gerten in der Auswahl bleiben gleich. Bei einer Entnahme ohne ZurUcklegen erhalten wir zwei Hypergeometrische Verteilungen mit N '" 100, M '" 30 und n '" 4 bzw. N '" 10, M '" 3, n '" 4.

0
1
2
3
4

E(X)
(N-n)/(n-1)
V.r(X)

Hypergeometrische Verteilungen
H(10;3;4)
H(100;30;4)
0,1667
0,2338
0,5000
0,4188
0,3000
0,2679
0,0725
0,0333
0,0070
1,0000
1,0000
1,20
1,20
0,67
0,97
0,58
0,81

Binomialverteilung
B(4;0,3)
0,2401
0,4118
0,2846
0,0756
0,0081
1,0000
1,20
1,00
0,84

Wir erkennen hier sehr schn, dass mit zunehmendem N bzw. fallendem nIN (n konstant)
der Faktor (N - n)/(n - 1) gegen 1 luft und sich die Varianzen immer mehr annhern.
Auerdem ist zu erkennen, dass sich die Werte von f(x) immer mehr hneln.

259

3. Theoretische Verteilungen

Als Faustregel knnen wir festhalten, dass eine H(N,M,n)-Verteilung dann hinreichend genau durch eine B(n,M!N)-Verteilung approximiert werden kann, wenn fr
den Auswahlsatz n/N

~~O,l

H(N,M,n) = B(n,MI N)

(113: 15)

gilt. Ist (113: 15) erfllt, ist der Effekt des Nichtzurcklegens vemachlssigbar klein,
sodass auch wenn eine Stichprobe ohne Zurcklegen gezogen wird, anstelle der
Hypergeometrischen Verteilung die Binomialverteilung zur Wabrscheinlichkeitsberechnung verwendet werden kann.

3.1.3

Poissonverteilung

3.1.3.1

Wahrscheinlichkeits- und Verteilungsfunktion

Binomial- oder hypergeometrisch verteilte Zufallsvariablen zhlen, wie oft bei nmaligem Ziehen aus einer Grundgesamtheit ein bestimmtes Ereignis A eintritt. Der
Wertebereich ist nach oben durch n begrenzt und somit endlich. Die Poissonver-

teilung eignet sich ebenfalls zur Modellierung von Zhlvorgngen. 2 Dabei werden

bestimmte Ereignisse gezhlt, die innerhalb eines festen, vorgegebenen Zeitinterval-

les eintreten knnen. Die mgliche Anzahl der Ereignisse ist nicht nach oben begrenzt. Typische Zhlvorgnge dieser Art sind beispielsweise die Anzahl von Schadensmeldungen bei einer Versicherung innerhalb eines Jahres, die Anzahl von
Krankheitsfallen einer seltenen Krankheit, oder die Anzahl von Kunden, die in
einem Monat bei einer Bank einen Kredit beantragen.

Eine diskrete Zufallsvariable X heit poissonverteilt, wenn ihre Wahrscheinlichkeitsfunktion f,Jx) mit .. > 0 und e als Eulerscher Zahl (2,71828 ... ) die Gestalt
f" (x) =

{:~

o'

e-'

fr x = 0,1,2, ...

O!3: 16)

sonst

besitzt. Wir schreiben kurz X - Po('<'). Das Besondere an dieser Verteilung ist, dass
X die Null und alle narrlichen Zahlen annehmen kann. Der Faktor x! im Nenner
der wahrscheinlichkeitsfunktion sorgt dafr, dass die Wahrscheinlichkeiten mit zunehmendem x trotz des ..' im Zhler schnell sehr klein werden. Egal wie gro x
aber auch werden mag, bleiben die f",(x) immer positiv (vgl. Beispiel 11 3-13).

Funktionalparameter einer Poissonverteilung ist allein ... Je grer .. ist, desto


mehr verschiebt sich das Zentrum der Verteilung entlang der natrlichen Zahlengerade nach rechts und desto grer wird die Streuung der Verteilung.
Die Verteilungifunktion F",(x) der Poissonverteilung ist fr x ~ 0 defmiert als
Fpo(x) = e-' .

L-, .
. . .v

v=o

v.

O!3: 17)

2 Auch die geometrische Verteilung (vgl. Abschnitt 11 3.2.2.2) modelliert einen Zhlvorgang.
Hier zhlt man, wie lange man warten muss, bis ein Ereignis A zum ersten Mal eintritt.

260 ________.:========~

Bit

__I~IW~ah:.::=Ch~.=in~l=ich=ko:.::its=ro:.::Ch~n~U~n~g
..

Bel.plelU 3-13

Po(4)

Fur eine Po(4)-verteilte Zufallsvariable X nehmen Wahrscheinlichkeits- und Verteilungs-

funktion folgende Werte an:


X

0
1
2
3
4

fPQ(x)
0,0183
0,0733
0,1465
0,1954
0,1954

FPQ(x)
0,0183

0,0916
0,2381
0,4335
0,6288

6
7
8
9

FPQ(x)
0,7851
0,8893

fp,,(x)
0,1563
0,1042
0,0595
0,0298
0,0132

0,9489
0,9786
0,9919

'PrIx)

10
11
12
13
14

0,0053
0,0019
0,0006
0,0002
0,0001

FPQ(x)
0,9972
0,9991
0,9997
0,9999
1,0000

Grafisch zeigt die Wahrscheinlichkeitsverteilung damit folgendes Bild:


'PQ(x)

0,20

0,10

10

15

Eine klassische Anwendung der Poissonverteilung findet sich in sog. WartescblangenmodeUen. bei denen die Anzahl der Anknfte in einer Warteschlange pro Zeiteinheit (z.B. vor einem Bankschalter oder einem Grenzbergang) untersucht wird.3
Die Anknfte werden dabei als stochastisch und die Zahl der Anknfte als poissonverteilt angesehen. Eine wichtige Voraussetzung fr Verwendung der Poissonverteilung ist aber, dass die A.nIn1njte unabbdngtg vonetnander erfolgen. Als ).
verwenden wir in solchen Modellen die mittlere Ankunftsrate.

Beispiel 11 3-14

Warteschlangenmodell

In einer kleinen Bankfiliale auf dem Land erscheinen an einem Bankschalter im Durchschnitt pro Stunde 4 Kunden, um ihre Bankgeschfte abzuwickeln. Der Filialdirektor interessiert sich nun daffir, wie gro die Wahrscheinlichkeit dafOr ist, dass in einer Stunde
mehr als 8 Kunden auftauchen. Unter Verwendung der Tabelle aus Beispiel 113-13 gilt fOr
diese Wahrscheinlichkeit P(X > 9) = 1-P(X S 8) = 1-0,9786 = 0,0214.

3 Eine detaillierte Beschreibung des Zusammenhanges der Warteschlangentheorle und der


Poisson-Verteilung findet sich z.B. in Fahnneir, L., Knstler, R., Pigeot, 1., Tutz, G. (2007).

261

3. Theoretische Verteilungen

Eine weitere Anwendung findet man beim Gesetz des radioaktiven Zetjal/s. Hier
wird die Anzahl der in einem festen Zeitintervall zerfallenden Atome einer radioaktiven Substanz als poissonverteilt angesehen. Auch gelten z.B. die Anzahl der innerhalb von 15 Minuten in einer Telefonzentrale eingehenden Gesprche oder die
innerhalb einer Stunde aus einem Lager entnommenen Waren als poissonverteilt.
3.1.3.2

Eigenschaften

Es lsst sich zeigen, dass Enoartungswert und Varianz der Poissonverteilung stets
gleich ihrem Funktionalparameter I.. sind. Es gilt also
E(X) = I..

O!3: 18)

Var(X) =1.. .

(113: 19)

Wie die Binontialverteilung besitzt auch die Poissonverteilung die Eigenschaft der
Reproduktivitt. Dies bedeutet, dass fr die beiden unabhngigen Zufallsvariablen
X - Po(l..,) und Y - Po(A.,) stets X + Y - Po(l.., + A.,) gilt.
3.1.3.3

Approximation

Die Poissonverteilung ist vor allem dadurch interessant, dass sie eine Approximationsmglichkeit fr die Binomialverteilung (und dantit auch fr die Hypergeometrische Verteilung) darstellt. Diese ist konkret gegeben, wenn eine sehr groe Zahl
n von Versuchen und sehr kleine Wahrscheinlichkeiten p fr das Auftreten des Ereignisses A vorliegen (streng genommen n -+~, p -+ 0 und n . p - I.. - konstant).
Empirisch ist die Poissonverteilung also besonders dann gut geeignet, wenn man
registriert, wie oft ein bei einmaliger Durchfhrung sehr unwahrscheinliches Ereignis bei vielen Wiederholungen eintritt. Man spricht daher auch hufig von einer
Verteilung der seltenen Ereignisse. So knnte also z.B. die Anzahl der "Sechser" pro
Ausspielung im Zahlenlotto oder die Anzahl von einer Versicherung zu regulierenden Schadensflle pro Zeiteinheit als poissonverteilt angenommen werden.
Eine Binomialverteilung oder genauer B(n,p)-Verteilung kann durch eine Po(np)Verteilung approximiert werden, wenn die beiden Bedingungen
n ~50 }
p ';;0,1

-7

B(n, p) ~ Po(n' p)

(113: 20)

erfllt sind. Liegt (113: 20) vor, verursacht die Approximation meist nur einen vernachlssigbar kleinen Fehler. Wir erkennen, dass bei der Approximation fr den
Parameter . der Poissonverteilung der Erwartungswert der Binomialverteilung verwendet wird. Wir sehen auch, dass fr sehr kleine p bei der Binontialverteilung
Eex) ~ Var(X) gilt.

Beispiel 11 3-15

Approximation der Binomialverteilung

In der Buchhaltung eines Grokonzerns kommt es bei der sehr groen Zahl an tglich anfallenden Buchungen in der Regel zu 0,1 % Fehlbuchungen. Es werden nun 3.000
Buchungen rein zufllig auf Richtigkeit uberprft. Wie gro ist die Wahrscheinlichkeit, dass
in dieser Stichprobe 5 fehlerhafte gefunden werden?

11 Wahrscheinlichkeitsrechnung

262

Da ohne ZurOcklegen gezogen wird, wre die gesuchte Wahrscheinlichkeit mit Hilfe der
Hypergeometrischen Verteilung zu ermitteln. Da die Gesamtzahl der Buchungen jedoch
sehr gro ist, ist eine Nlherung durch die B(3.000;O,001)-Verteilung legitim. Aufgrund der

sehr geringen Wahrscheinlichkeit p kann aber diese wiederum durch die Poissonverteilung
approximiert werden. Es gilt also mit). _ 3.000 . 0,001 _ 3

P(X - 5) fPII (5) -

3'

51' 8-3 -

0,1008.

Beispiel 11 3-18

Anwendungsfall: Kredilrisiko

Bel der Kalkulation von Prmien (vgl. auch Beispiel 11 3-27) tOr das von Banken zu tragende Kredilausfallrisiko werden hufig stochastische Modelle zur UnterstCrtzung herangezogen. So kann z.8. die Hufigkeit von Kreditausfllen bei sehr kleinen Ausfallwahrscheinlichkeiten der einzelnen Kredite als niiherungsweise Po(J..)-verteili angesehen werden,
wenn die AusfAlle unabhAngig voneinander erfolgen. Betrachten wir dazu ein Beispiel:
Eine Bankfiliale mit einem Portfolio von 1.000 Krediten schAtzt die Ausfallwahrscheinlichkeit eines einzelnen Kredits auf 1 %. Die Wahrscheinlichkeit, dass es innerhalb eines
Jahres zu mehr als x Ausfallen kommt, kann nun bei einem Erwanungswert von
). '" 1.000 0,01 '" 10 wie folgt angegeben werden:
P(X>x) =l-P(XSx) =1_e-10

x 10w
L-

vi

Die Wahrscheinlichkeit dafijr, dass mehr als 2 % der Kredite ausfallen, liegt demnach unter
Verwendung der Tabellen fOr die Verteilungsfunktion der Poissonverteilung bei
P(X > 20) = 1-P(XS 20) = 1_e-10

10 = 1-0,9984 = 0,0016.
w..Q vi

Wir erkennen an der formelmAlgen ZUsammensetzung der Wahrscheinlichkeit, dass der


Summenterm bei zunehmendem x immer grOer und damit die Wahrscheinlichkeit
P(X > x) immer kleiner wird. So liegt etwa die Wahrscheinlichkeit dafr, dass mehr als 3 %
der Kredite uneinbringlich werden, nur noch bei 0,00000008.

Q.

Beispiel 11 3-17

Gate der Approximation einer Binomialverteilung

Die folgende Tabelle verdeutlicht die Gate der AnnAherung einer Binomialverteilung mit
n _ 100 und p - 0,03 durch eine Poissonverteilung mit). -1000,03 - 3.

8(100;0,03)

Po(3)

0
1
2
3

0,0476
0,1471

0,0498
0,1494

0,2275
0,1706

0,2240
0,1680

5
6
7
8
9
10

E(X)

Va,

0,2252

0,1013
0,0496
0,0206
0,0074
0,0023
00007

300
291

0,2240

0,1008
0,0504

0,0216

0,0081
0,0027
00008
300
300

263

3. Theoretische Verteilungen

Fr die Approximation der Hyt>ergeometrlscben Verteilung wird zustzlich zu den


Bedingungen in (TI3: 20) geprft, ob n!N S 0,1 ist, und bei ErfUllung H(M,N,n)
durch P(n M/N) approximiert. Wir sehen auch hier wieder, dass im Rahmen der
Approximation fr ).. der Erwartungswert der zu approximierenden Verteilung
herangezogen wird.

3.2 Stetige Verteilungen


3.2.1

Gleichverteilung

3.2.1.1

DkJrte. UDd VerteilUDgsfunktioD

Sind a und b reelle Zahlen mit a < b, so heit eine stetige Zufallsvarlable X, die folgende DIchtefunktion fI(x) besitzt, gleicbverteilt im Intervall [a,bl, rechteckverteilt
oder uniform-verteilt. Wir schreiben kurz X - R(a, b).

< <b
' ( ) _ -1- f ra_x_
11x-b-a
{
o
sonst

(D3,21)

Die Realisationen x der stetigen Gleichverteilung liegen zwischen den beiden endlichen Grenzen a und b. Abbildung 11 20 zeigt anschaulich, warum diese Verteilung
auch als Rechteckverteilung bezeichnet wird. Da die Breite dieses ~Rechtecksn bei
b - a und seine Hhe bei 1/(b - a) liegt, ergibt sich eine Rechtecksflche von genau 1. Dies muss auch gelten, da es sich bei f.(x) sonst nicht um eine Dichtefunktion handeln wrde.

1
b-a

o ~----~-----L---L--_--~b--------X
X X+llA.
Abbildung 11 20: Dichtefunktion der stetigen Gleichverteilung
Abbildung 11 20 zeigt auch, dass sich die Wahrscheinlichkeit dafr, dass die gleichverteilte Zufallsvarlable X einen Wert zwischen x und x + .AI: annimmt (allein abhngig von Ax und nicht von x), wie folgt ergibt:
1

P(xSXSx+.dx)=--Ax

b-a

(D3,22)

Durch Integration der Dichtefunktion ergibt sich die Vertetlungsfunktion FI(x) der
stetigen Gleichverteilung als

11 Wahrscheinlichkeitsrechnung

264

x <a

x-a

FR(x)= - -

{ b-a

fr aSxS:b.

0I3,23)

x> b

Die Funlttionalparameter der Verteilung sind a und b. Der Graf der Verteilungsfunktion F.W ist in Abbildung 11 21 dargestellt.
F.(x)

~------a~~------~b----+X

Abbildung 11 21: Verteilungsfunktion der stetigen Gleichverteilung


EntJartungswert und Varianz einer gleichverteilten stetigen Zufallsvariablen X er-

geben sich nach den in Kapitel II 2.4.1 und 11 2.4.2 definierten Vorschriften zu

E(X) = a + b
2

Var(X) =

eb - aY
12

Beispiel 11 3-18

0I3, 24)

013, 25)
Stetige Glelchvenellung

Die Zeit, die ein Arbeiter von seinem Arbeitsplatz zu seinem Zuhause bentigt, sei gleichverteilt zwischen 20 und 30 Minuten. Wieviel Zeit nimmt sein Heimweg im Durchschnitt in
Anspruch? Wie gro ist die Wahrscheinlichkeit, dass der Arbeiter zwischen 24 und 26
Minuten bentigt?
Die Zufallsvariable X: Zeit rur den Heimweg- ist R(20;30)-verteilt, sodass Folgendes gilt:

E(X) = (20+30)/2 = 25 Minuten

P(24 <X < 26) = 0,1(26-24) = 0,2


3,2,1.2
Besitzt eine diskrete Zufallsvariable X genau k Ausprgungen Xi mit einer Eintrittswahrscheinlichkeit von jeweils l/k., so lautet ihre WabrscbelnllcblteltsfunltUon fu{x;)
I/k

f'u(x) = { 0

sonst

265

3. Theoretische Verteilungen

Die verteaungsfunkUon Fu(x) ergibt sich, wie bei jeder diskreten Zufallsvariable,
durch Kumulation der entsprechenden Werte der wahrscheinlichkeitsfunktion.
Der Erwartungswert und die Varianz der Zufallsvariablen X knnen ganz einfach
mit 002: 21) und 00: 31) berechnet werden.

Beispiel 11 3-19

Diskrete Gleichverteilung Q .

Ein typisches Beispiel ffir eine diskrete Gleichverteilung bietet die Zufallsvariable X: -Augenzahl beim einmaligen WOrfelwurf- (Spezialfall Xi _ i). Wahrscheinlichkeits- und Verteilungsfunktion zeigen dabei folgendes Bild:
1u(x)

I,(x) =f~6
1/6

I I I I I I
2

Fu(x)

0.5

,,

,,

,,

x<1
0 10r
1/6 fUr 1S:x<2
2/6 fUr 2Sx<3
Fu(x) - 3/6 fUr 3Sx<4
4/6 fUr 4sx<S
5/6 10r 5Sx<6
fUr 6sx

,,

,,

fur x'" 1,2, ... ,6


sonst

Fur die Zufallsvariable X ergibt sich 1ur den ElWartungswert


1

E(X) - -Li - 3,5


6 "'

und die Varianz


1

VarIX) = - Lli-3.5)' = 2,92.


6 I_I
Bei einer sehr groen Anzahl wiederholter Wurfe, z.B. 1.000, wird also die Summe der
gewurfelten Augenzahlen etwa 1.000 . 3,5 '" 3.500 betragen.

266

11 Wahrscheinlichkeitsrechnung

3.2.2

Exponentialverteilung

3.2.2.1

Dichte- und Verteungsfunktion

Besitzt eine stetige Zufallsvariable X folgende Dicbtefunktion f",(x) mit A. > 0 und e
als Eulerscher Zahl, so heit sie exponentialverteilt. Wir schreiben kurz X - Ex(.l).
fr x ~ 0
sonst

f.. (x) = {A.' e-'"

013: 27)

Die Wahrscheinlichkeit P(X S x), mit der eine exponentialverteilte Zufallsvariable X


hchstens einen Wert x annehmen kann, ist durch ihre Verteilungifunktion F",(x)
bestimmt. Diese entsteht durch Integration der Dichtefunktion f",(x) als
frx<O
fr x~O'

0
F.. (x)= { l_e-h

(II3: 28)

Fr Erwartungswert und Vartanz einer exponentialverteilten Zufallsvariablen X gilt

O!3: 29)

E(X)=i
1

Var(X) = A.'

(II3: 30)

Die Exponentialverteilung findet hufig bei Zufallsvariablen Anwendung, die bei


der Messung von Zeitspannen (z.B. in Warteschlangenmodellen und Modellen der
Instandhaltungsplanung) auftreten. So knnen etwa die Lebensdauern von Bauteilen, Servicezeiten (Reparaturdauer, Beladezeit eines Lieferwagens, Kundenabfertigungszeit) oder Zeitlcken zwischen dem Eintreffen zweier Pkws an einem Grenzbergang als exponentialverteilt angenommen werden. Der Parameter A. ist dann
als durchschnittliche Abfertigungszeit, Servicezeit etc. ZU interpretieren.

Beispiel 11 3-20

Warteschlangen

Die Zufallsvariable X beschreibe die Zeit zwischen den Anknften zweier Kunden am
Schalter einer Bank. Durchschnittlich vergehen 0,6 Minuten zwischen dem Eintreffen
zweier Kunden.
Wie gro ist die Wahrscheinlichkeit dafur, dass zwischen den Ankunften zweier Kunden
mehr als 3 Minuten verstreichen, falls wir die Exponentialverteilung unterstellen?

P(X > 3) = 1- P(X S 3) = 1-F,,(3) = 1_(1_ e -O,8-3) = 1-0,8347 = 0,1653


Der einzige Funktionalparameter A. bestimmt die exakte Fonn der Dichtefunktion.

Im Beispiel II 3-21 sind die Dichtefunktionen fr einige ausgewhlte Werte von A.

abgebildet. Wir erkennen, dass die Dichtefunktion fr negative x den Wert Null
annimmt und bei x = 0 auf den Wert A. springt, um von da an monoton ZU fallen
und asymptotisch gegen die x-Achse zu konvergieren. Je grer A. ist, desto
"schneller" konvergiert die Dichte f",(x) bei zunehmendem x gegen Null. Bei
groem A. konvergiert natrlich auch die Verteilungsfunktion F",(x) "schneller" gegen Eins.

3. Theoretische Verteilungen

267

Bel.plelU 321

2,0

Ausgewllhlte ExponentlaIverteIlungen

1. .. 2

0,0

0,5

1,0

1,5

F,,(x)
1,0

'.2

_--2,0

---

2,5

3,0

............................................. .........

,....

--

", , "

----

'

0,5

.'

,~

"

.'

~----~----~-----------------------+x

0,0

0,5

1,0

1,5

2,0

2,5

3,0

Die Exponentialverteilung wird gelegentlich auch als Verteilung ohne Gedchtnis


bezeichnet. Dies beruht auf der Tatsache, dass eine stetige Zufallsvariable genau
dann exponentialverteilt ist, wenn fr alle a ~ 0 und b ~ 0 die folgende Bedingung
(sog. Markov-Eigenschaft) gilt: 4
P(X S; a + b I X ~ a) = P(X S; b)
(113, 31)
Angenommen, die ZufaUsvariable X beschreibt die Lebensdauer einer Glhbirne,
so besagt CD3: 31) dabei, dass die bedingte Verteilung der weiteren Lebensdauer b
unabhngig von der bereits erreichten Lebensdauer a ist. Anders ausgedrckt, hat
die Zeit, die die Glhbirne bisher brannte, keinen Einfluss auf die Zeit, die die
Glhbirne in Zukunft noch brennen wird.
Gerade diese Eigenschaft der Exponentialverteilung macht sie aber fr gewisse
praktische Sachverhalte untauglich. Erfasst eine Zufallsvariable Z.B. die Dauer der
4 Den Beweis dieser Eigenschaft berlassen wir in Aufgabe V9 dem Leser.

268

11 Wahrscheinlichkeitsrechnung

Arbeitslosigkeit einer Person, so zeigt sich in der Empirie, dass die Wahrscheinlichkeit, die Arbeitslosigkeit in einem bestimmten Zeitintervall zu beenden, durchaus von der bisherigen Dauer der Arbeitslosigkeit abhngt, da es fr Langzeitarbeitslose in der Regel problematischer ist, wieder ins Berufsleben einzusteigen.
Eine Exponentialverteilung wre daher fr die ModelIierung der Arbeitslosigkeitsdauer ungeeignet. 5
3.2.2.2

Diskretes Gegenstck

Fhren wir ein Bemoulli-Experiment mit einer Erfolgswahrscheinlichkeit von p


(Misserfolgswahrscheinlichkeit 1 - p) so oft aus, bis zum ersten Mal ein Erfolg eintritt, und verwenden wir die Zufallsvariable X: "Anzahl der Misserfolge bis zum ersten Erfolg" (x - 0,1,2, ... ), so betrgt die Wahrscheinlichkeit dabei genau x Misserfolge zu erzielen nach dem Multiplikationssatz fr unabhngige Ereignisse
([[3: 32)

p(X = x) = (1-p)'. p.

Eine diskrete Zufallsvariable X mit folgender Wahrschelnltchkeltsjunktton fG(x) bezeichnen wir als geometrisch verteilt. Wir schreiben kurz X - G(p).
fG(X)

-_{(1-PY'P x=0,1,2, ...


o
sonst

([[3: 33)

Mit zunehmendem x nehmen hier die Wahrscheinlichkeiten beginnend beim Wert


fG(O) - p ab. Wie daran und auch an der graBschen Form der Verteilung (vgl. Beispiel [[ 3-22) unschwer ZU erkennen ist, handelt es sich bei der geometrischen Verteilung um das diskrete Gegenstck zur Exponentialverteilung. 6
Eine weitere interessante Eigenschaft dieser Verteilung ist

fG(x + 1) = (1- p).


fG(x)

([[3: 34)

Die Misserfolgswahrscheinlichkeit (1 - p) kann also aus zwei aufeinanderfolgenden


Funktionswerten der Wahrscheinlichkeitsfunktion ermittelt werden. Gleichzeitig
knnen wir sagen, dass die Wahrscheinlichkeiten bei zunehmendem x mit dem
Term 1 - P abnehmen, da fG(x + 1) - fG(x)' (1 - p) gilt. Je grer also p ist, desto
kleiner ist der Term 1 - P und desto schneller nehmen die Wahrscheinlichkeiten
ab. Diese Abnahme der Wahrscheinlichkeiten sorgt schlielich dafr, dass ihre
Summe den Wert 1 annimmt:

LfG(x)=LP'(1-p)'=p' L(1-p)' =p'


=1
l-(1-p)

1:=0

l:"'O~
-::...=o"=-,geom.~'_",",~'

5 Die sog. Weibull-Verteilung weit diese Eigenschaft nicht auf. Fr eine detaillierte Behandlung dieser speziellen Verteilung vgl. z.B. Hartung et al. (2005).
6 Die Exponentialverteilung steht auch in engem Zusanunenhang zur Poissonverteilung. Die
Anzahl von Ereignissen in einem Zeitintervall ist nmlich genau dann PoCA,)-verteilt, wenn
die Zeitdauem zwischen aufeinanderl'olgenden Ereignissen unabhngig und exponentialverteilt mit dem Parameter A. sind.

3. Theoretische Verteilungen

269

Die VerteIlungsjunkNon FG(x) der geometrischen Verteilung lautet


FG(x) = {

0
():1+1
1- l-p

x<o
x=O,I,~ ...

(D3,35)

Funlttionalparameterder geometrischen VerteUung ist allein die Erfolgswaluscheinlichkeit p. Fr Erwartungswert und Vartanz der geometrischen Verteilung gilt:

E(X) = 1- P
P

(D3, 36)

V(X)=I-p

(D3,37)

p'

Boloplolll 322

Wahrscheinlichkeitsfunktionen von G(0,3) und G(0,1)

FOr die Werte PI - 0,3 (Punkte) und P2 - 0,1 (Rechtecke) ergeben sich folgende Wahrscheinlichkeitsfunktionen:

0,3

0,1

+
3

Beispiel 11 323

+
4

10

Gesamtbeispiel geometrische Veneilung

Sie befinden sich in der Frankfurter Innenstadt und haben Ihr Mobiltelefon vergessen, sodass Sie sich kein Taxi rufen knnen. Sie sind also darauf angewiesen zu warten, bis das
nAchste freie Taxi vorbeikommt. Aus Erfahrungswerten wissen Sie, dass die Wahrscheinlichkeit dafur, dass Sie das nchste vorbeikommene Taxi bekommen, bei 20 % liegt.
Die Wahrscheinlichkeit, nicht mehr als 2 Taxen abwarten zu mussen, liegt damit bei
FQ (l) = 1- (1-0, 2)1+1 = 0,36 .
Die Wahrscheinlichkeit mehr als 10 Taxen abwarten zu mussen ergibt sich zu
P(X > 10) - 1-FG (10) _ 1_[1_(1_0,2)10+1] - 1-0,9141 - 0,0859.
Im Durchschnitt mussen Sie
1-02
E(X)=--' =4 Taxen
0,2
abwanen.

11 Wahrscheinlichkeitsrechnung

270

Auch die geometrische Verteilung ist eine Verteilung ohne Gedchtnis. So knnen
wir z.B. in Beispiel II 3-23 zeigen, dass die Wahrscheinlichkeit weitere 10 Minuten
warten zu mssen, nachdem man bereits 20 Minuten gewartet hat, immer noch
0,3138 betrgt.

3.2.3

Normalverteilung

3.2.3.1

Dichte- und Verteilungsfunktion

Die auch als Gau-Verteilung bezeicbnete Normalverteilung (nach Abraham DeMoivre und Carl Friedrich Gau) ist die wohl wichtigste statistische Verteilung. Fr
die zentrale Rolle der Normalverteilung in der Statistik gibt es mehrere Grnde:

Viele Zufallsvariablen, die in Experimenten oder Sticbprobenerhebungen in


der Praxis auftreten, sind zumindest nherungsweise nonnalverteilt. Dies gilt
insbesondere fr biologische, physikalische oder technische Variablen, wie
z.B. die Gre, das Gewicht oder den Intelligenzquotienten von Menschen.

Gewisse nicht normalverteilte Zufallsvariablen kann man so trans/armieren,


dass die resultierenden Variablen normalverteilt sind 7

Die Normalverteilung ist eine Grenzverteilung zahlreicber anderer Verteilungen, was unter bestimmten Bedingungen die Approximation dieser Verteilungen durch die Normalverteilung ermglicbt8

In statistischen Schtz- und Testverfahren kommen oft Gren vor, die normalverteilt sind oder sich bei Grenzbergngen einer Normalverteilung nhern. Letzteres fmdet eine theoretische Begrndung durch den sog. Zentralen
Grenzwertsatz (vf!). Abschnitt II 3.4.1).

Ist X eine mit den Parametern 11 und ri' normalverteilte Zufallsvariable, X - N(p, d'J,
so lautet die Dichte/unktion fix) folgendermaen:
1
_(JI:_I1)2
f(x)=--e 20'2
N

..Ji.iicr

fr-oo<x<+co

OB: 38)

Dabei sind 0 > 0, 1t = 3,14159 ... und e = 2,71828 .... Diese Dichtefunktion (vf!). Abbildung II 22) weist folgende Eigenschaften auf:

oo.

Fr alle x gilt stets fN(x) > 0 und fN(x) --+ 0 fr x --+

fN(x) ist symmetrisch zur Senkrechten x

fN(I1-x)= fN(I1+ x ) fr alle XE IR.


(II3: 39)
Die Flche unter fN(x) von - bis 11 entspricht der Flche unter fN(x) von 11 bis
+00. Beide Flchen weisen einen Flcheninhalt von jeweils 0,5 auf.

fN(x) besitzt an der Stelle x

11. Es gilt daher

11 ihr absolutes Maximum von fNCI!) = ;"., .

Ihre Wendepunkte liegen bei x

11- 0 und x

11 +

0.

7 Vgl. z.B. die Potenzierungstransformation nach ehen und Deo (2004).


8 Die Approximation ausgewhlter diskreter Verteilungen behandeln wir unter II 3.4. Die
Approximation sog. Testverteilungen haben wir in die Beschreibung dieser Verteilungen in
Abschnitt II 3.3 integriert.

3. Theoretische Verteilungen

271

Die VerteIlungsjunkNon FN(x) der Normalverteilung ist als


FN(x) =

J r::=
"

(Y-I'I

_ ",2M

e ~ dv

definiert. Sie zeigt einen S-frmigen Verlauf (vgL Abbildung n 22), besitzt einen
Wendepunkt bei x - ~ und es gilt FN(X)~O fr X~--OO sowie FN(x)~l fr x~+oo.
fN(x)

Fix)
1,0

0,5

0,0 L--.--;:::::'~---i-~-~-~--+

Abbildung n 22: Dichte- und Verteilungsfunktion der Nonnalverteilung


Fr unterschiedliche Ausprgungen der Funlttionalpammeter ~ und ti ergeben
sich unterschiedliche Normalverteilungsdichten. Halten wir etwa J.1 konstant und
variieren nur ti, so wird die KUl'Ve immer flacher, je grer ti wird. Abbildung n
23 veranschaulicht dies. Verndern wir nur J.I. bei konstantem ti, so kommt es zu
einer Verschiebung der Kurve nach "links" oder "rechts" (vgl. Abbildung 11 24). Wir
erkennen an den Abbildungen, dass es sich bei ~ um einen Lageparameter und bei

272

11 Wahrscheinlichkeitsrechnung

a' um einen Streuungsparameter der Verteilung handelt, d.h. fr Erwartungswert


und Varianz einer NQ!.,a')-verteiiten Zufallsvariable X gilt
E(X) = IJ.
Var(X)

= 0'

(113: 41)
(113: 42)

!"

_......... "",'

;'

'ji

,'/

,.,.

x
Abbildung 11 23: Skizzierte NV-Dichtefunktionen fr verschiedene

f.ex)

N(IJ."o')

'T\
,1\
.
. , N(IJ."a')
I .i \
,' .i ,
I .i \ ' .i ,,
I i \ ,' .i ,
I l \' l I
i

\,

,\

! J !

!! \ I
,

\(

i'

'

'

'

\,

\
\

', __
x

Abbildung 11 24: Skizzierte NV-Dichtefunktionen fr verschiedene IJ.

273

3. Theoretische Verteilungen

3.2.3.2
Eine Normalverteilung mit ~ - 0 und rI - 1, also N(O;!), heit Standardnormalverteilung (normierte Normalverteilung). Da in der statistischen literatur eine standardnonnalverteilte Zufallsvariable meist mit Z und deren Dichte mit 'P bezeichnet werden, wollen wir uns ebenso dieser Notation bedienen, sodass sich fr die Dichte
~(z) =

1 -"
=
e '
v2~

cn3, 43)

sclueiben lsst. Diese Dichtefunktion ist in Abbildung II 25 skizziert. Wir erkennen


daran, dass bei einer N(O;l)...Verteilung 68,27 % der x-Werte im Intervall [-1; 1] (entspricht einem Intervall von einer Standardabweichung um den Erwartungswert)
liegen. Im Intervall [-3; 3] (entspricht einem Intervall von drei Standardabweichungen um den Erwartungswert) befinden sich bereits 99,73 % der Werte.

cp(z)

Ausgewhlte
Flchenanteile:

0,399

68,27 %

+---- ---------[-2;21

95,45 %

-----~

--------+

-3

-2

-1

99,73%

Abbildung II 25: Dichtefunktion der Standardnonnalverteilung


Durch Integration der Dichtefunktion cpCz) erhalten wir die Verteilungs/unktion
~(z) der Standardnonnalverteilung. Auch sie weist wie die Verteilungsfunktion der
Normalverteilung einen S-fOrmigen Verlauf auf und gibt die Wahrscheinlichkeit
P(Z S; z) - 4I(z) an.
Ist c eine beliebige Konstante, so knnen wir aufgrund der Symmetrleeigenscbaft
der Nonnalverteilung fr ihre Verteilungsfunktion den Zusammenhang
P(XS;J.1-c)=P(X~J.1+c)

FN CJ.1-c)=l-FN CJ.1+c)

festhalten, wonach fr die Verteilungsfunktion der Standardnormalverteilung


P(Z S --cl = P(Z <!: c)
gilt.

<1>(-<) = 1- <I>(c)

cn3,44)

11 Wahrscheinlichkeitsrechnung

274

Aufgrund ihrer enormen Bedeutung fr die induktive Statistik wollen wir im Folgenden noch auf weitere Eigenschaften der Standardnormalverteilung eingehen:

1. Transformationseigenschaft der Standardnormatvertellung


Ist X eine N(I1,CI')-verteilte Zufallsvanable, so kann diese durch eine spezielle Art
der linearen Transformation, nmlich die Standardisierung
X-11
Z=a+bX
mit a= -11 , b=1
Z=-CI
CI
CI
in eine N(O;l)- bzw. standardnormalverteilte Zufallsvariable Z berfhrt werden.
Durch die Standardisierung wird E(Z) = und Var(Z) = 1 erreicht (vgl. Abschnitt II
2.4.2.3), sodass wir zusammenfassend Folgendes festhalten knnen:

X - N(I1,CI')

-+

Z = X-11 - N(O;1)
CI

(II3: 45)

Aufgrund dieser sog. Transjormationseigenschaft reicht es fr die Anwendung der


Normalverteilung aus, die Verteilungsfunktion der Standardnormalverteilung zu
tabellieren. 9 Da zudem nach (I!3: 44) die Beziehung 4>(-z) = 1 - 4>(z) gilt, mssen
in Tabellen zur Standardnormalverteilung nur die Wahrscheinlichkeiten fr z ;:,
aufgenommen werden. Auszugsweise sieht eine solche Tabelle daher wie folgt aus:

z
0,0
0,2
0,4
0,6
0,8

4>(z)
0,5000
0,5793
0,6554
0,7257
0,7881

z
1,0
1,2
1,4
1,6
1,8

4>(z)
0,8413
0,8849
0,9192
0,9452
0,9641

z
2,0
2,2
2,4
2,6
2,8

4>(z)
0,9772
0,9861
0,9918
0,9953
0,9974

Interessieren wir uns fr die Wahrscheinlichkeit P(Z ~ 2), so knnen wir diese aus
obiger Tabelle als 4>(2) = 0, 9772 ablesen. P(Z ~ -2) ergibt sich hingegen aufgrund
von (II3: 44) als 4>(-2) = 1- 4>(2) = 1- 0, 9772 = 0, 0228. Zur schnellen Wahrscheinlichkeitsbestirnrnung haben wir im Online-Service ein Excel-Tool hinterlegt.
Fr die Verteilungsfunktionen von Normalverteilung FN(x) und Standardnormalverteilung 4>(x) knnen wir folgenden Zusammenhang zeigen:
FN(x) =P(X ~ x) = p(X

:11 ~ x: 11) =p( Z ~ x:11) = 4>( x: 11) =4>(z)

Die Wahrscheinlichkeit, dass eine mit 11 und CI' normalverteilte Zufallsvariable X


hchstens den Wert x annimmt, kann also direkt aus den Tabellen der Standardnonnalverteilung entnommen werden:

P(X ~ x) = 4>( x

:11)

O!3: 46)

Eine Tabellierung ist erforderlich, da keine Stammfunktion der Dichte der Norrnalverteilung existiert. Das Integral FN(X) kann nur mit Nherungsverfahren der numerischen
Mathematik gelst werden.

275

3. Theoretische Verteilungen

2. IntervallwahrscheinUcbkeiten

Ist die wahrscheinlichkeit dafr gesucht, dass eine N(I1,cr')-verteiite Zufallsvariable X einen Wert zwischen x,. und x, annimmt, so gilt
P(xu ";X";x,)=P(x u <X";xo )
= P(X"; x o ) -P(X:5: x u) = FN(xo )

FN(x u)'

Unter Verwendung von (II3: 46) knnen wir auch Folgendes scheiben:
P(x u ,,; X"; x o ) = 11>( x o ;

11) -II>( x u; 11) = lI>(z,) -1I>(zu)

OB: 47)

Eine weitere in der Praxis interessante Fragestellung ist hufig, wie gro die

Wahrscheinlichkeit dafr ist, dass eine NCIl,cr')-verteiite Zufallsvariable X um


hchstens einen Wert c > 0 von 11 abweicht. Diese errechnet man unter Bercksichtigung von OB: 44) wie folgt:
P(I1-c"; X";

11+ c)= FN(I1+c) -FN(I1- c) = 11>(11+ ~ -11 )_II>(I1-~ -11)


=

II>(~) -11>(:) = II>(~) - [1-1I>(~)]

Dies kann man weiter zusammenfassen zu

P(I1- c :5: X:5: 11 + c) = 211> (~) -1 .

(II3: 48)

Interessieren wir uns fr die Wahrscheinlichkeit, dass eine N(I1.cr')-verteiite


Zufallsvariable X Werte in einem Intervall 11- kcr ,,; X ,,; 11 + kcr mit k > 0 (sog.
ku-Bereich) annimmt, so ergibt sich diese zu
k
PCIl- kcr"; X"; 11 + kcr) = 11>(11 + ~-I1) _1I>(I1- ; -11) = lI>(k) -II>(-k).
Unter Verwendung von (II3: 44) knnen wir diesen Zusammenhang auch als
P(I1-kcr:5: X:5: 11 + kcr) = 2 1I>(k)-1

(II3: 49)

ausdrcken. Zu erkennen ist, dass die Flche von l1-kcr bis l1+kcr unter der
Gauschen Glockenkurve unabhngig von 11 und cr ist. Fr verschiedene Werte von k erhalten wir folgende Wahrscheinlichkeiten:
k

Intervall

Flche

Intervall

Flche

68,27 %

1,64

11 1,64cr

90%

95,45 %

1,96

11 1,96cr

95 %

99,73 %

2,58

11 2,58cr

99%

Die Wahrscheinlichkeiten fr k
Abbildung II 25 begegnet.

I, k

2 und k

3 sind uns dabei bereits in

276

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-24

Zusammenfassendes Beispiel zur Normalverteilung

Eine Maschine produziert Metallplttchen mit einer Lnge von 30 mm. Da zufallsabhngige
Ungenauigkeiten bei der Herstellung auftreten knnen, kann die Lnge X eines Plttchens
als Zufallsvariable angesehen werden, die wir als mit Il = 30 und'" = 0,25 normalverteilt
betrachten wollen. Gesucht sind nun folgende Wahrscheinlichkeiten, die wir unter Heranziehung der tabellierten Standardnonmalverteilung im Anhang bestimmen wollen:
Ein zufllig aus der Produktion entnommenes Plttchen ist
a) hchstens 30,5 mm lang:
P(XS 30,5) = ~(30,~~30)

=~(1) = 0,8413

b) mindestens 29,6 mm lang:


P(X 2: 29,6) = l-P(X" 29,6) = 1_~(29,6-30) = 1-<1>(--0,8) = 1-[1-<1>(0,8)]
0,5
= ~(0,8) = 0,7881
c) zwischen 29,1 mm und 30,7 mm lang:
P(29,1" X" 30,7) =

<I>(30'~,~30)_<I>(29'~,~30) = <1>(1,4)-<1>(-1,8)

= ~(1,4)+~(1,8)-1 = 0,9192+0,9641-1 = 0,8833


d) maximal 0,2 mm von der Soll-Lnge entfernt:
P(29,8" X" 30,2) = 2,<1>(,2)_1 = 2<1>(0,4) -1 = 20,6554-1 = 0,31 08
0,5

3. Quantile der Standardnormalvertenung


Fr ein a-Quantil (oder Fraktil) Z. nimmt die Wahrscheinlichkeit P(Z S zJ = ~(zJ
den Wert a an. Zur Bestimmung des Wertes z. wird also in der Verteilungstabelle
zunchst die Wahrscheinlichkeit a gesucht und das dazugehrige z. abgelesen.
(113: 50)
Einige wichtige Quantile, die wir insbesondere in der induktiven Statistik noch des
fteren bentigen werden, sind in folgender Tabelle aufgefhrt:

a
0,50
0,90
0,95

a
0,00
1,28
1,64

0,975
0,99
0,995

1,96
2,33
2,58

Demnach liegt also z.B. das 99 %-Quantil z,'" der N(O;I)-Verteilung bei 2,33. lnteressieren wir uns fr das 1 %-Quantil z,.", so knnen wir dieses aufgrund der Symmetrie der Dichte bezglich z = 0 ber z. = -Z,~, d.h. hier als z."" = -Z,.99 = -2,33
bestimmen.

3. Theoretische Verteilungen

277

Interessieren wir uns fr die Wahrscheinlichkeit, dass eine NC)L,cr')-verteilte Zufallsvariable X Werte in einem Intervall x a / 2 S X S x l - a12 annimmt, so ergibt sich diese

unmittelbar aus der uns bekannten Quantilsdefinition. Wie die Abbildung II 26 anschaulich zeigt, ist der Flcheninhalt der Flchen links von x./2 und rechts von
x I_./2 jeweils gerade a/2, sodass fr die gesuchte Intervallwahrscheinlichkeit offensichtlich 1 - (a/2 + a/2) = 1 - a gilt.
fN(x)

x
Abbildung II 26: Dichtefunktion, Quantile und Intervallwahrscheinlichkeiten
3.2.3.3

Reproduktionseigenschaft

Auch die Nonnalverteilung besitzt die bereits mehrfach erwhnte ReproduktIonseigenschaft. Diese kommt wie folgt zum Ausdruck:

x., ... ,

X. nunabhngige nonnalverteilte Zufallsvariablen, so ist ihre Summe


Sind
X, also X = XI + ... + X. ebenfalls nonnalverteilt. lO Der Erwartungswert von X, 11..,
ergibt sich dann als Summe der einzelnen Erwartungswerte Il" ... , IJ.. der Zufallsvariablen

x., ... , x.:

IJ.X =IJ.I+ ... +lJ.n

(II3:51)

Fr die Varianz von X, a~, ergibt sich aufgrund der Unabhngigkeit der X;
a~ = a: + ... + a! .

(I!3: 52)

Obwohl sie nicht mit der Reproduktionseigenschaft zusammenhngt, wollen wir an


dieser Stelle auf eine weitere bedeutende Eigenschaft der Nonnalverteilung hinweisen: Entsteht eine Zufallsvariable Y durch eine Transfonnation Y = a + bX mit b 0
aus einer NC)L,a')-verteilten Zufallsvariable X, so ist Y N(a + blJ.,b'a')-verteilt.

10 Genau genommen ist die Summe !'.XI gemeinsam normalverteilter Zufallsvariablen ~. "',
~ wieder normalverteilt Coder eine Konstante). Zur Definition gemeinsam normalverteil-

ter Zufallsvariablen vgl. z.B. Schmid und Trede (2005). Insbesondere sind nunabhngige

nonnalverteilte Zufallsvariablen auch gemeinsam nonnalverteilt.

278

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-25

Reproduktionseigenschaft

In einer Winzerei werden Weinflaschen mit einem Sollinhalt von 1,5 I bei einer Varianz von
0,0025 12 abgefijllt. Wie gro ist unter Annahme der Normalverteilung und Unabhngigkeit
der Flascheninhalte die Wahrscheinlichkeit dafiir, dass ein Kunde, der 4 Flaschen kauft,
wenigstens 5,95 I erhlt?
Die Gesamtliterzahl X ergibt sich hier aus den (unabhngigen) Literzahlen X" ... , X. der
einzelnen Flaschen und ist damit auch normalverteiH. Es gilt dann:

X = X, + X, +x" +X,

->

I'x = 41,5 = 6 I
a~ =40,0025=0,011'

Fr die gesuchte Wahrscheinlichkeit ergibt sich demnach

P(X 2: 5,95) = 1_<1>(5,95-6) = 1-<1>(-0,5) = 1-[1-<1>(0,5)] = 0,6915.


0,1

3.2.4

Logarithmische NormalverteIlung

Eine nichtnegative Zufallsvariable X heit logarithmisch nonnalverteilt oder lognormalverteilt mit den Parametern I' und a', kurz X - L(Ji,u'J, wenn nicht die Zufallsvariable X selbst, sondern ihr Logarithmus nonnalverteilt bzw. konkret NC)1,a')verteilt ist. Ist also Y = In X normalverteilt, dann ist X = eY lognonnalverteilt. Fr die
Verteilungsfunktion F,(x) gilt dann
FL(x) =FN(y) = FN(ln x) .
Durch Ableitung nach x erhalten wir unter Bercksichtigung der Kettenregel
f (x) = dFL(x) = dFN(lnx). d(lnx) =f (lnx) . .!.
L
dx
dinx
dx
N
x'
was die D/chtejunkt/on fL(x) der nicht symmetrischen Lognonnalverteilung als
fr x>O

013: 53)

sonst

liefert. Da in x nur fr x > definiert ist, ist fL(x) fr x ,., 0 gleich Null. Die Dichtefunktion beginnt bei x = 0 mit dem Wert fL(O) = 0, steigt bis zu einem Maximum an,
fllt dann wieder und nhert sich asymptotisch der x-Achse (vgl. Beispiel II 3-26).
Die Lognormalverteilung besitzt die zwei Funktionalparameter Il. = E(ln X) und a' =
Var(ln X). Ihre a-Quantlle knnen wir ber

013: 54)
berechnen, wobei z. das entsprechende Quantll der Standardnonnalverteilung ist.
Die rechtsschiefe bzw. linkssteile L(Il.,a')-Verteilung wird in der Praxis besonders
gerne verwendet, wenn keine negativen Merkmalsausprgungen vorkommen knnen und eine linkssteile Verteilung gebraucht wird. Dies ist etwa bei Einkommens-

279

3. Theoretische Verteilungen

oder Vertngensverteilungen gegeben. Hufig werden in der Finanzmarkttheorie


auch Aktienkurse oder -renditen als lognonnalverteilt unterstellt. 11

Boloplolll 326

Verschiedene Lognormalverteilungen

IL(x)

0,25

--

L(1,5;O,36)
'-,

"

' .......
/ ',

/'

L(2;O,16)
........

"- "-

" ,
.......

"- "-

....

"- ....

........

..... .....

~...;.~o=-==........~ x
-- ...
-l.i~~~____~____-=::==::-~-:-::-==~;

10

15

20

Die Funklionalparameter J.I. und ti der 1CJ.I.,ti)-Verteilung knnen anders als bei
der Normalverteilung nicht als Erwartungswert und Varianz der Verteilung interpretiert werden, da sie Erwartungswert und Varianz der logaritlunierten Variablen darstellen. Stattdessen ergeben sich Erwartungswert und Varianz als
E(X)=e

,'"
1

+'" .(e'" -1) .

Var(X) = e 2Jl

Bel.plelll 327

(03,55)
(03,56)

Anwendungsfall: Kreditrisiko und Bank-Rating

In Beispiel 11 3-16 wurde behandelt, dass die Hufigkeit von Kreditausfllen als annhernd
P(l)-verteilt betrachtet werden kann. Da nun aber jeder Kreditausfall rur die Bank einen
anderen Schaden bedeutet, ist es letztendlich nicht die Anzahl der Kreditausflle, sondem
die Hhe des damit verbundenen Verlustes die interessiert. In der Praxis hat sich gezeigt,
dass die Wahrscheinlichkeit der aggregierten Ausfallverluste durch eine LognormaJverteilung gut modelliert werden kann.12
Bei der Bestimmung des Kraditzinses (bzw. der darin einzubeziehenden RisikoprAmie)
durch die Banken sollten diese beachten, dass er die erwarteten Ausfallverluste E(V) abdeckt. Fur den Fall, dass die tatschlich eintretenden Verluste diesen Erwarlungswert
ubersteigen, besitzen die Banken immer noch EigenkapitalrCIckiagen, die sie vor Insolvenz
bewahren. Erst wenn die Verluste die erwarteten Verluste (abgedeckt durch die Risikoprmie im Kreditzins) und unerwarteten Verluste (abgedeckt durch die EigenkapitalrUcklage) ubersteigen, ist die Bank bedroht. Es wird daher versucht, die Wahrscheinlichkeit fUr
eine Insolvenz der Bank durch entsprechende Festsetzung der EigenkapitalrUcklage auf
einem niedrigen Niveau p zu halten. Je niedriger p, desto besser ist das Rating der Bank.

11 VgL z.B. Campbell et al (1997), Kapitell und 9.


12 Vgl. z.B. Rau-Bredow (2002) und Rolfes (2008).

280

11 Wahrscheinlichkeitsrechnung
f(V)

v
erwarteter
Verlust

Eigenkapitalrucklage

Bankinsolvenzgefahr

3.3 Test-Verteilungen
Die folgenden stetigen Verteilungen, die auch als Testverteilungen bezeichnet werden, finden besonders bei bestimmten Testverfahren und bei der Bestimmung von
Konfidenzintervallen in der induktiven Statistik Anwendung. Wir wollen sie daher
zunchst nur theoretisch betrachten13 Auf ihre konkrete Anwendung werden wir
schlielich im Kapitel III eingehen.

3.3.1

Chi-Quadrat-Verteilung

Sind Z" Z" ... , Zw unabbngig N(O; l)-verteilte Zufallsvariablen, so folgt die Quadratesumme
(113: 57)
einer Cbi-Quadrat-Verteilung mit w Freiheitsgraden oder kurz ;((w)-Verteilung.
Der Funktlonalparameter w der Chi-Quadrat-Verteilung, welcher die Anzahl der
unabhngigen Zufallsvariablen in X' beschreibt, bestimmt die Gestalt ihrer Dlcbtefunktion (vgl. Beispiel 11 3-28). Da X' nur positive Realisationen annehmen kann,
ist sie nur fr solche definiert und ihre Dichtefunktion strebt mit X' -7 ~ gegen
Null 14
Eine Chi-Quadrat-verteilte Zufallsvariable X' besitzt den Erwartungswert
E('1.') = w

(113: 58)

Var('1.') = 2w.

O!3: 59)

und die Varianz

13 Wir verzichten bei der Behandlung der Verteilungen auf die konkrete Angabe der Dichtefunktionen, da wir sie im weiteren Verlauf nicht bentigen. Der interessierte Leser fmdet
die Funktionen jedoch in der im Online-Service des Buches enthaltenen Formelsammlung.
14 Um Konflikte mit der bisherigen Notation zu vermeiden, bezeichnen wir Realisationen
von Chi-Quadrat-, t- und F-verteilten Zufallsvariablen in Grafiken im Folgenden mit x.

3. Theoretische Verteilungen

281

Boloplolll 3-28

Verschiedene Chi-Quadral-Verteilungsdichlen

0,2

,,, ,
,

,,,

0,1

".

".

,,

:
I
,
I
, I
: I
, I

: I
/

,
, ,,
2

\ ..... X (7)

",

,,

",

"

,,
....

,,

-- ..............
--........_-- -=---..... .......

10

15

20

Beispiel 11 3-28 zeigt, dass die Dichten fr kleine w deutlich linkssteil sind. Fr
wachsendes w nhern sie sich der Gauschen Glockenkurve. Dies ist eine Folge
des Zentralen Grenzwertsatzes (vgl. Abschnitt 11 3.4.1), da die Sunune der Zufallsvariablen Z:,~, ... ,Z! dessen Voraussetzungen erfllt.
Im Anhang sind fr eine Reihe von a-Werten und w :s; 30 die a-Fraklile der ChiQuadrat-Verteilung vertafelt. Es lsst ~ zeigen, dass sich mit wachsender Anzahl

von Freiheitsgraden w die Gre .v2X2 immer mehr einer Normalverteilung mit
~ =.J2w -1 und ti - 1 annhert. Die standardisierte Gre

z=R -.J2w-l

ist daher annhernd standardnonnalverteilt. Diese Nherung erlaubt uns, fr w > 30


die a-Fraktile X~.. einer Chi-Quadrat-Verteilung mit w Freiheitsgraden durch

+.J2w-l)'
x,"'.. -~.(z
2
a

(D3,60)

zu approximieren, wobei Zu das a-Fraktil der N(O;1)-Verteilung ist. 1!!


Eine Reprodukttonseigenscbaft, wie wir sie bei der Nonnalverteilung festgestellt haben, weist auch die Chi-Quadrat-Verteilung auf. So ist die Summe von zwei oder
mehr Chi-Quadrat-verteilten Zufallsvarlablen wiederum Chi-Quadrat-verteilt. Die
Freiheitsgrade der neuen Zufallsvariable ergeben sich dabei als Sunune der Freiheitsgrade der einzelnen Summanden.

l!!i Diese Approximation ist besser als die direkte Appnmmation der x'(w)-Verteilung durch

eine N(w,2w)-Verteilung. Vgl. hierzu z.B. Bamberg und Baur (2002), Kapitel 11.

282 ________

__

.:========~ I~IW~ah:.::..=Ch~.=in~l=iC~hko=i1S=roc=h~n~U~n~g

Bel.plelU 3-29

Fraktilsapproximation

Uegl das 10 %-Fraktil einer Chi-Quadrat-Verteilung mit w '" 5 bei ~,1;5 '" 1,61, bedeutet
dies, dass die Wahrscheinlichkeit, dass 'I} hchstens den Wert 1,61 annimmt, bei 10 %
liegt. WOrden wir uns nun far das 10 %-Fraktil fOr w '" 50 interessieren, knnten wir dieses
nAherungsweise wie folgt bestimmen:

X:.l:50

3.3.2

"~{-1,282+.J99r =37,57

I-Verteilung

Betrachten wir zwei unabbt'lngtge Zufallsvarlablen Z und 'i, wobei Z standardnormalverteilt und X~ mit w Freiheitsgraden Cht-Quadrat-verteilt ist, dann gehorcht die Zufallsvariable
Z

T=J?;

Bit

einer t-Verteilung Coder Studentverteilung nach W.S. Gosset) mit w Freiheitsgraden


oder kurz einer l(w)-Verteilung. Ihre Dicbtefunktion besitzt eine hnliche symmetrische Glockenfonn wie die Normalverteilung. Ihre Funktionsgestalt ist vom Funktionalparameter w abhngig Cvgl. Beispiel 11 3-30). Sie ist symmetrisch um
Null und besitzt fr kleine w dickere (hhere) Enden (eng!. heavy tail distribution)
als die Standatdnonnalverteilung. Dies bedeutet, dass weniger wahrscheinlichkeitsmasse im Zentrum um Null und mehr an den Rndern verteilt ist. Gerade daher eignet sich die t-Verteilung zur Modellierung von Daten, die im Vergleich zur
Normalverteilung einen greren Anteil an extremen Werten enthalten.

Bel.plelU 3-30

Verschiedene t-Verteilungen

h(x)

'(30)

"'-.. ::-

0,4

/,-

/ / t(4) ,\

'~
"

/"
I '
/"
I,'
/.'
/.,'
l-,

0,3

0,2

""

'\

':\.

'~

r.

0,1

-3

-2

-1

\\

, x

283

3. Theoretische Verteilungen

Wie Beispiel II 3-30 erkennen lsst, geht die t-Verteilung fr w ~ ~ in die Standardnorrnalverteilung ber. Als Faustregel knnen wir festhalten, dass ab w > 30
die t-Verteilung in guter Nherung durch die Standardnonnalverteilung approxtmiert werden kann. Dies ist auch der Grund, warum meist nur fr w S 30 ausgewhlte a-Fraktile tabelliert sind. Fr w > 30 knnen wir als Nherung des a-Fraktils
t aw der t(w)-Verteilung das a-Fraktil z. der N(O;l)-Verteilung heranziehen. Zudem
beschrnkt sich die TabelIierung auf a-Werte grer als 0,5. Wegen der Symmetrie
der Dichtefunktion der t-Verteilung gilt nmlich ta,w = -t,_a,w .
Fr w > 1 ergibt sich der Erwartungswert der t-Verteilung als
E(T)=O.

(II3: 62)

Liegt die Anzahl der Freiheitsgrade w bei 1, so existiert kein Erwartungswert. In


allen anderen Fllen ist bereits zu erkennen, dass (II3: 62) mit dem Erwartungswert
der Standardnormalverteilung identisch ist.
Fr w > 2 erhalten wir die Varianz

Var(T) = -"'-- .
w-2

(II3: 63)

Ist w S 2 existiert keine Varianz. Mit zunehmendem w (w ~ ~) nhert sich die


Vatianz dem Wert 1, wie ihn auch die Standardnormalverteilung besitzt.

3.3_3

F-Verteilung

Sind eine Zufallsvariable X mit u und eine Zufallsvariable Y mit w Freiheitsgraden


Chi-Quadrat-verteilt und sind X und Y unabhngig, so wird die Verteilung der Zufallsvatiablen

O!3: 64)
als F-Verteilung mit den Freiheitsgraden u und w oder kurz F(u, w)-Verteilung bezeichnet. Wie eine Chi-Quadrat-verteilte Zufallsvariable, kann auch F nur positive
Werte annehmen. Die Gestalt der Dichtefunktion ist widerum von den Funktionalparametern u und w abhngig (vgl. Beispiel II 3-32). Fr groe w lsst sich die
F(u,w)-Verteilung durch die X'(u)-Verteilung approximieren.
Im Anhang sind Tabellen fr ausgewhlte Fraktile der F-Verteilung zu fmden. Beim
Ablesen der Fraktile aus diesen Tabellen ist die Beziehung O!3: 65) zwischen dem
a-Fraktil fa.u,w der F(u,w)-Verteilung und dem (l-a)-Fraktil f,_a,w,u der F(w,u)Verteilung wertvoll. Sie lsst sich darauf zurckfhren, dass wegen (II3: 64) stets
F - F(u,w) B 1/F - F(w,u) gilt.

a,u,w

=_1_

O!3: 65)

1-G,w,u

Beispiel 11 3-31

F-Verteilungs-Fraktile

Das 5 %-Fraktil der F(3;4)-Verteilung kOnnen wir finden, indem wir das 95 %-Fraktil der
F(4;3)-Verteilung nachschlagen und den Kehrwert davon bilden:

f",,;," = 119,12 = 0,11

11 Wahrscheinlichkeitsrechnung

284

Bit

Verschiedene F-Verteilungen

Bel.pl"IU 3-32
fF(x)

,-

,,, 'F(15"2O)
'' '
'',,
,,
,,
,,
,,

0,5

,,
,
"'-

.. 3

Fr den Erwartungswert, der nur vom Freiheitsgrad der Zufallsvariable im Nenner


abhngt, und die Varianz der F-Verteilung kann Folgendes festgehalten werden:
E(F) = ~
w-2

fr w > 2

Var(F) = ZW2(U + W - 2)

uew-2)2(w-4)

(113: 66)

fr w > 4

Mit zunehmendem Freiheitsgrad w konvergiert der Erwartungswert gegen Eins. Da


fr groe Freiheitsgrade die beiden Subtrahenden (2 und 4) im Nenner von
(IT3: 61) immer mehr an Bedeutung verlieren, konvergiert die Varianz gegen Null.
Zusammenfassend zeigen die folgenden bersichten die Funktionalparameter und
die wichtigsten Momente (Erwartungswert und Varianz) der wesentlichsten diskreten und stetigen Verteilungen noch einmal im berblick.
Verteilung

Parameter

Binomial ...

OSpSl,n

Hypergeometrische ...

N - 1, 2, ...
M - 0, 1, ... , N
n - 1, 2, ... , N

Poisson ...

1.>0

Erwartungswert

Varianz

np

np(1-p)

M
nN

M N-M N-n
n----N-l
N
N

I.

I.

Abbildung 11 27: Diskrete Verteilungen im berblick

3. Theoretische Verteilungen

Verteilung
Gleich ...

285

Parameter

Erwartungswert

-oo<a<b<+oo

Exponential ...

1..>1

Nonnal...

-00

< Il<

--

a+b
2

(b - a)'
12

1/1..

1/1..'

11

a'

+00

a>O
Chi-Quadrat ...
t-...
F-...

Varianz

1, 2, ...

2w

1, 2, ...

Ofrw>l

- - frw>2

1, 2, ...

w
w-2

- - frw>2

1, 2, ...

w
w-2

2w'(u +w-2)
u(w - 2)'(w -4)

rurw>4

Abbildung 11 28: Stetige Verteilungen im berblick

3.4 Bedeutung der Normalverteilung


Unter gewissen Voraussetzungen knnen andere Verteilungen durch die Normal-

verteilung approximiert werden. Diese Eigenschaft der Nonnalverteilung wurde bereits angesprochen und ist fr die oben genannten Testverteilungen besonders
ntzlich. In diesem Abschnitt wollen wir uns nun nher mit dem Zentralen Grenzwertsatz auseinandersetzen, der die theoretische Grundlage fr diese Approximationsmglichkeit liefert und auerdem die konkrete Approximation ausgewhlter
diskreter Verteilungen durch die Normalverteilung nher betrachten.

3.4_1

Zentraler Grenzwertsatz

Sind x" x" ... , Je" Identisch vertellte16 und unabhngige Zufallsvariablen (egal ob
stetig oder diskret) mit jeweils dem Erwartungswert 11 und der Varianz 0', dann
passt sich die Verteilung der Summe EX, fr wachsende Anzahl n der Summanden
immer besser der Nonnalverteilung
(113: 68)

N(nl1,na')

an. Dies ist grob gesprochen die wesentlichste Aussage des Zentralen Grenzwertsatzes. Durch Standardisierung der Summe EX, erhalten wir die Zufallsvariable

LX, -nil
=
n

Z
n

i_t

n,Xn -nJ.1.

.m.a - .m.a

16 Dies bedeutet konkret, dass Fx, (x)

= ... = Fx.. (x)

fr alle reellen x gilt.

(113: 69)

286

11 Wahrscheinlichkeitsrechnung

mit E(Z.) - 0 und Var(Z") - 1. Der Zentrale Grenzwertsatz besagt also auch, dass
die Verteilungsfunktion Fz" (z) = P(Z" ~ z) der Zufallsvariablen Z., mit wachsender
Summandenzahl n gegen die Verteilungsfunktion <I>(z) der Standardnormalverteilung konvergiert:
P(Z" ~ z)

"_) <I>(z)

(1l3: 70)

Die praktische Bedeutung des Satzes liegt darin, dass die Verteilung der Zufallsvariable Z. bereits fr endliches n durch die N(O;l)-Verteilung angenhert werden
kann. Entsprechend kann die Verteilung der nicht standardisierten Summe EX, fr
endliches n durch die N(nl1,na')-Verteilung approximiert werden. Die Gte der
Nherung hngt dabei natrlich von der Verteilung der Zufallsvariablen Je, ab. Die
Konvergenz gegen die Normalverteilung ist besonders schnell, wenn die Je, symmetrisch verteilt sind, und UInSQ langsamer, je schiefer die Verteilung ist.
Im Zusammenhang mit diesem fundamentalen statistischen Satz sind folgende Aus-

sagen von auerordentlicher praktischer Relevanz:

Fr n > 30 wird die Normalverteilung meist als hinreichend genau fr die


Approximation stetiger Verteilungen angesehen.

Der zentrale Grenzwertsatz trifft auf viele Verteilungen zu und eignet sich deshalb zu deren Approximation. So kann z.B. die B(n,p)-Verteilung durch die
N(O;1)-Verteilung approximiert werden (vgl. Abschnitt II 3.4.2.1), da eine
B(n,p)-verteilte Zufallsvariable X als Summe X - EX, unabhngiger B(1;p)verteilter Je, dargestellt werden kann. Da E(X) - np und Var(X) - np(1-p)
sind, konvergiert also als Spezialfall von 013: 69) die Verteilungsfunktion der
Zufallsvariable

Z =
n

fr n

X-np
.jnp(1- p)

013:71)

= gegen die Verteilungsfunktion <I>(z) der Standardnormalverteilung.

Wie die Summe ist auch das arithmetische Mittel der Je, in einer Stichprobe,
also X - EX/n, bei hinreichend groem n annhernd normalverteilt.

Selbst fr den Fall, dass die einzelnen unabhngigen Zufallsvariablen Je, nicht
Identisch verteilt sind, ist die Summe LX, fr ein groes n hinreichend genau
normalverteilt.

Die entscheidende Bedeutung der NormalverteIlung in der Wahrscheinlichkeitsrechnung und der induktiven Statistik beruht neben der Tatsache, dass
die Summe und der Durchschnitt von unabhngigen Zufallsvariablen approximativ nonnalverteilt sind, auch darauf, dass Zufallsvariablen, die aus dem
Zusammenwirken vieler unabhngiger Einzeleinflsse resultieren (z.B. Messfehler bei einem Messvorgang), unter Berufung auf den Zentralen Grenzwertsatz als nherungsweise normalverteilt angenommen werden knnen.

287

3. Theoretische Verteilungen

3.4.2

Approximation diskreter Verteilungen

3.4.2.1

Binomiolvertell_

Mit wachsendem n nhert sich die Fonn der unter 11 3.1.1 behandelten B(n,p)-

Verteilung immer mehr der Glockenfonn der Normalverteilung an. Diese Annherung erfolgt umso schneller, je nher p bei 0,5 liegt, d.h. je symmetrischer die
Binomialverteilung ist. Als Faustregel knnen wir festhalten, dass eine Approximation dann zulssig ist, wenn die Varianz der Binomialverteilung grer oder gleich
9 ist, also np(1- p) ~ 9 gilt. Fr Erwartungswert und Varianz der approximterenden Normalverteilung velWenden wir Erwartungswert und Varianz der Binomialverteilung, also /l- np und rI - np(1-p).
Zusammenfassend knnen wir also als ApproxtmaNonsregel fr eine binomialverteilte Zufallsvariable X
X-B(n.p)
np(1-p)~9

X~N(np,np(1-p)

(D3,72)

angeben. Da hier eine Approximation einer diskreten durch eine stetige Verteilung
erfolgt, ist eine sog. Stet1glteitskorwlttur (vgl. Beispiel 11 3-33) erforderlich. Andernfalls wrden wir die Wahrscheinlichkeiten unterschtzen. Bei greren Werten von
np(1-p) machen wir jedoch keinen allzu groen Fehler, wenn wir die Stetigkeitskorwktur unterlassen.

Boloplolll 333

Approximation der Binomialverteilung

In einem Produktionsverfahren genugen Ld.R. 30 % der gefertigten Stucke nicht den Qualititsanforderungen und mussen daher ausgebessert werden oder sind Ausschuss. Wir interessieren uns fOr die Wahrscheinlichkeit, dass sich In einer Produktionsserie von 50 StOck
a) zwischen 14 und 16
b) mehr als 22
fehlerhafte StUcke X befinden. Wir gehen dabei davon aus, dass der Produktionsvorgang
als Bemoulli-Experiment mit p - 0,3 angesehen werden kann.
Da X eine diskrete Zufallsvariable Ist, gilt fOr die unter a) gesuchte Wahrscheinlichkeit
P(14:S: X:S: 16) - P(X:S: 16) - P(X:S: 13). Nach der Formel rur die Binomialverteilung bzw.
den Werten der tabellierten Verteilungsfunktion ergibt sich diese Wahrscheinlichkeit zu

P(14. X. 16) - F,(16)-F,(13) - 0,6839-0,3279 - 0,3560.


Da die Varianz der hier vorliegenden B(50;O,3)-Verteilung gleich 10,5 ist und somit die Bedingungen aus (113: 72) erfOllt sind, kann diese auch durch eine N(IJ.,~-Verteilung mit
J.l- 50 0,3 _ 15 und rI_ 50 -0,3 - 0,7 _ 10,5 approximiert werden. Die gesuchte Wahrscheinlichkeit kann also altemativ auch in guter Nherung aber die approximierende
Normalverteilung bestimmt werden. Die approximative Wahrscheinlichkeit ergibt sich unter
BerOckslchtlgung einer StetIgkeitskorrektur wie folgt:

P(1 X .'6). R (16+0 5)-R (13+0 5) _ .. ('6,5-'5]_ .. ('3,5-'5]


,
,
,
,
-/10,5
-/10,5
= "(0,46)-"(-0,46) = 2 "(0,46) -1 = 2 0,6772 -1 = 0,3544.

288

11 Wahrscheinlichkeitsrechnung
Zum besseren Verstndnis der hier angewendeten Stetigkeitskorrektur (bzw. der Addition
des Wertes 0,5) betrachten wir die nachfolgende Grafik. Sie skizziert grob die Verteilungsfunktion der approximierenden Normalverteilung und abschnittsweise die Verteilungsfunktion der vorliegenden Binomialverteilung. Interessieren wir uns fOr die Wahrscheinlichkeiten P(X S 13) und P(X S 16), so wird schnell klar, dass wir bei einer Approximation ber
die Werte FN(13) und FN(16), die in der Grafik durch Rechtecke gekennzeichnet sind, die
wahren Wahrscheinlichkeiten unterschtzen wrden. Wir verwenden daher FN(13,5) und
FN(16,5), um auf dem "richtigen Wahrscheinlichkeitslevel" zu bleiben bzw. eine bessere
Approximation zu erhalten.

13,5

16,5

I
I
I
I
I
I

P(X';16)

P(XSI3)

I
I
I
I
I
I
I

,
, ;
-- - -- - --- - --- - -- - --- - -- - --- - --- - -t --

"

13 14 15 16 17

Die unter b) zu bestimmende Wahrscheinlichkeit ergibt sich unter Verwendung der tabellierten Binomialverteilung als
P(X> 22) =1-P(X'; 22) = 1-0,9877 = 0,0123.
Analog zu den berlegungen aus obiger Grafik erhalten wir mittels der approximierenden
Normalverteilung den Wert

P(X > 22) =

3A.2.2

1-~ = l_c!>(2~5) = l-c!>(2,32) = 1-0,9898 = 0,0102. 17


P(X~22)

0,5

Hypergeometrische Verteilung

Wie wir unter II 3.1.2.3 gesehen haben, kann bei Vorliegen bestimmter Voraussetzungen eine H(N,M,n)- durch eine B(n,M!N)-Verteilung approximiert werden.
Die Approximation einer H(N,M,n)-Verteilung durch eine Nonnalverteilung mit
M

I!-=n-=np
N

M N-M N-n
N
N
N-l

N-n
N-l

ci' =n-----=np(l-p)--

pex -

pex

pex

17 Hinweis: Auch die Wahrscheinlichkeit


22) liee sich ber
S 22) S 21) =
FN (22,S) - FN (21,S) approximieren. Der echte Zeitvorteil bei der Approximationsrechnung
ergibt sich aber vielmehr in Fllen wie X < 22 oder X > 22.

3. Theoretische Verteilungen

289

ist immer dann zulssig, wenn np(1- p) ", 9 erfllt ist und n im Verhltnis zu N
nicht allzu gro ist. Da der Faktor (N-n)/(N-l) nach Ansicht einiger Autoren bereits
bei n:S; O,lN vernachlssigt werden kann,18 knnen wir folgende allgemeine
Approximationsregel fr eine hypergeometrisch verteilte Zufallsvariable X angeben:
X - R(N,M,n)}
np(1- p)'" 9
n:S;O,lN

--+

X.!. N(np,np(1- p))

(113: 73)

Die rechnerische Bestimmung von Wabrscheinlichkeiten erfolgt ebenfalls unter Bercksichtigung einer Stetlgkettskorrektur.

Beispiel 11 3-34

Approximation der Hypergeometrischen Verteilung

Von den 500 erfolgreichsten Investmentbankern Deutschlands fahren 200 eine bestimmte
Luxusautomarke. Wie gro ist die Wahrscheinlichkeit, dass unter 50 zufllig befragten
Bankern 20 bis 30 ein solches Fahrzeug besitzen?
Da hier die Bedingungen (113: 73) erfull! sind, kann die vorliegende H(500;200;50)- durch
eine N(I1,d')-Verteilung mit den Parametern
200
11=50 500 =500,4=20 und

<J' =500,40,6=12

approximiert werden. Die gesuchte Wahrscheinlichkeit ergibt sich daher als


P(20:S; X:S; 30) = FN(30,5) -FN (19,5) = <I> [30J,i20 )_<I>('9J,i20)
= <1>(3,03) - <1>(-{), 14) = 0,9988 - 0, 4443 = 0,5545.
Bercksichtigen wir den Faktor (N-n)(N-l) bzw. konkret 450/499 dennoch, so erhalten wir
P(20:S; X:S; 30) = F; (305) -F; (195) = <1>[ 30,5 -20 )-<I>[ 19,5-20)
N'
N'
"10,8216
"10,8216
= <1>(3,19) -<I>(-{), 15) = 0,9993 -0,4404 = 0,5589.
Der Fehler, den wir durch Vernachlssigung des Faktors machen, ist also nicht all zu gro.

3.4.2.3

Poissonverteilung

Genau dann, wenn der Parameter .. der Poissonverteilung gegen 00 strebt, geht diese in die Normalverteilung ber. Als Faustregel fr die Approximation gilt
X-Po(") }

""'9

--+

X.!. NC",") .

(113: 74)

Da der Funktionalparameter .. der Poissonverteilung gleichzeitig ihr Erwartungswert und ihre Varianz ist, ist er, wie man sieht, auch Erwartungswert und Varianz
der approximierenden Nonnalverteilung. Die Wahrscbeinlichkeitsberechnung erfolgt auch hier wieder unter Bercksichtigung einer Stettgkeitskorrektur.

18 Vgl. dazu z.B. Bamberg und Baur (2004).

290

11 Wahrscheinlichkeitsrechnung

Beispiel 11 3-35

Approximation der Poissonverteilung

Betrachten wir die Anzahl der pro 15 Minuten an einer Supermarktkasse eintreffenden
Kunden als Po(10)-verteilt, so knnen wir die Wahrscheinlichkeit dafUr, dass innerhalb
einer bestimmten Viertelstunde mindestens 12 Kunden eintreffen, wie folgt approximieren:

P(X~ 12) = l-P(X ~11) = l-FN (II,5) = l-cI>C 1~10) = l-cI>(0,47)


= 1-0,6808 =0,3192
Der exakte Wert lge bei
P(X ~ 12) = l-P(X ~ 11) = l-F.. (II) = l-e-1O

1QV

L- = 1-0,6968 = 0,3032.
11

v=o10!

3. Theoretische Verteilungen

3.4.2.4

291

berblick zur Approximation eindimensionaler Verteilungen

Die folgende Abbildung stellt abschlieend die wichtigsten Beziehungen zwischen


ausgewhlten statistischen Verteilungen in schematisierter Form dar (Approximationsregeln im Fettdruck in weien Ksten).19
H(N,M,n)
n 2: 50, M/N :s 0,1

n:S 0,1N

n:S 0,1N
p =M/N

n 2: 50, p

:s 0,1

A = np

B(n,p)

Po()

np(1-p) 2: 9

np(1-p) 2: 9

n:S 0,1 N

I'

0' =

np
np(1-p)
=

l'=nM/N

0' -

n' M/N . (N-M)/N

x'(w)

l(w)

w>30

w>30
N(ILocr')

, ,
,,, ,,,

Transfonnation:

Transformation:

, ,

N(O;l)

'/w!(w-2)

Abbildung II 29: Approximationsregeln ausgewhlter Verteilungen


19 Einen umfassenden berblick ber die Vielfalt stetiger und diskreter Verteilungen geben
z.B. Evans, M., Hastings, N., Peacock, B. (2000), John50n, N.L., Kotz, S., Balakrishnan, N.

(1993, 1994) und Johnson, N.L., Kotz, S., Kemp, A.W. (1993).

11 Wahrscheinlichkeitsrechnung

292

3,4.2.5

Empirioche V.rteibmgen

Nicht nur theoretischen Verteilungen knnen sich der Nonnalverteilung annhern.


In der Praxis stellt man immer wieder fest, dass auch empirische Hufigkeitsverteilungen eine solche Eigenschaft aufweisen. Es wird sogar gezielt untersucht, ob solche Verteilungen durch Nonnalverteilungen beschrieben werden knnen.
Erwartungswert und Varianz der approximierenden Normalverteilung sind Mittelwert :x und Varianz 5' der empirisch beobachteten Vertellung. 20 Zum Vergleich von
empirischer und approximierender Nonnalverteilung empfiehlt sich folgendes Vorgehen:
1. Bestimmung der nach der Normalverteilung zu erwartenden Werte der Vertei-

lungsfunktion anhand der Klassengrenzen af'


Verteilung:

Ci - 1,2, ... , k) der empirischen

< x S 00 nimmt die Wahrscheinlichkeit an der


Klassenobergrenze den Wert 1 an, d.h. es gilt ~(oo) - 1.

Fr die offene Randklasse a:

2. Errechnung der nach der Nonnalverteilung theoretisch zu erwartenden relativen


Huflgkeiten:
=

~e

cz,(zf+1) - w(zf')

Sofern Schritt 3 mit Hilfe absoluter Hufigkeiten umgesetzt werden soll, knnen
die erwarteten absoluten Hufigkeiten hj = n . fj zustzlich ennittelt werden.
3. Grafische Abbildung

Q. Bel.plelU 3-36

Approximation empirischer Verteilungen

Die mit einer Stichprobe ermiHelte HAufigkaitsverteilung der Lebensdauer eines Gertes
(mit x _ 5 Jahre und S2 _ 2,8508 Jahre~ ist in folgender Tabelle gegeben:

Klasse j
1
2

5
6
7

8
9
10
11

>a
0

:s;

ai

1
2

5
6
7

8
9
10

5
6
7

8
9
10

h,

I,

F,

0,01
0,03
0,06
0,20
0,24
0,22
0,15
0,06
0,02
0,01
0,00

0,01
0,04
0,10
0,30
0,54
0,76
0,91
0,97
0,99
1,00
1,00

3
6
20
2.
22

15
6
2
1
0

20 Genau genommen sind die Parameter der Normalvertellung durch geeignete Schtzfunktionen Cvgl. Abschnitt m 1) aus dem vorliegenden Datenmaterial zu schtzen. Der Fehler,
den wir durch die hier beschriebene Vorgehensweise begehen, ist allerdings in ausreichend groen Stichproben vemachlssigbar gering.

293

3. Theoretische Verteilungen

Die nachfolgende Tabelle enthlt nun fOr jede Klasse die Klassenobergrenze aj , die standardisierte Klassenobergrenze zj und den dazugehrigen Wert ~(zj) der theoretischen
Verteilungsfunktion. Auerdem sind bereits die erwarteten theoretischen relativen Hufigkeiten
aufgenommen und den empirischen relativen Hufigkeiten fj gegeniibergestellt.

ft

2
3
4
5
6
7
8
9
10
11

a',

z',

~(zn

2
3
4
5
6
7
8
9
10

-2,3691
-1,7768
-1,1845
-{),5923
0,0000
0,5923
1,1845
1,7768
2,3691
2,9613

0,0089
0,0378
0,1181
0,2768
0,5000
0,7232
0,8819
0,9622
0,9911
0,9985
1,0000

-+

f',

fj

0,0044
0,0289
0,0803
0,1587
0,2232
0,2232
0,1587
0,0803
0,0289
0,0074
0,0015

0,01
0,03
0,06
0,20
0,24
0,22
0,15
0,06
0,02
0,01
0,00

Wir erkennen an den letzten beiden Spalten der Tabelle und auch an der nachfolgenden
Grafik, dass zwischen empirischer und theoretischer Verteilung eine recht gute bereinstimmung besteht.
VN(X)

0,25

0,15

0,05

10

4.

Aufgaben

Wahrscheinlichkeitsrechnung
AufgabeWl

Ein Unfallzeuge hat beobachtet, wie der Unfallverursacher Fahrerflucht begangen


hat. An das Kennzeichen des Flchtenden kann er sich allerdings nur ungenau erinnern. Er kann lediglich folgende Aussagen machen:

Ortskennbuchstaben: WEN
Buchstabengruppe AU, AV oder AY

Drei Ziffern, von denen die erste die 1 und noch mindestens eine 2 dabei war

Wie viele Kfz-Kennzeichen sind noch mglich bzw. hat die Polizei zu untersuchen,
wenn man dem Zeugen Glauben schenkt? Der Zeuge sieht die auf Grund seiner
Wahrnehmung noch mglichen Kennzeichen als gleichwahrscheinlich an. Berechnen Sie damit die Wahrscheinlichkeit dafr, dass
a) die Buchstabengruppe AY vorliegt!
b) die ersten beiden Ziffern 12 lauten!
c) die letzten beiden Ziffern 29 lauten!
d) die letzte Ziffer 2 ist!
e) unter den drei Ziffern die 0 vorkommt!
f)
die letzte Ziffer grer als die beiden anderen ist!
AufgabeW2
Eine Mnze und ein Wrfel werden gemeinsam geworfen. Wie gro ist die Wahr-

scheinlichkeit fr das Ereignis A, dass dabei Kopf und eine Augenzahl grer als 4
erscheint?
AufgabeW3

Die Ermittlung der Gewinnzahlen beim europischen Roulette stellt einen Zufallsvorgang mit den 37 mglichen und gleichwahrscheinlichen Elementarereignissen
0,1,2,3, ... , 36 dar. Die Zahlen, welche von 0 verschieden sind, sind je zur Hlfte in
rote und schwarze Felder eingeteilt. Berechnen Sie die jeweiligen Gewinnwahrscheinlichkeiten, die fr einen Spieler gelten, der sich fr die alternativen Taktiken
A: Setzt auf "rotll

B: Setzt auf "gerade Zahl" (ohne 0) und "19"


C: Setzt auf "ungerade Zahl" und die Querreihe 34, 35, 36
entscheiden kann.

B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,


DOI 10.1007/978-3-658-06439-6_9, Springer Fachmedien Wiesbaden 2015

11 Wahrscheinlichkeitsrechnung

296

AufgabeW4

Bei einem Automobilhersteller wurden 400 aus der Produktion kommende Pkws in
einer Kontrolle K, auf Lackmngel und einer Kontrolle K, auf Mngel im Innenraum untersucht. 50-mal trat bei K, ein positives Ergebnis auf, 40-mal bei K, und
20-mal bei beiden Kontrollen zugleich.
a) Berechnen Sie unter der Annahme, dass die ermittelten relativen Hufigkeiten
als Wahrscheinlichkeiten fr die Ereignisse A,: "das Ergebnis bei K, ist positiv"
anzusehen sind, die Wahrscheinlichkeiten peA , ) , peA2 ) und peA , n A2 )!
b) Berechnen Sie die Wahrscheinlichkeit dafr, dass ein Pkw bei K, ein positives
Ergebnis liefert und bei K, nicht!
c) Wie wahrscheinlich ist es, dass bei einem kontrollierten Pkw hchstens (tttindestens oder genau) eine der beiden Kontrollen Mngel entdeckt?
d) Wie gro ist die Wahrscheinlichkeit, dass K, Mngel entdeckt, wenn dies bereits
bei K, der Fall ist?
e) Berechnen Sie des Weiteren die Wahrscheinlichkeiten dafr, dass

K, Mngel entdeckt, wenn K, keine entdeckt!


falls genau eine der beiden Kontrollen Mngel fmdet, es sich dabei um K,
handelt!
f) Prfen Sie, ob die beiden Ereignisse A, und A, unabhngig sind!
AufgabeW5

Ein Unternehmen beabsichtigt 2 Stellen neu zu besetzen. Dazu hat es die Mglichkeit unter 4 Bewerbern auszuwhlen. Von diesen werden nun 2 zufallig ausgewhlt, da das Einstellungsverfahren eine nahezu identische Qualiftkation dieser
Bewerber ergeben hat. Tatschlich ist es aber so, dass die Bewerber A und B im
Vergleich zu C und D die Besseren sind.
Wie gro ist nun die Wahrscheinlichkeit dafr, dass die beiden besten Bewerber
"erwischtll werden?
Aufgabew6
In einer Urne befinden sich insgesamt fnf Kugeln, die von 1 bis 5 durchnumme-

riert sind. Die Kugeln 1 bis 3 sind dabei rot gefrbt. Es wird eine Stichprobe von 2
Kugeln entnommen.
a) Gesucht ist nun die Wahrscheinlichkeit P(A) des Ereignisses A: "Es befinden
sich zwei rote Kugeln in der Stichprobe". Gehen Sie dabei einmal von der behandelten Siruation III und einmal von Siruation I aus!
b) Geben Sie unter Beachrung der fr Siruation III geltenden Bedingungen des
Weiteren die Wahrscheinlichkeit dafr an, beim ersten Zug eine rote Kugel Zu
erwischen und die Wahrscheinlichkeit dafr, beim zweiten Zug eine rote Kugel
zu ziehen, wenn der erste Zug bereits eine rote Kugel ergab!

4. Aufgaben

297

AufgabeW7
In einer Schublade befinden sich 5 Kugelschreiber, denen uerlich nicht anzusehen ist, dass 2 von ihnen mit einer schwarzen und 3 mit einer blauen Mine ausge-

stattet sind. Eine Brokraft greift nun drei Tage in Folge in diese Schublade und
nimmt zufallig einen dieser Kugelschreiber zum Gebrauch heraus.
a) Mit welcher Wahrscheinlichkeit wurde am ersten Tag ein Stift mit schwarzer
Mine erwischt?
b) Wie gro ist die Wahrscheinlichkeit, dass an keinem der 3 Tage mit schwarzer
Mine geschrieben wurde? Spielt es dabei fr den Wert der Wahrscheinlichkeit
eine Rolle, ob der Schreiber jeweils am Tagesende wieder in die Schublade gelegt (Ziehen mit Zurcklegen) oder nicht mehr zurckgelegt wurde (Ziehen
ohne Zurcklegen)?
AufgabeW8

2 von 10 hergestellten Porzellanfiguren seien mangelhaft. Es werden nun zufallig


zwei Exemplare entnommen. Bestimmen Sie fr die folgenden Ereignisse sowohl
im Falle mit Zurcklegen als auch im Falle ohne Zurcklegen die Einttittswahrscheinlichkeiten!
A: "Die erste ausgewhlte Porzellanfigur ist mangelhaft."
B: "Die zweite ausgewhlte Porzellanfigur ist mangelhaft."
C: "Mindestens eine der beiden ausgewhlten Figuren ist mangelhaft."
AufgabeW9

Berechnen Sie jeweils folgende Wahrscheinlichkeiten beim zweimaligen Werfen


eines Wrfels:
a) Gegeben seien die Ereignisse A,: "Augensumme mindestens 9" und A,: "Erster
Wurf = 6". Berechnen Sie P(A, I A,)!
b) Wie gro ist die Wahrscheinlichkeit, dass der erste Wrfel eine Sechs zeigt, unter der Bedingung, dass die Augensumme mindestens 9 ist? Versuchen Sie den

Sachverhalt auch grafisch zu veranschaulichen!


AufgabeWIO
In einer Schachtel befinden sich insgesamt 6 Zndkerzen, wovon genau 2 Stck
defekt sind. Es werden zwei Zndkerzen nacheinander entnommen, ohne dass die
erste vor der Entnahme der zweiten wieder in die Schachtel zurckgelegt wird.
Gesucht ist die Wahrscheinlichkeit dafr, dass beim zweiten Zug eine brauchbare
Zndkerze erwischt wird, unter der Voraussetzung, dass bereits die erste gezogene
Zndkerze brauchbar war.
AufgabeWll

Zwei Studenten versuchen unabhngig voneinander eine Kiausuraufgabe zu lsen,


wobei jeder von ihnen mit einer Lsungswahrscheinlichkeit von 0,70 arbeitet. Wie
gro ist die Wahrscheinlichkeit, dass wenigstens einer der Studenten die korrekte
Lsung findet?

298

11 Wahrscheinlichkeitsrechnung
AufgabeW12

Zu Beginn seines Studiums rechnet ein Student damit, dieses mit einer (subjektiven) Wabrscheinlichkeit von 60 % abzuschlieen. Mit erfolgreich abgeschlossenem
Studium betrgt die Wahrscheinlichkeit, die gewnschte Position zu erhalten, 70 %.
Ohne Studienabschluss besetzt er diese nur mit 20 % Wahrscheinlichkeit.
Wie gro ist die Wahrscheinlichkeit, dass der Student die Position erhalten wird?
AufgabeW13

Ein Student bewirbt sich vor Abschluss seines Studiums bei zwei Finnen X und Y.
Er rechnet mit einer Wahrscheinlichkeit von 0,4 bei X und mit einer Wahrscheinlichkeit von 0,70 bei Y eingestellt zu werden. Zudem geht er mit einer Wahrscheinlichkeit von 0,20 davon aus, von beiden Finnen angenommen Zu werden.
Wie wahrscheinlich ist es nun, dass der besagte Student von mindestens einer der

beiden Finnen eine Zusage erhlt?


AufgabeW14

Ein Radargert auf einer Autobahn wird innerhalb einer Stunde mit einer Wahrscheinlichkeit von 90 % von mindestens 500 Fahrzeugen passiert und mit einer
Wahrscheinlichkeit von 50 % von hchstens 1000 Fabrzeugen.
Wie gro ist die Wahrscheinlichkeit, dass innerhalb der nchsten Stunde 500, 501,
502, ... oder 1000 Fahrzeuge gezhlt werden knnen?
AufgabeW15

Sie fragen in der Mensa zufllig drei Kommilitonen nach ihrem Geburtsdatum. Wie
gro ist die Wahrscheinlichkeit dafr, dass
a) alle drei am gleichen Wochentag geboren sind?
b) alle drei an verschiedenen Wochentagen geboren sind?
c) alle drei an einem Sonntag geboren sind?
d) genau zwei am gleichen Wochentag geboren sind?
AufgabeW16

Angenommen es gbe weltweit nur drei Fluggesellschaften A, Bund C. 30 % aller


Flugreisen werden bei Gesellschaft A, 20 % bei Bund 50 % bei C gebucht. Eine
Analyse von Kundenbeschwerden ergab, dass bei A 0,1 % des Gepcks bei Flgen
an den falschen Zielflughafen geschickt wird. Bei B sind dies 0,5 % und bei C genau 0,12 %.
a) Mit welcher Wahrscheinlichkeit landet das Gepck eines Passagiers, der zufallig
ausgewhlt wird, nicht an seinem Zielflughafen?
b) Ein Passagier wartet an seinem Zielflughafen vergeblich auf seinen Koffer. Dieser scheint wohl verloren gegangen oder fehlgeleitet worden zu sein. Mit welcher Wahrscheinlichkeit ist dieser Passagier mit Fluggesellschaft A geflogen?
c) Prfen Sie, ob die beiden Ereignisse E,: "Ein Passagier fliegt mit Gesellschaft B"
und E,: "Sein Gepck wird fehlgeleitet" voneinander abhngig sind!

4. Aufgaben

299

AufgabeW17
In einer Firma wird ein Produkt in zwei unabhngig voneinander und nacheinan-

der ablaufenden Arbeitsgngen hergestellt. Es gilt als Ausschuss, wenn bei einem
der beiden Arbeitsgnge ein Fehler passiert. Die Wahrscheinlichkeit fr das Entstehen eines Ausschussstcks liegt nach Erfahrungswerten bei 0,06. Dabei geschieht
mit einer Wahrscheinlichkeit von 0,04 ein Fehler im ersten Arbeitsgang.
Wie gro ist nun die Wahrscheinlichkeit fr einen Fehler im zweiten Arbeitsgang?
AufgabeW18
Um teuere Rckrufaktionen von produzierten Laptops zu venneiden, werden von
einem Hersteller eingehende Akkus, welche von Zulieferem hergestellt werden, ei-

nem zweislufigen Inspektionsplan unterzogen.


Es werden 10 Akkus aus einer eingegangenen Lieferung entnommen und auf Funktionsfahigkeit getestet. Sind alle 10 Akkus in Ordnung (Ereignis A), wird die liefe-

rung angenommen. Sind zwei oder mehr defekt (Ereignis A), wird die gesamte lieferung zurckgeschickt. Ist jedoch nur ein Stck fehlerhaft (Ereignis A,), wird eine
weitere Stichprobe von 20 Stck entnommen. Nur dann, wenn in dieser zweiten
Stichprobe alle Akkus einwandfrei sind, wird die Lieferung behalten, andernfalls
zurckgeschickt.
Wie gro ist die Wahrscheinlichkeit, dass eine Lieferung angenommen wird (Ereignis B), in welcher 30% der Akkus fehlerhaft sind? Gehen Sie dabei der Einfachheit
halber davon aus, dass die Stichproben mit Zurcklegen durchgefhrt werden. In
der Praxis der statistischen Qualittskontrolle werden Stichproben narrlich ohne
Zurcklegen gezogen, so dass die Wahrscheinlichkeit, einen defekten Akku zu finden, davon abhngig ist, ob der vorher entnommene Akku defekt war oder nicht.
AufgabeW19

Eine Fuballmannschaft bestehe aus 25 Spielern. Davon nehmen in jeder Begegnung nur 11 aktiv am Spiel teil. Die verbleibenden 14 Spieler dienen als Reserve.
Die traditionelle Aufstellung dieser Mannschaft sei:
Sturrnkette

Mittelfeldkette
Abwehrkette
Torwart

Vor einem wichtigen Entscheidungsspiel stellt sich die Situation der Mannschaft
nun wie folgt dar:

Genau 3 der 25 Spieler sind als Torhter spezialisiert und knnen nicht als
Feldspieler eingesetzt werden. Alle anderen Spieler knnen nicht im Tor, sondern nur auf dem Feld spielen.

Verletzungsbedingt knnen 3 Feldspieler nicht am Entscheidungsspiel teilnehmen.

Ein weiterer Feldspieler hat im vorhergehenden Spiel eine rote Karte kassiert,
sodass er ebenfalls ausfallt.

11 Wahrscheinlichkeitsrechnung

300

Es stehen damit fr das Entscheidungsspiel noch 5 Strmer, sieben Mittelfeldspieler


und x Verteidiger zur Verfgung.
a) Ermitteln Sie zunchst die Anzahl x der Verteidiger, die noch verfgbar sind!
b) Wie viele Aufstellungen sind beim Spiel prinzipiell mglich? Beachten Sie dabei,
dass die Spieler nur entsprechend ihrer Spezialisierung eingesetzt werden knnen. Mittelfeldspieler knnen also z.B. nur im Mittelfeld und nicht als Strmer
spielen. Welcher Mittelfeldspieler an welcher Position im Mittelfeld spielt ist jedoch unerheblich.
AufgabeW20

Gegeben seien die Wahrscheinlichkeiten P(A) - 0,6, PCB) - 0,2 und P(A n B) - O,l.
Berechnen Sie mittels dieser Werte folgende Wahrscheinlichkeiten zahlenmig:
a) P(A u B)
d) P(A I B)
f) P( n B)
b) P(A u B)

e) P(B I A)

g) P( u B)

c) P(AnB)
AufgabeW21

Beim Bingo drfen Sie 10 verschiedene Zahlen zwischen 1 und 100 whlen. Dann
werden 60 Zahlen zwischen 1 und 100 gezogen.
Wie gro ist die Wahrscheinlichkeit, dass dabei alle Ihre gewhlten Zahlen dabei
sind und Sie somit gewonnen haben?
AufgabeW22

Ein Unternehmen erhlt regelmig eine Lieferung von 50 Lithium-Ionen-Akkus.


Die Annahmekontrolle geschieht nach folgendem Inspektionsplan:
Es wird ein Akku entnommen und auf Mngel untersucht. Ist dieser in Ordnung,

wird ein zweiter Akku ohne Zurcklegen des vorher geprften Akkus entnommen.
Dieser Vorgang wird maximal 7-mal durchgefhrt. Sobald ein Akku als defekt eingestuft wird, weist man die gesamte Lieferung zurck. Sind die ersten 7 Akkus
allerdings einwandfrei, wird die Lieferung angenommen (Ereignis X).
Wie gro ist die Annahmewahrscheinlichkeit P(X) fr eine Lieferung, wenn 0, 5
oder 10 Stcke der Sendung schadhaft sind?
AufgabeW23

Wie gro ist die Wahrscheinlichkeit, dass in einer Familie mit 4 Kindern
a) alle 4 Jungen sind,
b) genau 2 Jungen und 2 Mdchen sind,
c) das lteste Kind ein Mdchen und die folgenden Jungen sind?
Gehen Sie dabei davon aus, dass das Auftreten eines Jungen oder eines Mdchens
gleich wahrscheinlich ist!

4. Aufgaben

301

AufgabeW24

Das sog. Sterling-Silber ist eine Legierung aus Kupfer und Silber. Beim Legierungsvorgang tritt in einer Silbennanufaktur mit einer Wahrscheinlichkeit von P(L)=O,OI
ein Fehler auf. Verunreinigungen im Silber bzw. Kupfer kommen mit peS) = 0,02
bzw. P(K) = 0,03 vor. Das entstehende Sterling-Silber gilt nur dann als einwandfrei,
wenn die verwendeten Materialien makellos sind und es im Produktionsverfahren
Zu keinen Fehlern kommt.
Berechnen Sie unter der Annahme, dass sich die mglicherweise auftretenden

Mngel bzw. produktionsfehler nicht gegenseitig beeinflussen, die Wahrscheinlichkeit fr die Produktion von hochwertigem Sterling-Silber!
AufgabeW25

Ein Neuling beim Pferderennen, der ber die Strken und Schwchen der einzelnen Pferde keine Kennmis hat, versucht sein Glck durch zuflliges Tippen bei
einem Rennen, an dem 10 Pferde teilnehmen.

a) Wie gro ist jeweils die Wabrscheinlichkeit, dass er die folgenden Ereignisse A,
B, C richtig tippt?
A: "siegendes Pferd"
B: "die ersten drei Pferde in der Reihenfolge ihres Einlaufes"
C: "die ersten drei Pferde ohne Bercksichtigung der Einlaufreihenfolge"
b) Angenommen, der Neuling hat einen todsicheren Wetttipp erhalten, der ihn
ber den Erstplatzierten des Rennens infonniert. Kommt es dadurch zu einer

nderung der Wabrscheinlichkeiten obiger Ereignisse?


AufgabeW26

Gegeben seien drei Urnen U, Ci = 1,2,3). Jede Urne enthlt insgesamt 10 Kugeln.
Der Wert i gibt dabei jeweils an, wie viele rote Kugeln sich in dieser Urne befinden. Die restlichen Kugeln sind schwarz.
Es wird nun gewrfelt, wobei der Ausgang des Wurfs darber entscheidet, aus
welcher Urne eine einzige Kugel entnommen wird. Wrfelt man 1 oder 2, so wird
die Kugel aus der Urne U, gezogen, bei 3 oder 4 aus der Urne U, und bei 5 oder 6
aus der Urne U3 "

Wie gro ist die Wahrscheinlichkeit, dass die eine gezogene Kugel rot ist?

302

11 Wahrscheinlichkeitsrechnung

Zufallsvariablen
AufgabeZl

Eine Mnze wird dreimal geworfen. Geben Sie fr die Zufallsvariable X: "Anzabl
von Kopf" sowohl die Wahrscheinlichkeits- als auch die Verteilungsfunktion in
Tabellenform an!
AufgabeZ2

Nehmen Sie an, Sie schreiben zusammen mit Ihrem Professor ein StatistikLehrbuch. Sie wollen eine bungsaufgabe stellen, in der die zuknftigen Leser prfen sollen, ob es sich bei der gegebenen Funktion um eine Dichtefunktion handelt.
Sie beabsichtigen, dass es sich bei der Funktion tatschlich um eine Dichtefunktion
handelt und diese im Bereich der mglichen Werte die Gestalt einer fallenden Gerade besitzt, welche bei x - 6 eine Nullstelle aufweist. Die Zufallsvariable X, die
durch diese Dichtefunktion beschrieben wird, soll nur Werte im Intervall [0;6] annehmen knnen. Welche Dichtefunktion liefern Sie Ihrem Professor?
AufgabeZ3

Eine diskrete Zufallsvariable X habe die folgende Wabrscheinlichkeitsfunktion:


0'2 fr x=1
fex) = 0~8 frx=2
{
sonst.

Berechnen Sie den Erwartungswert von X!


AufgabeZ4
Begrnden Sie, warum fr den Erwartungswert einer konstanten Gre a stets der

Zusammenhang E(a) - a gilt!


AufgabeZ5
Bestimmen Sie nicht durch Berechnung, sondern rein durch Argumentation, den

Erwartungswert einer Zufallsvariablen X mit folgender Wahrscheinlichkeitsfunktion:


fex)

4
0,2

0,6

0,2

AufgabeZ6

Ein Hndler hat zwei gleichartige High-End-Laptops auf Lager. Er mchte beide
innerhalb einer Periode zu je 1.500 Euro verkaufen. Dem Hndler sind folgende
verkaufswahrscheinlichkeiten bekannt: Beide Gerte werden mit 70 %, nur ein
Gert mit 20 % und kein Gert mit 10 % Wahrscheinlichkeit innerhalb der Periode
verkauft. Wie hoch ist damit in der Periode der erwartete Umsatz mit den Laptops?

4. Aufgaben

303

AufgabeZ7
Ein Spekulant kauft 1.000 US-Dollar fr 800 Euro, beabsichtigt diese aber nach einem Monat wieder zu verkaufen. Zum Verkaufszeitpunkt wird der Dollar-Kurs wie
folgt eingeschtzt:
Wert des Dollar in Euro

0,50

0,70

0,80

1,00

1,20

Wahrscheinlichkeit

10%

10%

40%

20%

20%

Wie hoch ist der erwartete Gewinn bzw. Verlust aus der Spekulation? Berechnen
Sie ein geeignetes Ma zur Messung des Risikos dieser Speakulation!
AufgabeZ8
in einer Studiengruppe befmden sich 6 sehr gute und 6 mittelmige Studenten.
1hr Professor bentigt nun einen dieser Studenten fr die Durchfhrung eines Mathematiktutoriums. Da er aber ein schlechtes Personengedchtnis hat, kann er nicht
unterscheiden, welche die 6 ausgezeichneten Studenten sind. Fr die Auswahl eines Kandidaten geht er nun folgendermaen vor: Er greift zufallig einen Studenten
heraus und stellt ihm eine Rechenaufgabe, von der er wei, dass diese nur von den
sehr guten Studenten gelst werden kann. Kann der befragte Student keine korrekte Antwort geben, whlt der Professor zufallig einen weiteren Studenten aus und
stellt eine neue Aufgabe. Dies macht er so lange, bis ein Student die gestellte Aufgabe lsen kann. Dieser wird dann (seine Bereitschaft vorausgesetzt) Tutor.
Die Zufallsvariable X stehe nun fr die Anzahl der befragten Studenten aus der
Studiengruppe. Berechnen Sie E(X)! Was sagt E(X) hier aus?
AufgabeZ9
Es sei folgende Funktion fex) der stetigen Zufallsvariable X gegeben:
f(x) = {

2X

O~x~l

sonst

a) Zeigen Sie, dass fex) eine Dichtefunktion ist!


b) Bestimmen Sie die Verteilungsfunktion F(x)!
c) Wie gro sind die Wahrscheinlichkeiten P(O, 3 ~ X ~ 0,7) und P(X > 0,8)?
AufgabeZlO
Berechnen Sie Erwartungswert und Varianz einer stetigen Zufallsvariablen X, die im
intervall 0 < x < 3 gleichmig mit der konstanten Dichte von 1/3 verteilt ist!
Bestimmen Sie auerdem die Wahrscheinlichkeiten P(X = 1), P(X ~ 2), P(X < 2)
sowie PO< X < 2) und P(l ~ X < 2)!
AufgabeZll
Nehmen Sie an, eine Zufallsvariable X besitzt den Erwartungswert l1x - 8 und die
Varianz cs~ - 4. Schtzen Sie ab, wie gro die Wahrscheinlichkeiten
a) p(4 < X < 12)
b) p(X ~ 2 u X:<: 14)
mindestens bzw. hchstens sind!

11 Wahrscheinlichkeitsrechnung

304

AufgabeZ12
Eine diskrete Zufallsvariable Y mit den drei Realisationen 0, 1 und 2 besitzt die folgende Wahrscheinlichkeitsfunktion:
f(y) = {0,25Ja _2-

y 1
-

fr y = 0,1,2
sonst

a) Welchen Wert muss die Konstante a annehmen?


b) Berechnen Sie E(Y) und Var(Y)!
c) Wie gro sind die Wabrscheinlichkeiten P(Y > 1), P(Y '" 1) und P(O";; Y < 5)?

AufgabeZB
Ein idealer Wrfel wird n-mal geworfen. Es sei X: "Augensumme" und Y: "Augenprodukt" . Berechnen Sie E(X) und E(Y)!
AufgabeZ14
Drei Anleger A, Bund C wollen sich ein Portfolio aus Aktien der Finnen G und H
zusammenstellen. ber die Rendite X von Finna G und Y von H ist bekannt, dass
E(X) - 0,07
E(Y) - 0,12

Var(X) - 0,16
Var(Y) - 0,25

Beantworten Sie dazu folgende Fragen:


a) Welchen Wert besitzt die Kovarianz der Aktienrenditen?
b) Anleger A entschliet sich sein gesamtes Vermgen in Aktie G zu investieren,
da diese (gemessen an der Varianz) ein geringeres Risiko hat. Anleger B entscheidet sich hingegen zu einer 50:50-Investition. Welcher der beiden Anleger
hat nun die Anlageform mit dem geringeren Risiko gewhlt?
c) Anleger C behauptet, er kenne eine optimale Strategie im Sinne eines minimalen Risikos. In welchen Relationen wird er in die Aktien G und Hinvestieren?

AufgabeZ15
Fr die Aktien zweier Unternehmen A und B ergeben sich zu verschiedenen Situa-

tionen 1, 2 und 3, die mit gewissen Wahrscheinlichkeiten auftreten knnen, folgende Renditen:
Situation i

Wahrscheinlichkeit p.

1/3

2
3

Rendite

fi

Rendite

0,385

--{),225

1/3

0,140

0,020

1/3

--{),105

0,265

riB

Untersuchen Sie die Korrelation der Renditen von A und B und geben Sie an, wie
hoch die erwartete Rendite und die Standardabweichung eines Portfolios ist, welches je zu 50 % in A und B investiert!

4. Aufgaben

305

AufgabeZ16
Aus einer Gruppe von berufsttigen Ehepaaren, die jeweils in einem Haushalt zusammenleben, wird eines zufllig ausgewhlt. Es ist bekannt, dass das erwartete
Einkommen des Mannes bei einer Varianz von Var(X) = 300 ' bei E(X) = 3.000
liegt. Fr die Frau gilt E(Y) = 2.500 und Var(Y) = 200 '. Ermitteln Sie unter der
Annahme eines Korrelationskoeffizienten von 0,50 den Erwartungswert und die
Varianz des Haushaltseinkommens Z!
AufgabeZ17
Bei einem Wettbewerb werden die besten Doktorarbeiten Deutschlands von einer
Jury hinsichtlich formaler Korrektheit X in zwei und bezglich der praktischen Verwendbarkeit Y in drei Gteklassen eingeteilt. Ein Doktorand rechnet mit folgenden
Wahrscheinlichkeiten, dass seine Arbeit bezglich der beiden Merkmale X und Y in
die einzelnen Gteklassen fallt:

?
0,15

0,20
0,10

0,05
0,05

x
1
2

Ermitteln und interpretieren Sie


a) den fehlenden Tabellenwert im Hinblick darauf, wie der Doktorand seine Leistung einschtzt,
b) fy (1) ,
feX = 21 Y = 3),
d) E(X) , E(Y), Var(X) und Var(Z),
c)

e) E(X 11) und Var(X 11) sowie


Pxy!
Prfen Sie des Weiteren, ob

f)

g) X und Y voneinander stochastisch unabhngig sind!

AugabeZ18
Eine Aktie der AW-Clan AG werfe einen mittleren Jahresgewinn von I1G = 10 ab.
Die Unsicherheit im tatschlichen Gewinn kommt in seiner Standardabweichung
von ClG = 30 zum Ausdruck.
Berechnen Sie Erwartungswert und Standardabweichung des Gewinns eines Portfolios P, das sich

a) aus drei Aktien des AW-Clans


b) aus einer Aktie des AW-Clans und zwei weiteren Gesellschaften, die jeweils
denselben Erwartungswert und dieselbe Standardabweichung aufweisen,
zusammensetzt! Unterstellen Sie bei b), dass sich die Gewinne der einzelnen Ge-

sellschaften vllig unabhngig voneinander entwickeln!

11 Wahrscheinlichkeitsrechnung

306

Verteilungen
Aufgabe VI
20 Personen gleichen Alters und gleicher physischer Konstitution, die bei einer
Versicherungsgesellschaft Lebensversicherungsvertrge abgeschlossen haben, sind
an einer schweren Grippe erkrankt. Nach Meinung der rzte betrgt die Wahrscheinlichkeit fr jeden der Erkrankten, das nchste Jahr nicht zu berleben, 10 %.
Wie wahrscheinlich ist es, dass nach einern Jahr wenigstens a) 18 bzw. b) 1 Erkrankte(r) noch am Leben sind (ist)? Bestimmen Sie die gesuchten Wahrscheinlichkeiten ohne Nutzung der Verteilungstabellen aus dem Anhang!
AufgabeV2

Ein Diktator hat eine Liste mit 12 Offizieren einer Elitetruppe vor sich. Der Diktator
wrfelt 6 der 12 Offiziere aus. Diese 6 bilden seine Leibwache. Von seinem Geheimdienst erfhrt der Diktator, dass unter den 12 Offizieren 2 Attentter sind.
Wie wahrscheinlich ist a) kein Attentter bzw. b) mindestens ein Attentter unter
der Leibwache?
AufgabeV3

Nehmen Sie an, in einern Wahlkreis beabsichtigen 45 % der Wahlberechtigten eine


Partei B zu whlen, die sich dafr einsetzt, dass Bayrisch als eigenstndige Fremdsprache anerkannt wird. Wie gro ist nherungsweise die Wahrscheinlichkeit, dass
die Whler dieser Partei in einer Zufallsstichprobe von n = 10 (ohne Zurcklegen)
die Mehrheit (mehr als 50 % der Stimmen) haben?
Aufgabev4

Eine Schachtel enthlt 500 elektrische Bauteile, von denen 100 defekt sind. Wie
gro ist nherungsweise die Wahrscheinlichkeit, dass hchstens 2 von 10 (ohne
Zurcklegen) entnommenen Bauteilen defekt sind? Bestimmen Sie die gesuchten
Wahrscheinlichkeiten ohne Nutzung der Verteilungstabellen aus dem Anhang!
AufgabeVS
In einern Telefonnetz mit 10.000 Telefonanschlssen tritt mit einer Wahrscheinlichkeit von 0,0005 pro Tag pro Anschluss eine Funktionsstrung auf. Strungen treten
dabei unabhngig voneinander auf. Die Wahrscheinlichkeit, dass pro Tag und Anschluss mehr als eine Strung auftritt, kann vernachlssigt werden.
Wie gro ist die Wahrscheinlichkeit, dass genau 5 (a), mindestens 10 (b) und
hchstens 20 (c) Strungen auftreten?
Aufgabev6
In einern Callcenter gehen im Durchschnitt pro Minute 3 Anrufe ein. Wie gro ist
die Wahrscheinlichkeit, dass die Callcenterrnitarbeiter in einer bestintrnten Minute
"arbeitslos" sind?

4. Aufgaben

307

AufgabeV7
Von 10.000 Einwohnern einer Stadt sind nur SOO daran interessiert, dass der aktuelle Brgermeister irn Amt bleibt. Dieser Brgermeister mchte nun vor der Wahl mit
SO rein zufllig ausgewhlten Brgern sprechen, um sich einen Eindruck von seinen Wiederwahlchancen zu machen.

Wie gro ist nherungsweise die Wahrscheinlichkeit, dass ihm von mindestens 7,
jedoch hchstens 10 Brgern eine positive Resonanz gegeben wird?
AufgabeV8
Nach Herstellerangaben liegt die durchschnittliche Lebensdauer einer Energiesparlampe bei 4.000 Stunden. Wie gro ist die Wahrscheinlichkeit dafr, dass die Glhbirne weniger als halb so lange (a) oder mehr als doppelt so lange (b) brennt,
wenn als geeignetes Modell fr die Verteilung der Lebensdauer X die Exponentialverteilung verwendet wird? Skizzieren Sie die gesuchten Wahrscheinlichkeiten
unter Verwendung dieser Dichtefunktion!
AufgabeV9
Die Zufallsvariable X beschreibe die Wartezeit eines Kunden an einem Bankschalter. Zeigen Sie allgemein, dass die Wahrscheinlichkeit, endlich an die Reihe zu
kommen, mit zunehmender Wartezeit w nicht zunimmt, wenn die Zeitdauer einer
Exponentialverteilung gehorcht!
AufgabeVIO
Berechnen Sie fr eine standardnormalverteilte Zufallsvariable Z die wahrscheinlichkeiten p(O S Z S 1,6), p(-1,6 < Z < 0), p(Z > 1,6) und P(-2,S S Z S 2,S)!
Erklren Sie, warum es hier keine Rolle spielt bei der Berechnung der Wahrscheinlichkeiten zwischen "<" und I1S11 bzw. ">" und rl~" Zu differenzieren!

AufgabeVll
Die Brenndauer von Glhbirnen einer speziellen Marke sei normalverteilt mit dem
Mittelwert 900 Stunden und der Standardabweichung 100 Stunden. Wie gro ist die
Wahrscheinlichkeit, dass eine zufllig aus der Produktion entnommene Glhbirne
a) mindestens 1.200 Stunden
b) hchstens 6so Stunden
c) zwischen 7S0 und 1.0S0 Stunden
brennt?
AufgabeV12
Das Gewicht (in Gramm) von Zuckerpaketen sei N(1.000; 2S)-verteilt. Ennitteln Sie
a) das Gewicht, das ein zufllig entnommenes Zuckerpaket mit einer Wahrscheittlichkeit von 90 % hchstens wiegt,
b) das Gewicht, das ein zufllig entnommenes Zuckerpaket mit einer Wahrscheittlichkeit von 9S % mindestens wiegt,
c) den zum Erwartungswert symmetrischen Bereich, der das Gewicht eines zufllig entnommenen Pakets mit einer Wahrscheinlichkeit von 98 % enthlt.

308

11 Wahrscheinlichkeitsrechnung

AufgabeV13
Eine Molkerei produziert unter anderem Butterriegel, deren Gewichte als normalverteilt angesehen werden. Aus Erfahrung ist nun bekannt, dass die Wahrscheinlichkeit dafr, dass ein zufllig entnommener Riegel maximal 1 g vom Sollwert
!1 = 250 g abweicht, bei 98 % liegt. Welche Streuung CJ implizieren diese Erfahrungswerte?

AufgabeV14
a) Bestimmen Sie das O,90-Fraktll und das O,10-Fraktil einer x'(10)-Verteilung!
b) Bestimmen Sie das O,99-Fraktil und das O,Ol-Fraktil einer t(20)-Verteilung!
c) Bestimmen Sie das 0,95- und das O,01-Fraktll einer Fe8; 10)-Verteilung!
AufgabeV15
An einer Bushaltestelle in Frankfurt fhrt exakt alle 10 Minuten ein Bus ab. Wie
gro ist die Wahrscheinlichkeit, dass ein zufllig eintreffender Fahrgast lnger als 5
Minuten warten muss?

AufgabeV16
Eine Brauerei fllt Weibier in extra groe Flaschen ab. Umfangreiche Messungen
haben ergeben, dass der Flascheninhalt mit !1 = 751,5 mI und CJ = 0,6 mI normalverteilt ist. Der Mindestinhalt einer Flasche betrgt 750 m1.
a) Wie gro ist die Wahrscheinlichkeit, dass eine Flasche unterfllt ist?
b) Wie gro ist die Wahrscheinlichkeit, dass in einer Flasche zwischen 750 und
753 ml enthalten sind?
c) Wie gro ist bei geeigneter Unabhngigkeitsannahme die Wahrscheinlichkeit,
dass beim Kauf von sechs Flaschen insgesamt eine Unterfllung vorliegt?
d) Die Abfllanlage war bisher auf 751,5 mI justiert. Wie ist die Maschine bei CJ =
0,6 mI einzustellen, wenn hchstens 2,5 % der Flaschen unterfllt sein sollen?
AufgabeV17
Von den Mitarbeitern einer Bankfiliale werden im Jahresdurchschnitt 1.000.000
berweisungen verbucht. Die Fehlerquote bei der Archivierung der berweisungsbelege liege bei 0,5 %. Fr diese Filiale werden im Rahmen der Innenrevision nun
zufllig 3.000 Belege berprft. Ein Fehleranteil von 1 % wird dabei als tolerierbar
angesehen. Andernfalls hat sich der Filialdirektor zu verantworten. Wie wahrscheinlich sind nun negative Folgen fr den Filialdirektor?
AufgabeV18
Eine Maschine fllt Mrchen in Blechdosen ab. Die Gewichte des Inhalts und der
leeren Dosen seien unabhngig normalverteilt mit dem Mittelwert 750 g bzw.
50 g und der Varianz 100 g' bzw. 5 g'. Genau 1.000 dieser befllten Dosen werden
nun rein zufllig in einen Lieferwagen verladen.
a) Wie wahrscheinlich ist es, dass eine einzelne Dose weniger als 790 g wiegt?
b) Wie gro ist die Wahrscheinlichkeit, dass die in den Lieferwagen verladenen
Dosen ein Gewicht von 801 kg berschreiten?

III INDUKTIVE STATISTIK

Hufig stellt sich in der Statistik die Aufgabe, Informationen ber bestimmte Eigenschaften einer statistischen Grundgesamtheit zu beschaffen (z.B. Durchschnittseinkommen bayerischer Studenten oder der Zusammenhang zwischen Arbeitseinkommen und Bildung bei Erwerbspersonen). Da in vielen Anwendungsfllen eine
vollstndige Datenerhebung (Einbeziehung smtlicher Elemente der Grundgesamtheit) aber unmglich oder nicht zweckmig (zu kosten- und zeitintensiv) ist,
werden durch die in einer Teilerhebung (Stichprobe; Teilmenge der Grundgesamtheit) gewonnenen Daten Rckschlsse auf die Gesamtsituation gezogen. So knnen beispielsweise Mittel- oder Anteilswerte in der Grundgesamtheit aufgrund der
Ergebnisse der Teilerhebung mehr oder weniger genau geschtzt werden.
Zur Schtzung knnen sog. Punktschtzverfahren verwendet werden, die einen
einzigen Schtzwert liefern. Es kann auerdem ein Intervallschtzverfahren herangezogen werden. Hier wird als Schtzergebnis ein Intervall bestimmt, in das
der unbekannte Parameter mit einer vorgegebenen hohen Wahrscheinlichkeit fllt.
Soll eine bezglich der Grundgesamtheit bestehende Hypothese an hand der
Stichprobenergebnisse auf ihre Richtigkeit berprft werden, so geschieht dies mit
sog. Hypothesentests. Sie sind so konstruiert, dass eine korrekte Hypothese nur
mit einer geringen Wahrscheinlichkeit abgelehnt wird.

Punktschtzung

Hufig ist es wOnschenswert, einen unbekannten charakteristischen Wert der Verteilung


einer Grundgesamtheit mglichst genau zu kennen. So kann sich z.B. eine Partei fOr
ihren Stimmanteil bei der nchsten Wahl (Anteilswert) oder eine Versicherungsgesellschaft fr die Lebenserwartung von Rauchern (Mittelwert) interessieren. Wird bei solchen
Fragestellungen fOr einen unbekannten Parameter der Verteilung der Grundgesamtheit
aufgrund des Ergebnisses einer Stichprobe ein einziger numerischer Schtzwert festgelegt, sprechen wir von einer Punktschtzung. Die Stichprobenergebnisse werden dabei in
sog. Schtzfunktionen verarbeitet, die dem Stichprobendatenmaterial einen charakteristischen Zahlenwert zuordnen. Dieser Zahlenwert dient dann als Schtzung.

1.1 Stichproben
Allgemein sind bei Teilerhebungen zwei Arten von Auswahlverfahren Zu unterscheiden. Dies sind Zufallsstichproben und Verfahren der bewussten Auswahl.
Bei Zufallsstichproben besitzen smtliche Elemente der Grundgesamtheit bestimmte, von Null verschiedene Wahrscheinlichkeiten, in die Stichprobe zu gelangen. Das einfachste Verfahren dieser Gruppe ist die reine (uneingeschrnkte) Zujallsauswahl, bei der jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit besitzt, gezogen zu werden.

Eine Zufallsstichprobe kann durch ein Urnenmodell vollstndig beschrieben werden. Die Urne enthlt dabei genau N Kugeln (- Aozahl statistischer Einheiten in
der GrundgesamtheiO, die nummeriert sind und von denen jede genau einer statis-

tischen Einheit zugeordnet ist. Fr eine reine Zufallsstichprobe vom Umfang n ziehen wir n Kugeln, notieren die Nummern und haben damit die Auswahl der statistischen Einheiten vorgenommen. Das Ziehen kann dabei mit oder ohoe Zurcklegen vorgenommen werden.
Untersuchen wir alle Objekte der Grundgesamtheit hinsichtlich eines Merktnals X,
so knnen die festgestellten Merktnalsausprgungen als Realisationen einer Zufallsvariablen X betrachtet werden. Die sich daraus ergebende Verteilung von X wird
auch als Verteilung der Grundgesamtheit bezglich des Merktnals X bezeichoet.
Daraus knnen schlielich Mittelwert und Varianz der Grundgesamtheit (bezglich
des Merktnals X) bestimmt werden. In der induktiven Statistik gehen wir nun aber
gerade einen anderen Weg. Aus einer Stichprobenerhebung sollen Verteilung, Mittelwert, Varianz und andere Charakteristika der Grundgesamtheit geschtzt werden.
Es wird daher nach bestimmten Ziehungsvorschriften eine bestimmte Aozahl von
B. Auer, H. Rottmann, Statistik und konometrie fr Wirtschaftswissenschaftler,
DOI 10.1007/978-3-658-06439-6_10, Springer Fachmedien Wiesbaden 2015

111 Induktive Statistik

312

Objekten aus der Grundgesamtheit ausgewhlt, wobei bei jedem Objekt die Ausprgung des Merktnals X registriert wird. Die Anzahl n der so durchgefhrten Beobachtungsvorgnge wird als Sticbprobenum[ang bezeichnet. Jeden Beobachtungswert X, knnen wir als Realisierung einer Zufallsvariablen, der sog. i-ten Sticbprobenvariablen X, mit i = 1,2, ... ,n, ansehen.
Alle Stichprobenvariablen X, sind unabbngig und bezglich der Grundgesamtheit
identlscb verteilt (d.h. genau wie X), l wenn die Entnahme der Objekte aus der
Grundgesamtheit als reine Zufallsauswahl und unabhngig voneinander erfolgt.
Beim derartigen Ziehen eines Objekts aus der Grundgesamtheit handelt es sich
beim interessierenden Merktnal also um eine Zufallsvariable, die genauso verteilt ist
wie die Grundgesamtheit selbst. Wir bezeichnen eine solche unabhngige Zufallsauswahl als einfache Stichprobe vom Umfang n. Das Sticbprobenergebnls ergibt
sich durch die Realisierungen 'S,'S, ... ,". der n Stichprobenvariablen X"x" ... ,x,.
Einer einfachen Stichprobe liegt die Vorstellung eines zufalligen Zlebens mit
Zurcklegen zugrunde. Nur in einem solchen Fall ist nmiich gewhrleistet, dass
die Zge und damit auch die Stichprobenvariablen unabhngig sind. Einfache
Stichproben sind jedoch in der Praxis nicht immer zu realisieren. Beim zuBilligen
Zieben obne Zurcklegen sind die Zge abbngig voneinander. Im Folgenden
werden wir dennoch vor allem einfache Stichproben behandeln. Wenn wir von einer Stichprobe sprechen, meinen wir daher Ld.R. eine einfache Stichprobe. Die
Aussagen, die entwickelt werden, gelten beim Ziehen ohne Zurcklegen zumindest
nherungsweise, wenn die Anzahl N der Elemente der Grundgesamtheit sehr viel
grer als der Stichprobenumfang n ist. Als Faustregel sollte n S O,lN vorliegen.
Verfahren der bewussten Auswahl beruhen nicht auf dem Zufallsprinzip. Ein
hufig in der Markt-und Meinungsforschung eingesetztes verfahren dieser Richtung ist die sog. Quotenauswabl. Dabei wird versucht, die in die Stichprobe aufzunehmenden Elemente so zu whlen, dass die Teilgesamtheit einen modellgerechten Miniaturquerschnitl der zu untersuchenden Grundgesamtheit darstellt (z.B. bestimmte Frauenquote). Da die Interviewer allerdings mehr oder weniger frei bei der
Auswahl der zu befragenden Personen sind (subjektive Auswahl), knnen keine
wahrscheinlichkeitstheoretisch fundierten Aussagen ber die Zuverlssigkeit der gewonnenen Ergebnisse gemacht werden.

1.2 Schtzer und ihre Stichprobenverteilungen


1.2.1 Grundlagen der Punktschtzung
Bei einer Punktschtzung wird fr einen unbekannten Parameter i} der Verteilung
einer Grundgesamtheit aufgrund des Ergebnisses 'S,"., ... ,". einer Stichprobe ein
numerischer Schtzwert ~ festgelegt2 Ein solcher Schtzwert kann als Realisierung
einer Stichprobenfunktion
(1111: 1)

1 Diese Eigenschaften der Stichprobenvariablen bezeichnet man als i.i.d. (engl. independent
and identically distributed). Aus ihnen folgt FX1,...,x,. (xw"'x n ) = FX1 (Xl)' .... Fx,. (X n ).
2 Hinweis: ' ist der Kleinbuchstabe zu e.

1. Punktschtzung

313

betrachtet werden, die der Verarbeitung des eintretenden Stichprobenergebnisses


zu aussagekrftigen Gren dient und als Schtzfunktlon oder Schtzer bezeichnet wird. Da die n Stichprobenvariablen X" ... , X. Zufallsvariablen sind, ist auch e
als Funktion der n Zufallsvariablen eine Zufallsvariable. Die Wahrscheinlichkeitsverteilung von eheit Stichprobenverteilung von e. Fr eine konkrete Stich"robe mit den Ausprgungen x" x" ... , X, liefert der Schtzer e die Schtzung
~=g(X" ... ,Xn)' ~ ist also die konkrete Realisation der Zufallsvariable e. Der
Schtzer gibt somit an, wie aus den Ergebnissen einer Stichprobe ein Schtzwert fr
t} Zu bestimmen ist.
Unser Ziel ist es, eine konkrete Stichprobenrealisation x"x" ... ,x, durch geeignete
gewhlte Funktionen g(X" ... ,X,) so Zu verdichten, dass wir auf uns interessierende
Kennzahlen bzw. Parameter der Grundgesamtheit bzw. der Verteilung von X
schlieen knnen. Nach welchen Kriterien derartige Funktionen auszuwhlen sind,
werden wir im Abschnitt III 1.3 vertiefen. Die Schtzer fr das arithmetische Mittel,
den Anteilswert und die Varianz einer Grundgesamtheit sind in der folgenden
Tabelle enthalten und im Anschluss daran erklrt:
Parameter

Schtzer

Arithm. Mittel

Stichprobenmittel
.. _ 1
I1=X=-

LX,
n
n

(1111: 2)

i=-l

Anteilswert

Stichprobenanteilswert

_ 1 n
p=X=-LX,

Varianz

Stichprobenvarianz

0'

' =~S2 =_l_t(X -l'

n-1

fr

1=1

n-l

l" 1

X, ={10
1

A tritt ein
A tritt nicht ein

(1111: 3)

(1111: 4)

Hinsichtlich der Notation ist zunchst ZU beachten, dass wir Schtzer im Folgenden
dadurch kennzeichnen wollen, dass wir die ZU schtzenden Parameter mit
"Dchern" versehen. Fr die Realisationen der obigen Schtzer werden wir aus
Vereinfachungsgrnden auerdem keine eigene Symbolik einfhren, da stets aus
dem Kontext hervorgeht, worum es sich genau handelt.3
Die obige bersicht zeigt mit (1111: 2), dass wir als Schtzer i1 des arithmetischen
Mittels 11 einer Grundgesamtheit, das arithmetische Mittel X der Stichprobenvariablen x" ... ,x" verwenden knnen. Die Schtzung fr 11 aus einer konkreten Stichprobe ist also gerade das arithmetische Mittel der Realisationen x" ... ,x. der n
Stichprobenvariablen.

Die Verwendung von Grobuchstaben fr Schtzer und Kleinbuchstaben fr Schtzungen


(Realisationen) ergbe l.B. das Problem, dass wir den Schtzer fr ci mit t 2 und seine
Realisation mit Cf benennen mssten. Diese Symbolik ist aber bereits fr das Summenzeichen vergeben.

314

111 Induktive Statistik

Beispiel 111 1-1

Schtzung des Erwartungswerts

Von den Studenten einer Vorlesung (Grundgesamtheit) werden 5 zufllig ausgewhlt und
ihre Krpergre X in cm festgehalten. Die Stichprobe ergab die x-Werte 182, 178, 186,
180, 177. Wir knnen damit die durchschnittliche Krpergre 11 aller Studenten in der Vorlesung auf

1
LX, =-(182+
... +177) = 180,6 cm
5

1"
11= n 1_1
schtzen.

Beim Anteilswert p handelt es sich um nichts anderes als den Mittelwert einer
dichotomen Grundgesamtheit. In einer solchen Grundgesamtheit gilt fr die Stichprobenvariablen X" ... ,x" hinsichtlich des Eintritts eines Ereignisses A
I falls A eintritt
Xi = { 0 falls A nicht eintritt.
Das Stichprobenmittel beschreibt also im Fall einer dichotomen Grundgesamtheit
gerade die relative Huftgkeit der Ausprgung I in der Stichprobe und wird daher
in diesem Kontext als Stichprobenanteilswert bezeichnet.

Beispiel 111 1-2

Schtzung des Anteilswerts

Aus einer Gruppe von 5.000 Personen werden zufllig 100 befragt, ob sie einer Partei A
bei den nchsten Wahlen ihre Stimme geben werden. Nur 5 davon uern sich diesbezglich positiv. Genau 5 der X. nehmen daher die Realisation 1 an, sodass wir den unbekannten Anteil p potenzieller Whler unter den 5.000 Personen auf

_ 1"
p=n ,.,

1
LX, =-5=0,05
100

bzw. 5 % schtzen knnen.

Wie (1111: 4) zeigt, verwenden wir (beim Ziehen mit Zurcklegen) als Schtzer 6'
fr die Varianz 0' nicht - wie man vielleicht vermuten wrde - die mittlere quadratische Abweichung
S'

=.!. :t (X, n

(IIII: 5)

X)' ,

1..1

sondern modifizieren diese. Die so entstehende Stichprobenvarianz

a2

besitzt als

Schtzer bessere Eigenschaften als S'. Zu diesen zhlt etwa die Erwartungstreue, die
wir im Abschnitt III 1.3.1 noch nher betrachten werden.

Beispiel 111 1-3

Schtzung der Varianz

Fr Beispiel 111 1-1 erhalten wir (beim Ziehen mit ZurOckiegen) als Schtzung die Varianz

Cf =-I-i;(x,-x)' =_1_.(182-180,6)'+ ... +(177-180,6)')=12,8 cm' .


n-l'-1

5-1

1. Punktschtzung

315

ln den folgenden Abschnitten wollen wir uns nun den Verteilungen der bisher behandelten Schtzer zuwenden. Diese erlauben uns, WahrschelnUchkeiten dafr zu
bestimmen, dass die Sttchprobengroen In einer gezogenen Stichprobe einen bestimmten Wert annebmen. Sie werden auerdem noch im Rahmen von Intervallschtzungen (Kapitel III 2) und Testverfahren (Kapitel III 3) von Bedeutung sein.

1.2.2

Verteilung des Stichprobenmittels

Zur Herleitung der Verteilung des arlthmetischen Mittels einer Zufallsstichprobe


bedienen wir uns des Urnenmodells fr ein metrisch skaUertes Merkmal. Es werden
hier die N Elemente der Grundgesamtheit durch N Kugeln reprsentiert. Auf diesen
Kugeln sind die entsprechenden Merkmalswerte X. Ci - 1, ... ,N) aufgedruckt. Der
Mittelwert /1 der Grundgesamtheit ergibt sich als arithmetisches Mittel dieser Merkmalswerte. Wird nun eine Stichprobe im Umfang n entnommen, so hngt das Ergebnis eines jeden Zuges vom Zufall ab. Das Ergebnis des i-ten Zuges, welches wir
mit X, bezeichnen wollen, ist daher eine Zufallsvariable, die bei einer bestimmten
Ausfhrung des Zufallsexperiments die konkrete Realisation X. annimmt.
Ziehung Nr.

Stichprobenvariable

Je,

Je,

x,

Realisation

Xl

x,

x.

x.

x.

Als Funktion von n Zufallsvariablen ist das arithmetische Mittel der Stichprobe, wie
wir bereits gesehen haben, ebenfalls eine Zufallsvariable, und zwar
_

X=- LXi'
n 1..1
Die Verteilung von X hngt davon ab, ob die Ziehung mit oder ohne Zurcklegen
erfolgt. Wir wollen daher im Folgenden beide Entnahmetechniken betrachten.
1.2.2.1

Ziehen mit Zurcklegen

Bezeichnen wir das arithmetische Mittel bzw. die Varianz der Grundgesamtheit mit
/1 und ci. Da die n Zufallsvariablen X, wie die Grundgesamtheit verteilt sind, d.h.
E(Je,) - ... - E(x.,) - /1 und Var(X,) - ... - Var(x.) - 0' gilt, erhalten wir unter Anwendung der unter 11 2.7.5 behandelten Rechenregeln fr Linearkombinationen
von Zufallsvariablen fr den Erwartungswert des Stichprobenmittels
1 n ) 1 (n
1 n
1
E(X)=E ( -LXi
=-E LXi ) =-LE(X,)=-n/1

n'_1

1_1

n'_1

d.h.
E(X) = /1 .

(1111: 6)

Der Erwartungswert von X ist somit das unbekannte Mittel /1 der Grundgesamtheit. Beachten wir zudem, dass aufgrund der Unabhngigkeit der einzelnen Zge
beim Ziehen mit Zurcklegen auch die n Zufallsvariablen X, voneinander unabhngig sind, so erhalten wir die Varianz des Stichprobenmittels als

111 Induktive Statistik

316

n J=,Var
1
(nLX, J=,LVar(X,)=,nO"'.
1 n
1
-LX,
n
n
n
n

Var(}=Var ( 1

i =l

i_I

io:l

Das vorletzte Gleichheitszeichen resultiert darin aufgrund der getroffenen Unabhngigkeitsannahme. Eine weitere Vereinfachung liefert schlielich
cf
Var(X)=- .

(1111: 7)

Fr die auch als Standard/ehler des Stichprobenmittels bezeichnete Standardabweichung des arithmetischen Mittels der Stichprobe gilt daher
0". = ,Jvar(X) =

Jn.

(1111: 8)

Die Streuung oder der Standardfehler des Schtzers hngt also von der Standardabweichung 0" der Grundgesamtheit und dem Stichprobenumfang n ab. Sie wird
offensichtlich immer geringer, je grer der Stichprobenumfang n gewhlt wird.
Die Reduktion vollzieht sich jedoch nicht linear, sondern tnit dem Faktor 1/ Fn .
So ist z.B. ein 4-facher Stichprobenumfang ntig, um die Streuung des Schtzers zu
halbieren. Dieser Sachverhalt wird auch als Fn-Gesetz bezeichnet.
Mit wachsendem Stichprobenumfang n werden sich also die Realisierungen von X
immer mehr um 11 konzentrieren. Dies ist die wesentliche Aussage des Gesetzes
der groen Zahlen. Konkret besagt es, dass fr beliebig kleine E > 0
limP(1 X-111 ~ E) = 0

(1111: 9)

n->_

gilt. Die Wahrscheinlichkeit, dass X um einen beliebig kleinen positiven Wert


von 11 abweicht, geht also tnit zunehmendem Stichprobenumfang n gegen Nu1l 4

Von der Wahrscheinlichkeitsverteilung des Stichprobentnittels kennen wir nun


Erwartungswert und Varianz. Um Aussagen ber die konkrete Verteilungsform
machen zu knnen, mssen wir die drei folgenden Flle unterscheiden:

1. Normalvertellte Grundgesamthe1t mit bekannter Varianz cr'


Ist die Grundgesamtheit bzw. das Merktnal X in der Grundgesamtheit tnit bekannter Varianz cf normalverteilt, so ist die Summe X, + X, + ... + x" der n unabhngigen Zufallsvariablen x"x" ... ,x" aufgrund der Reproduktionseigenschajt der Normalverteilung (vgl. Abschnitt 11 3.2.3.3) ebenfalls normalverteilt. Es gilt konktet
X - N(I1, cf)

-+

Xi - N(I1, 0"')

-+

tXi - N(nlJ.,ncf).

(1111: 10)

i=l

Das Gesetz der groen Zahlen besagt beim Ziehen mit Zurcklegen nicht, dass Um x = IJ. ,
also die Folge der beobachteten aritlunetischen Mittelwerte gegen J.L konvergiert"7""Es lsst
E > 0 ein ~ fInden, ab welchem eine Abweichung
I Je - J.L I~ 0 gar nicht mehr vorkme. Vielmehr kann bei jedem noch so groen n eine
Abweichung um E oder mehr wohl vorkommen. Lediglich die Wahrscheinlichkeit dafr
wird immer kleiner und geht schlielich gegen Null.

sich nmlich nicht zu jedem kleinen

1. Punktschtzung

317

Damit ist auch das Stichprobenmittel X normalverteilt, da es sich von dieser Summe nur um den Faktor l/n unterscheidet.
(1111: 11)

2. Nonnalvertete Grundgesamtheit mit unbekannter Varianz cl


Ist die Grundgesamtheit normalverteilt, muss ihre Varianz jedoch mittels ' bzw.
(IIIl: 4) geschtzt werden, so ergibt sich das mit seinem Erwartungswert 11 und der
geschtzten Standardabweichung . = !.Jn transformierte Stichprobenmittel als
T=X-I1=X:::-I1.

~
.Jn

Wir sprechen bei diesem transfonnierten Stichprobenmittel T hufig auch von der
sog. t-Statistik. Durch diverse Umformungen erhalten wir daraus

X-I1.Jn

X -11
(n -1)'
T=r=!f=~ mit -o-=Z,
ci"
(n -1)'
.Jn
(n -1)0'

B, n-l=w

-+

T=

.J!'
Z

Z ist dabei offensichtlich standardnormalverteilt. B ist, wie wir unter III 1.2.4 sehen
werden, Chi-Quadrat-verteilt mit w = n - 1 Freiheitsgraden. T folgt somit nach den
Vorschriften aus Abschnitt 11 3.3.2 einer t-Verteilung mit w = n - 1 Freiheitsgraden.
X-11
T=---t(n-1)
.

.'

m,t

0.

= .Jn

(1111: 12)

3. Beliebig verteilte Grundgesamtheit


Ist die Grundgesamtheit mit 11 und 0' beliebig verteilt, so knnen wir rur groe
Stichproben auf den Zentralen Grenzwertsatz (vgl. Abschnitt 11 3.4.1) zurckgreifen, um die Verteilung von X abzuleiten. Bis auf den Faktor l!n ist das Stichprobenmittel X nmlich eine Summe von n unabhngigen und identisch verteilten
Zufallsvariablen X,. Mit wachsendem Stichprobenumfang n strebt somit die Verteilung von X gegen eine Normalverteilung mit dem Erwartungswert E(X) = 11 und
der Varianz Var(X) = cl ! n. Man sagt, dass X asymptotiscb normalverteilt ist.
H_

X~N(!l, : )

(1111: 13)

Als Faustregel kann angegeben werden, dass rur n > 30 das Stichprobenmittel in
guter Nherung normalverteilt ist. Abbildung III 1 verdeudicht rur vier ausgewhlte
Grundgesamtheiten die beschriebene Konvergenz der Verteilung des Stichprobenmittels gegen die Normalverteilung. 5 Dabei sind in der ersten Zeile die verschiedenen Grundgesamtheiten dargestellt. Die zweite, dritte und vierte Zeile zeigt die

5 Die GrafIk ist entnommen aus Bleymller et al. (2004), Kapitel 13.

318

111 Induktive Statistik

resultierenden Verteilungen der Stichprobenmittelwerte bei Stichprobenumfngen


von n - 2, n - 5 und n - 30.
1.2.2.2

Ziehen ohne Zurcklegen

wird ohne Zurcklegen gezogen, gilt fr den Erwartungswert und die Varianz des
Stichprobenmittels
(1111: 14)

Var(X)

c:l'N-n

=- - - .

(1111: 15)

n N-1

Wie zu erkennen ist, unterscheiden sich also beim Ziehen ntit und ohne Zurcklegen die Varianzen durch den Faktor (N - n)/(N - 1), den wir bereits aus Abschnitt 11 3.1.2.2 kennen und der in der induktiven Statistik auch als Korrekturfaktor
fr endliche Gesamtheiten oder kurz Endl/cbkettskorrektutjaktor bezeichnet wird.
Fr n .$"O,lNknnen wir diesen wieder vernachlssigen (vgl. Abschnitt 11 3.1.2.3),
sodass sich die Varianzen entsprechen.
Trotz der Tatsache, dass die einzelnen Zufallsvariablen X; beim Ziehen ohne Zurcklegen nicht unabhngig sind, wird auch hier mit wachsendem Stichprobenumfang der Zentrale Grenzwertsatz wirksam, sofern N im Verhltnis zu n ausreichend
gro ist. Als Faustregel knnen wir die nherungsweise Normalvertetlung des
Stichprobenmittels fr n > 30 und n.$" OSN annehmen.

x-

(11,

cr'))

n >30
0,5N

n.,
Beispiel 111 1-4

-+

-, ( cr'
N-nJ
n

X - N 11,--N-1

(1111: 16)

Verteilung des Stichprobenmittelwerts

Die von einer Unternehmung hergestellten Energiesparlampen haben eine durchschnittliche Lebensdauer von iJ. = 900 Stunden bei einer Standardabweichung von (J = 50 Stunden. Aus der laufenden Massenproduktion wird eine Stichprobe im Umfang von n = 35
StOck entnommen. Wie gro ist die Wahrscheinlichkeit dafr, dass die Stichprobe eine
durchschnittliche Lebensdauer
von weniger als 880 Stunden liefert?

Das Stichprobenmittel X ist annhernd normalverteiH, da (1111: 16) erfOlit ist. Es ist n > 30
und auerdem kann n ,; O,5N als erfllt angesehen werden, da bei einer Massenproduktion
von einem sehr groen N ausgegangen werden kann. Aufgrund des groen N ist auch die
Bedingung n ,;; 0,1 N rur die Vernachlssigung des Endlichkeitskorrekturfaktors erfllt und
wir knnen auf diesen verzichten, sodass

X!.

+.

~) = N( 900;~~) = +OO;~~) = N(900;71,43)

gilt. Die gesuchte Wahrscheinlichkeit erhalten wir daher als

P(X< 880) = FN (880)

=<I>[8~0)
= <1>(-2,37) = 1-0,9911 =0,0089.
71,43

1. Punktschalzung

319

Verteilung der Grundgesamtheit

f(xl

f(xl

f(xl

fex)

IIIIIIII,IIIIIIII,~~
J.l.

J.I.

J.I.

Verteilung des Stichprobenrruttels fr n - 2

f(xl

f(xl

f(xl

f(xl

~6,G,
x

J.I.

J.I.

J.I.

Verteilung des Stichprobenmittels fr n - 5

f(xl

f(xl

f(xl

f(xl

/\LL.
x

J.I.

J.l.

J.l.

J.I.

Verteilung des Stichprobenmittels fr n - 30

wo

!\

)
J.I.

!\

f(xl

\
J.I.

f\

f(xl

f(X)

\
J.I.

Abbildung m 1: Verteilung des Stichprobenmittels

)
x

320

111 Induktive Statistik

1.2.3

Verteilung des Stichprobenanteilswerts

Zur Herleitung der Stichprobenverteilung des Anteilswerts bedienen wir uns eines
Urnenmodells jr ein dichotomes Merkmal. Nehmen wir an, in einer Urne (Grundgesamtheit) befinden sich N Kugeln, von denen Meine besthnmte Eigenschaft A
(z.B. Farbe) aufweisen. Die restlichen N - M Kugeln besitzen diese Eigenschaft
nicht. Der Anteil der Kugeln mit der Eigenschaft A ist mit p - M/N bekannt. Es
werden nun mehrere Stichproben mit einem Umfang von n gezogen. Enthlt die
Stichprobe x Kugeln mit der Eigenschaft A, ist der Stichprobenanteilswert p - x/n.
Jede weitere Stichprobe im Umfang n kann einen anderen (zufallsabhngigen)
Stichprobenanteilswert liefern, sodass p als Realisation einer Zufallsvariablen
p = X / n: "Stichprobenanteilswert" aufgefasst werden kann. p gibt also den Anteil
der Kugeln mit Eigenschaft A in der Stichprobe an. Je nach Technik der Entnahme
ist die Wahrscheinlichkeitsverteilung dieser Zufallsvariablen p unterschiedlich.
1.2.3.1

Ziehen mit Zurcklegen

Fr den Fall der Stichprobenentnahme mit Zurcklegen ist die Zufallsvariable X:


"Anzahl der Kugeln mit Eigenschaft A in der Stichprobe", also
n

X=LX,

mit

1=1

{1 falls A eintritt
1 = 0
falls A nicht eintritt,

binomialverteilt. Fr Erwartungswert und Varianz dieser Zufallsvariablen X bzw.


der Merkmalssumme knnen wir daher
E(X)=np
Var(X) = np(1- p)
festhalten. Da sich der Anteilswert p aus dem Zusammenhang p = X / n ergibt,
lassen sich Erwartungswert und Varianz der Zufallsvariablen p: "Anteil der
Kugeln mit Eigenschaft A in der Stichprobe", d.h. des Sichprobenantei1swerts,
wie folgt besthnmen:
E(p) =

E(~X) = ~E(X) = P

(1111: 17)

= Var (-X
1 ) = - 1 Var(X) = .0....:..----"":"
p(1-p)
Var(p)
2
n

(1111: 18)

Die Standardabweichung von p wird als Standardjehler des StIchprobenanteilswertes bezeichnet und ergibt sich zu
- =
V
(.)_~p(1-P)
Var,pJ
.
n

(J. - "

(II11: 19)

Sie folgt wie jene des Stichprobenmittels dem ,;n-Gesetz. Als Spezialfall des Gesetzes der groen Zahlen (vgl. Abschnitt III 1.2.2.1) erhalten wir fr E > 0
limP(lp-pl :1:E)=O.
n~_

Dies bedeutet, dass auch fr den Stichprobenanteilswert die Wahrscheinlichkeit,


dass der Schtzer p um ein beliebig kleines positives E vom wahren Wert p ab-

321

1. Punktschtzung

weicht, mit zunehmendem Stichprobenumfang n gegen Null konvergiert. Konsequenz daraus ist, dass die unbekannte Wahrscheinlichkeit P(A) = P eines Ereignisses A durch die relative Hufigkeit p in einfachen Zufallsstichproben gengend
groen Umfangs nherungsweise bestimmt werden kann. Dieser Spezialfall des
Gesetzes der groen Zahlen ist uns bereits im Abschnitt 11 1.3.3 begegnet und war
die Rechtfertigung fr die Verwendung statistischer Wahrscheinlichkeiten.
Ist die im Abschnitt 11 3.4.2.1 behandelte Approximationsbedingung np(1-p) ~ 9 erfllt, so kann die Verteilung von p auf Basis des Zentralen Grenzwertsatzes (vgl.
Abschnitt 11 3.4.1) durch eine Normalverteilung mit den Parametern

11 = E(p) = p
c;' =

Var(p) = p(1- p)
n

approx/mtert werden. Kurz knnen wir daher


p = ~ mit X - binomialverteilt }
npCl- p) ~ 9

.!.

N (p,

P(1: P))

(1111: 20)

festhalten. Da hier eine diskrete durch eine stetige Verteilung approximiert wird,
schlagen manche Autoren bei der Wahrscheinlichkeitsberechnung eine Stetigkeitskorrektur vor. 6 Da diese Stetigkeitskorrektur aufgrund der Anwendung des Zentralen Grenzwertsatzes in den meisten Fllen nur einen sehr geringen Wert aufweist,
knnen wir sie im Folgenden vernachlssigen. Der Anteilswert wird also wie eine
stetige Variable behandelt.
BeIspIel 111 1-5

Stichprobenanteilswert (Ziehen mit Zurcklegen)

Im Land Amazonia betrgt der Anteil p weiblicher Einwohner 90 %. Wie gro ist die Wahrscheinlichkeit, dass der Frauenanteil p in einer Stichprobe von n = 500 grer als 92 % ist?
Da hier die Approximationsbedingung np(l - p) <: 9 erfllt ist, ist

p wie folgt verteilt:

p.!. N(P, P(l;P)) = N(O, 9; 0,00018)


Unter Vernachlssigung der hier sehr geringen Stetigkeitskorrektur erhalten wir so fOr die
gesuchte Wahrscheinlichkeit

P(p > 0,92) = 1-FN (0,92) = 1_<1>(0,92-0,9) = 1-<1>(1,49) = 1-0,9319 = 0,0681.


,J0,00018

1.2.3.2

Ziehen ohne Zurcklegen

Bei Stichprobenentnahme ohne Zurcklegen liegt das Modell der Hypergeometrischen Verteilung vor. Beschreibt die Zufallsvariable X wieder die Anzahl der Kugeln mit Eigenschaft A in der Stichprobe, gilt fr Erwartungswert und Varianz
6 Diese Stetigkeitskorrektur hat z.B. die Form PCp s: b) = FN(b + -t,;-). Fr eine nhere Behandlung vgl. z.B. Bleymller et al. (2004), Kapitel 12.

322

111 Induktive Statistik


M

E(X)=n-=np
N

N-n
Var(X) = np(1- p). - - .
N-1

Da sich p wieder aus dem Zusammenhang p = X / n ergibt, errechnen sich Erwartungswert und Varianz des Stichprobenanteilswertes p wie folgt:
E(p) = ~ E(X) = P

(1111: 21)

Var(jJ) = ~ Var(X) = p(1- p) N - n


n2

N-1

Gm: 22)

Wie bereits beim Stichprobenmittel unterscheiden sich die Varianzen beim Ziehen
mit und ohne Zurcklegen durch den Endlichkeitskorrekturfaktor, den wir wieder
fr n ,., O,lN vernachlssigen knnen. Die Varianz des Stichprobenanteilswertes reduziert sich dann zu (!In: 18). Wie wir in Abschnitt II 3.4.2.3 auerdem gesehen
haben, kann die Hypergeometrische Verteilung bei np(1 - p) ~ 9 und n ,., O,lN
durch eine Normalverteilung approximiert werden. Daher lsst sich bei diesen erfllten Bedingungen auch die Stichprobenverteilung des Anteilswertes p durch
eine Normalverteilung mit folgenden Parametern approxlmieren:
11 = E(p) = p
0' = Var(jJ) = p(1- p)
n

Da unsere Approximationsbedingung auch die Bedingung fr die Vernachlssigung


des Endlichkeitskorrekturfaktors beinhaltet, kann er vernachlssigt werden. Der Fall
des Ziehens ohne Zurcklegen kann also durch den des Ziehens mit Zurcklegen
approxtmtert werden.
Beispiel 111 1-6

Stichprobenanteilswert (Ziehen ohne ZUrUckiegen)

In einem Fertigungslos von N = 10.000 StOck liegt der Anteil fehlerhafter Produkte bei
p = 20 %. Es wird eine Stichprobe von n = 500 Stck ohne Zurcklegen gezogen. Wie
gro ist nun die Wahrscheinlichkeit dafiir, dass der Anteil der mangelhaften Produkte in
der Stichprobe zwischen 19,8 % und 20,5 % liegt?
Da die Voraussetzungen np(1 - p) ;, 9 und n S 0,1 N erfOllt sind, kann die Verteilung des
Stichprobenanteilswertes unter Vernachlssigung der Endlichkeitskorrektur durch die Normalverteilung
N(E(p), Var(p)) = N(P, P(1;P)) = N(0,2, O,~~~,8) = N(O,2;O,00032)
approximiert werden. Fr die gesuchte Wahrscheinlichkeit gilt unter Vernachlssigung der
Stetigkeitskorrektur
P(O 198 S - SO 205) ~ F; (0 205)- F; (0 198) = <1>[0,205-0,2)_<1>[0,198-0,2)
,
p,
N
'
N
'
.,/0,00032
.,/0,00032
= <1>(0,28)-<1>(-0,11) = 0,6103 -(1-0,5438) = 0,1541.

1. Punktschtzung

1.2.4

323

Verteilung der Stichprobenvarianz

Zur Bestirrunung der Verteilung der Stichprobenvarianz er' unterstellen wir im Folgenden die Unabhngigkeit der Ergebnisse der einzelnen Stichprobenziehungen
(d.h. Ziehen mit Zurcklegen). Zudem nehmen wir an, dass die Grundgesamtheit
mit dem Mittelwert 11 und der Varianz 0' annhernd normalverteilt ist. Unter diesen Voraussetzungen sind die n Zufallsvariablen ~ (Ergebnis des i-ten Zugs) alle
unabhngig normalverteilt mit E(~) = 11 Ci = 1, ... ,n) und Var~) = ci' Ci = 1, ... ,n).
Als Funktion von n Zufallsvariablen ~ ist die Stichprobenvarianz

' =_l_t(Xi -X)'


n-1'''1

ebenfalls eine Zufallsvariable.


Zur Herleitung der Verteilung der Stichprobenvarianz bettachten wir zunchst die n
unabhngigen standardnormalverteilten Zufallsvariablen

Z_X,-11
,-

die wir quadrieren und aufsummieren, sodass sich

X' = tz~ =
1=1

(X, -11)'

1=1

ci'

ergibt. In Abschnitt 11 3.3.1 haben wir gesehen, dass eine solche Summe quadrierter
unabhngiger Zufallsvariablen Z" die mit dem Erwartungswert 0 und der Varianz 1
normalverteilt sind, einer Chi-Quadrat-Verteilung mit w = n Freiheitsgraden gehorcht.
Fr eine Summe B, die aus X' hervorgeht, indem wir 11 durch X ersetzen, also
B=t(X,-x)'

ci'

i=l

kann gezeigt werden, dass sie ebenfalls einer Chi-Quadrat-Verteilung folgt, allerdings mit nur w = n - 1 Freiheitsgraden. Formen wir die Definition der Stichprobenvarianz in der Form
t(Xi -X)' =(n-1)'
j ..l

um und setzen diesen Tenn in den Ausdruck fr B ein, so erhalten wir


(n-1)'
B = -'-----i-0'

(1111: 23)

Diese Zufallsvariable B gehorcht einer Chi-Quadrat-Verteilung mit w = n - 1 Freiheitsgraden. Auf ein konkretes Anwendungsbeispiel wollen wir an dieser Stelle
verzichten, da sich (1111: 23) erst im Rahmen von Konfidenzintervallen und Hypothesentests als besonders hilfreich herausstellt.

324

111 Induktive Statistik

1.2.5

Verteilung weiterer Stichprobengren

Neben den Stichprobenverteilungen der Schtzer 11, p und a' sind vor allem fr
die Durchfhrung von Hypothesentests die Verteilungen der Differenz von Stichprobenmitteln bzw. von Stichprobenanteilswerten sowie der Quotienten von Stichprobenvarianzen von Bedeutung. Wir werden sie daher im Folgenden herleiten.
1.2.5.1

Differenz zweier Stichprobenmittel

Werden zwei unabhngige Zufallsstichproben des Umfangs n, und n, gezogen und


die Stichprobenmittel x, und x, erfasst, so kann deren Differenz d = x, - x, als
Realisation einer Zufallsvariablen D = X, - X, interpretiert werden. Zur Herleitung
der Verteilung dieser Differenz D zweier Stichprobenmittel rufen wir uns zunchst
ins Gedchtnis, dass die Differenz zweier unabhngiger Zufallsvariablen X und Y
nach den in Kapitel II 2.75 behandelten Vorschriften fr Linearkombinationen von
Zufallsvariablen einen Erwartungswert von E(X) - E(Y) und eine Varianz von
Var(X) + Var(Y) aufweist. Da die Stichproben aus beiden Grundgesamtheiten hier
voneinander unabhngig sind, handelt es sich bei der Differenz D = X, - X, der
beiden Stichprobenmittelwerte X, und X" genau um eine solche Form von Linearkombination. Wir erhalten daher unter Bercksichtigung der Erwartungswerte
und Varianzen beider Stichprobenmittelwerte

ci

Var(X, ) = --'n,

ci

Var(X,)=~

n,

den Erwartungswert und die Varianz der Differenz zwe1er Stlchprobenmittel- X, folgendermaen:

werte D = X,

(1111: 24)

--

-a~~

Var(D) = Var(X, - X,) = Var(X, ) + Var(X,) = - + 01

(1111: 25)

02

Die Standardabweichung bzw. der Standard/ehler der Differenz der StIchprobenmIttelwerte betrgt damit
(1111: 26)

Treffen wir nun noch die Annahmen, dass beide Grundgesamtheiten mit den Mittelwerten 11, und 11, und den Varianzen cf, und a; annhernd normalvertetlt sind
und dass sofern dies nicht gilt, fi 1 und n 2 so gro sind, dass jeweils der zentrale
Grenzwertsatz greift, so gilt fr die Verteilung von D nherungsweise

(IIII: 27)

1. Punktschtzung

325

Beispiel 111 1-7

Differenz von Stichprobenmitteln

Eine bestimmte Reifensorte 1 hat eine durchschnittliche Laufleistung von 1" = 50.000 km
bei einer Standardabweichung von '" = 10.000 km. Die durchschnittliche Laufleistung
einer Reifensorte 2 liegt bei li2 = 48.000 km bei einer Standardabweichung von "2 = 9.500
km. Aus der laufenden Produktion werden nun zufllig n, = 40 und n2 = 50 Reifen entnommen und einem Laufleistungstest (Test der Materialbelastbarkeit) unterzogen.
Wie gro ist die Wahrscheinlichkeit dafr, dass das arithmetische Mittel der Laufleistung
der 40 Reifen der Sorte 1 um mehr als 3.000 km grer ist als das arithmetische Mittel der
50 Reifen der Sorte 2?
Fr die Verteilung der Differenz der arithmetischen Mittel D =
D .! N(E{D), Var{D)) = N[I', -1'"

X, - X.

gilt hier

,,~
+ a: J= N{2.000; 4.305.000).
n n
1

Die gesuchte Wahrscheinlichkeit ergibt sich zu


P(D > 3.000) = 1-F. (3.000) = 1_<1>(3.000-2.000) = 1-<1>(048) = 1-06844 = 0 3156.
N
"4.305.000
'
,
,

1.2.5.2

Differenz zweier Stichprobenanteilswerte

Zur Untersuchung der Stichprobenverteilung der Differenz D = p, - p, zweier


Stichprobenanteilswerte p, und p, knnen wir analog zum Abschnitt III 1.2.5.1
vorgehen. Gehen wir von zwei unabbngigen Zufallsstichproben der Umfnge n,
und ~ aus, so gilt unter Verwendung der Werte
A) = p,
E(p,

Var(pA,)= p,(l-p,)
n,

E(p,) = p,

A) p,(1-p,)
Var ( P2 =
,

n,

die wir aus Abschnitt III 1.2.3.1 kennen, fr den Erwartungswert und die Varianz
der Differenz zweier Stichprobenantwellswerte D = p, - p,
E(D) = E(p, - p,) = E(p,) - E(p,) = p, - p,

(1111: 28)

Var(D) = Var(p, - p,) = Var(p,) + Var(p,) = p, (1- p,) + p,(1- p,).


n1

n2

(1111: 29)

Den Standardjebler der Differenz der Sticbprobenanteilswerte knnen wir damit


wie folgt festhalten:

"D = ,jVar(D) =

p, (1- p,) + p,(1- p,)


n1

n2

(1111: 30)

Nehmen wir nun wieder an, dass die zugehrigen Stichprobenumfange n, und n,
so gro sind, dass die Stichprobenanteilswerte p, und p, als annbernd normalverteilt angesehen werden knnen, so ist D nherungsweise normaiverteilt, d.h.

326

111 Induktive Statistik

D!. N(P' _p" p,(1-p,) + P,(1-P')).


n1

(IIIl: 31)

n2

Als Faustregel fr eine Rechtfertigung dieser Approximation sollte n,p,(1-p,) ;,: 9


und n,p,(1-p,) ;,: 9 erfllt sein.
Beispiel 111 1-8

Differenz von Stichprobenanteilswerten

Der Anteil der Stipendiaten betrgt an einer Hochschule p, = 0,15 und an einer anderen
p, 0,10. Wie hoch ist die Wahrscheinlichkeit dafr, dass die Differenz D
in zwei
unabhngigen Stichproben vom Umfang n, = n, = 100 zwischen 0,05 und 0,15 liegt?

=p,-p,

Fr die Verteilung von D gilt


D.!. N(E(D) Var(D)) = N(O 15-0 10' 0,150,85 + 0,10'0,90) = N(O 05'
100
100
.
I

0022).

Die gesuchte Wahrscheinlichkeit kann damit wie folgt bestimmt werden:


P(O,05< D < 0,15)

=F. (0,15)- F. (0,05) = <1>(0' 15-0'05J _<1>(0,05-0,05J


N

,JO,0022

,JO,0022

=<1>(2,13)-<1>(0) =0,9834-0,5 =0,4834


1.2.5.3

Quotient zweier Stichprobenvarianzen

Werden zwei unabbngige Stichproben des Umfangs n, und n, aus zwei normalverteilten Grundgesamtheiten mit den Varianzen er: und .,: gezogen, so sind die
beiden Zufallsvariablen
B = (n,
,

-1)a;

0"

B = (n,

-1)a;
a:,

wie wir unter III 1.2.4 gesehen haben, mit w, = n, - 1 bzw. w, = n, - 1 Freiheitsgraden Chi-Quadrat-verteilt. Es lsst sich zeigen, dass ein Quotient F, der sich aus
diesen beiden unabhngigen, Chi-Quadrat-verteilten Zufallsvariablen B, und B, mit
w, bzw. w, ergibt und die Form
F = B, /w,
B, /w,

aufweist, einer F(w" w)-Ver1eilung gehorcht (vgl. Abschnitt II 3.3.3). Setzen wir in
die Formel fr F die Ausdrcke fr B, und B, ein, so erhalten wir als andere Darstellung fr F den Ausdruck

(n,
F=

-1)a;

cr;w,

(n,

-1)~

cr,w,

(n,

-1)a;

(n,

-1)~

cr;(n, -1)

(IIIl: 32)

den wir im Zusammenhang mit den Hypothesentests im Abschnitt III 3 noch bentigen werden. Abbildung III 2 gibt einen abschlieenden berblick ber die wichtigsten Stichprobengren und deren Verteilungen.

327

1. Punktsch1zung

Stichprobenverteilung
N(EOn,VarCX ))
wenn: Grundgesamtheit
normalverteilt oder n > 30

Parameter

0'

Z.ffi.Z.: Var(X) = n

cr' N-n

Z.o.Z.: Var(X) = - . - n

T=X-11
mit

lt

0'-x = ~
,r.;

t(w)

w -n-l

wenn: Grundgesamtheit
normalverteilt
N(O; 1)
wenn: n > 30
N(E(p ),VarCp))

E(p)=p

wenn:np(1-p);:'9

p(1-p)

p(1-p) N-n
.-n
n-l

Z.ffi.Z.: Var(p) = '--'-----'-'n


Z.O.Z.: Var(p) =

B= (n-l)'

cr'

D=X, -X,

x'(w)

n-1

w -n-l

wenn: Grundgesamtheit
normalverteilt

N(E(D),VarCD))
wenn: Grundgesamtheiten
normalverteilt oder n, > 30
und n, > 30

E(D) = 11, -11,

ci

0'

01

n2

Var(D) = --'- + ~
fr Z.ffi.Z. und auch Z.O.Z. wenn
n, :5: O,lN, und n,:5: O,lN,

D=p,-p,

N(E(D),VarCD))
wenn: n,p, (1- p,);:' 9
und n,p,(1- p,);:' 9

E(D)=p, -p,
Var(D)= p,(1-p,) + p,(1-p,)
01

n2

fr Z.ffi.Z. und auch Z.O.Z. wenn


n, :5: O,lN, und n,:5: O,lN,
F(w1 ,w)

= 01 - 1; w 2 = n2 - 1

wenn: Grundgesamtheiten

normalverteilt
Hinweise: 1. Der Endlichkeitskorrekturfaktor kann fr n S O,lN vernachlssigt werden.
2. Z.ffi.Z. - Ziehen mit Zurcklegen, Z.o.Z. - Ziehen ohne Zurcklegen

Abbildung III 2: Wichtige Stichprobenverteilungen im berblick

328

111 Induktive Statistik

1.3 Gte von Schtzern


Bei der praktischen Durchfhrung einer Punktschtzung mssen wir damit rechnen, dass der Schtzwert ~ vom wahren Wert ~ mehr oder weniger stark abweicht. Meistens wird es sogar so sein, dass ~;t ~ gilt und nur selten ~ = ~. Der
sog. Schtzfehler ist in diesem Zusammenhang defmiert als 9 - ~. Da der Schtzer 9 eine Zufallsvariable ist, ist auch der Schtzfehler eine Zufallsgre. Er zhlt
zu den wesentlichen Kriterien zur Beurteilung der Qualitt eines Schtzers 9.
Konkret verwenden wir zur Einstufung der Gte eines Schtzers (bzw. einer
Schtzfunktion) einen Katalog von vier wnschenswerten Eigenschaften. Dazu zhlen Erwartungstreue Coder asymptotische Erwartungstreue), Effizienz, Konsistenz
und ein geringer mittlerer quadratischer Fehler.

1.3.1 Erwartungstreue
Ein Schtzer 9 wird dann als ttwartungst1"eu Cunverzerrt, eng!. unbiased) bezeichnet, wenn sein Erwartungswert E(9) bei jedem beliebigen Stichprobenumfang mit dem wahren Parameter ~ bereinstimmt.
CIII1: 33)

Eine solche Eigenschaft ist wnschenswert, da eine Schtzformel im Durchschnirt


ihrer Anwendungen den gesuchten Wert treffen sollte. Eine systematische beroder Unterschtzung ist zu vermeiden.
Zur Veranschaulichung dieser wesentlichen Eigenschaft von Schtzern betrachten

wir Abbildung III 3. Sie enthlt die Verteilungen. dreier S.chtzer 9" 9, und 9,.
Von diesen Schtzern knnen nur die Schtzer S, und S, als erwartungstreu bezeichnet werden, da sich ihre Erwartungswerte EC9,) und EC9,) mit dem Parameter ~ der Grundgesamtheit decken. Der Schtzer 9, liefert im Durchschnitt einen Wert grer als ~ und gilt daher nicht als erwartungstreu sondern als verzerrt.

9,

9, nicht erwartungstreu

9,

Abbildung III 3: Erwartungstreue und verzerrte Schtzer

329

1. Punktschtzung

Wir wollen nun im Folgenden drei ausgewhlte Schtzer hinsichtlich ihrer Erwartungstreue nher betrachten.

Das Stichprobenmittel 11 = X ist ein erwartungstreuer Schtzer fr das arithmetische Mittel 11 der Grundgesamtheit, da

E(ll) = 11
gilt. Dies haben wir bereits unter III 1.2.2.1 gezeigt.

Als Spezialfall des Stichprobenmittels ist natrlich auch der Stichprobenanteilswert p eine erwartungstreue Schtzfunktion fr den Anteilswert p der
Grundgesamtheit. Es gilt nmlich, wie wir bereits unter III 1.2.3.1 sahen
E(p) =

p.

Die Stichprobenvarianz 6' bzw. (1111: 4) ist (beim Ziehen mit Zurcklegen)

ein erwartungstreuer Schtzer fr die Varianz


E(a') =

(12

der Grundgesamtheit,1 da

a'.

Die mittlere quadratische Abweichung bezglich X, d.h. S' bzw. (1111: 5), ist
hingegen nicht erwartungstreu (erfllt aber die unter III 1.3.2 beschriebene
Eigenschaft der asymptotlschen Erwartungstreue). 8 Es lsst sich nmlich
E(S') = n -1 a'

n
zeigen. Man sagt in diesem Fall, dass die Punktschtzung um den Faktor

(n-1)/n verzerrt ist. Diese Schtzfunktion wrde nmlich die Gre 0' systematisch unterschtzen. Da die Verzerrung hiermit bekannt ist, knnen wir sie
leicht korrigieren und zwar durch Multiplikation von S' mit dem Kehrwert der
Verzerrung, also n/(n-1). Wir erhalten so den erwartungstreuen Schtzer
6' . Abschlieend ist festzuhalten, dass a' zwar ein erwartungstreuer Schtzer
fr 0' ist, jedoch 6 keinesfalls ein erwartungstreuer Schtzer fr a ist. Vielmehr kann gezeigt werden, dass E( 6) < a, 6 also a systematisch unterschtzt. 9

1.3.2 Asymptotische Erwartungstreue


Ist ein Schtzer nicht erwartungstreu, knnte es zumindest sein, dass die Verzerrung, die er aufweist, mit zunehmendem Stichprobenumfang n immer geringer
wird. Ein Schtzer wird also als asymptotlsch erwartungstreu bezeichnet, wenn
lim E(9)
n_

=~.

(1111: 34)

In praktischen Anwendungen ist es von Bedeutung, wie schnell diese Konvergenz

erfolgt. Sind sehr hohe Stichprobenumfange notwendig, um sie zu erreichen, ist


der Schtzer weniger ntzlich.

7 Den Beweis Wetfr berlassen wir in Aufgabe PSI dem Leser.


S Die mittlere quadratische Abweichung bezglich J.1 wre hingegen bei bekanntem arithmetischen Mittel J.L der Grundgesamtheit ein erwartungstreuer Schtzer fr 6.
9 Auer, B.R., Seitz, F. (2008) gehen auf dieses Problem im Kontext von Investmentfondsperfonnance ein und zeigen auerdem einen alternativen, erwartungstreuen Schtzer.

330

111 Induktive Statistik

1.3.3 Effizienz
Ein erwartungstreuer Schtzer ist dann effizienter als ein anderer ebenfalls erwartungstreuer Schtzer, wenn er eine kleinere Varianz besitzt. So ist etwa in Abbildung III 4 der Schtzer 9, effizienter als 9,.10 Unter smtlichen erwartungstreuen
Schtzern ist derjenige absolut effizient oder kurz effizient (oder wirksamster), der
die kleinste Varianz aufweist. Ein Schtzer

ist also dann effizient, wenn sowohl

(III1: 35)
als auch
(1111: 36)

erfllt sind, wobei in (IIII: 36) der Ausdruck 9' fr jeden beliebigen anderen erwartungstreuen Schtzer steht. Betrachtet man Abbildung III 4 und unterstellt, dass
nur die drei dort zu sehenden erwartungstreuen Schtzer existieren, so gilt der

Schtzer 91 als absolut effizient, da es keinen anderen erwartungstreuen Schtzer


mit geringerer Varianz gibt.

8,

effizient

Abbildung III 4: EffIzenz


Die Suche des effIzienten Schtzers unter allen erwartungstreuen Schtzern ist ein
relativ schwieriges Problem, mit dem wir uns hier nicht nher beschftigen. Wir
fhren stattdessen an dieser Stelle nur einige einschlgige Erkenntnisse auf:

Das Stichprobenmittel i1 = X ist fr den Erwartungswert ~ der Grundgesamtheit der effiziente Schtzer.
Der Stichprobenanteilswert

f> ist der effIziente Schtzer fr den Anteilswert p

einer dichotomen Grundgesamtheit.

Die mittlere quadratische Abweichung bezglich

bzw. die Stichproben-

varianz S2, ist der effiziente Schtzer fr die Varianz (/ einer NQ.L,f)-verteilten

Grundgesamtheit, wenn

bekannt bzw.

unbekannt ist.

10 In diesem Zusammenhang sei noch einmal darauf hingewiesen, dass eine breite Dichte-

funktion eine hohe Varianz und eine schmale Dichtefunktion niedrige Varianz anzeigt.

1. Punktschtzung

331

1.3.4 Konsistenz
Eine Folge von Schtzern S. gem
S, = g,(X,) , S2 = g,(X"X,) , ... , Sn =gn(X"""Xn)
wird als konsistent in Bezug auf den Parameter t} bezeichnet, wenn die
Wahrscheinlichkeit, mit der der Schtzfehler ISn - t} I ein vorgegebenes kleines
Niveau E > 0 bersteigt (oder mit ihm identisch ist), mit zunehmendem Stichprobenumfang n gegen Null strebt, d.h.
limP(ISn -t}I :1:E)=O.

n_

(1111: 37)

Anders formuliert knnen wir auch sagen, dass fr einen konsistenten Schtzer
durch die Wahl eines hinreichend groen Stichprobenumfangs die Wahrscheinlichkeit, dass der Schtzer S. ein vorgegebenes kleines Intervall [t}-E;t}+E] um t}
nicht trifft, beliebig klein gemacht werden kann.
Konsistenz liegt etwa vor, wenn die 9 n erwartungstreu oder zumindest asymptotisch erwartungstreu fr t} sind und die Varianzen Var(Sn) bei zunehmendem
Stichprobenumfang gegen Null gehen, d.h. formal folgendes gilt:

limE(Sn) = t}
n---)"

und

!im Var(Sn) = 0

n---)"

Abbildung III 5 zeigt einen nicht erwartungstreuen (jedoch asymptotisch erwartungstreuen) und konsistenten Schtzer. Wir erkennen, dass die vom Schtzer erzeugten Schtzwerte bei laufender Vergrerung des Stichprobenumfangs n im
Durchschnitt den zu schtzenden Parameter t} treffen. Auerdem ist zu erkennen,
wie mit wachsendem n die Varianz immer strker abnimmt.
n=200

Abbildung III 5: Dichten einer konsistenten Schtzfunktion fr verschiedene n


Konsistent sind z.B. das Stichprobenmittel und der Stichprobenanteilswert, da sie
bereits erwartungstreue Schtzer darstellen und wir an ihren Varianzen erkennen

111 Induktive Statistik

332

knnen, dass diese mit zunelunendem Stichprobenumfang immer geringer werden.


Die Ausdrcke Var(X) = (5' / n und Var(p) = p(1- p) / n gehen nmlich mit wachsendem n gegen Null. Die Stichprobenvarianz ist erwartungstreu und konsistent l1
Die fr die Schtzung der Varianz der Grundgesamtheit nabeliegende mittlere
quadratische Abweichung S' ist asymptotisch erwartungstreu und konsistent.
Die Konsistenz ist eine Mtntmalanjordernng an einen Schtzer. Sie kann als Versicherung dafr angesehen werden, dass ein groer Aufwand bei der Datenbeschaffung belohnt wird. Fr hinreichend groe Stichprobenumfange n drfen wir erwarten, dass konsistente Schtzer passable Schtzwerte liefern. Wenn ein Schtzer
nicht einmal konsistent ist, dann ist er meist nicht empfehlenswert.

1.3.5

Mittlerer quadratischer Fehler

Bei manchen Schtzproblemen ist ein erwartungstreuer Schtzer nicht immer der
beste, da Erwartungstreue des fteren mit einer allzu groen Varianz erkauft wird.
Um Varianzen zu verringern, ist man hufig sogar bereit kleine Verzerrungen in
Kauf zu nelunen. Letztendlich sollte die erwartete Nhe des Schtzwertes Zu seinem wahren Wert Entscheidungskriterium fr die Wahl eines Schtzers sein.
Erwartungswert und Varianz eines Schtzers, also
E(EJ) und Var(8)=E[[8-E(8)]'],
gehen in ihren sog. mittleren quadratischen Fehler (MQF) ein. Dieser kann als
Ma fr die Gte einer Schtzfunktion angesehen und durch Anwendung des Verschiebungssatzes auf die Zufallsvariable 8 in folgende Form gebracht werden:
E[(8 - ")'] = Var(S) + [E(S) - "]'
,

Mittl~

quadntillcher

Fehler

Varian2

dc5
5chi!z.ers

(1111: 38)

Qua"drat

der
Ver:zemJll8

Der MQF bercksichtigt also sowohl die Varianz als auch die Verzemmg (eng!.
bias). Wir erkennen an (1111: 38) und Abbildung III 6, dass der bergang zu einem
leicht verzerrten Schtzer 9 8 vorteilhaft sein kann, wenn damit zugleich eine wirksame Verkleinerung der Varianz erreicht wird.

Verzerrung.........

. __ _

----------j ,., (---<~- .. _--

'-----.:.::..:..--"'-..;-;...>....----"'.:....----+ S
"

Abbildung III 6: Vorteilhaftigkeit leicht verzerrter Schtzer

2
z
11 Hinweis: Es gilt E(rr) = 0 und VarC ) = ~(1l4
fr das 4. zentrale Moment E[(X-IlJ'] von X steht.

:=~ 0 4 ) fr n > 1, wobei

1'(4

abkrzend

333

1. Punktschtzung

Fr einen erwartungstreuen Schtzer ist die Verzerrung Null und somit entspricht

der MQF gerade der Varianz des Schtzers. Fr das Stichprobenmittel gilt also beispielsweise MQF(X) = ci' / n. Bei einem konsistenten Schtzer geht der MQF bei
n -+ ~ gegen Null. Streben mit wachsendem Stichprobenumfang sowohl Varianz
als auch die Verzerrung gegen Null, so weist der Schtzer auch die Eigenschaft der
Konsistenz auf.

1.4 Konstruktion von Schtzern


Zur Konstruktion von Schtzern liefert die statistische Methodenlehre zahlreiche
Verfahren, wie z.B. die Momentenmethode, die Maximum-Likelihood-Methode, die
Methode der kleinsten Quadrate, die Bayes-Methode, die Minimax-Methode usw.
Wir wollen im Folgenden exemplarisch die Methode der kleinsten Quadrate
(engl. ordinary least squares, OLS), die Maximum-Ukellhood-Methode (ML) und
die Momentenmethode (MM) vorstellen.'2 Die Maximum-Likelihood-Methode ist
ein zentrales Konzept der statistischen Schtztheorie. Die Methode der kleinsten
Quadrate ist vor allem aufgrund ihrer Einfachheit, die Momentenmethode aufgrund
ihrer Allgemeinheit interessant.

1.4_1

Methode der kleinsten Quadrate

Mittels der Methode der kleinsten Quadrate knnen in vielen Fllen brauchbare
Schtzer gewonnen werden. Sind etwa x" ... , x" die Beobachtungswerte aus einer
einfachen Stichprobe aus einer bestimmten Grundgesamtheit, so kann nach der
Methode der kleinsten Quadrate als Schtzwert fr den Erwartungswert 11 dieser
Grundgesamtheit derjenige Wert ~ verwendet werden, durch den die Summe der
quadrierten Abstnde des Schtzwertes ~ zu den Beobachtungswerten X, minimal
wird. Wir erhalten den Schtzwert also, indem wir den Term

:tex, -11)'
i=l

nach 11 ableiten, gleich Null setzen und schlielich nach 11 auflsen. Da die zweite
Ableitung dieses Terms nach 11 positiv ist, erhalten wir das Minimum
d

:t
i_ I

(x,

-11)'

dl1

~)(x,

-11)(-1)=-2L(x, -11)=0

1=1

1=1

1~

J..L=- ",-,Xl =x.


A

i=l

Wir knnen also das Stichprobenmittel X als Kleinst-Quadrate-Schtzfunktion fr 11

bezeichnen.

12 aLS werden wir im Rahmen des Kapitels IV noch intensiver betrachten. Eine umfassende

Behandlung der Momentenmethode fmdet sich bei Rottmann, H., Auer, B.R. (2011).

334

111 Induktive Statistik

1.4.2

Maximum-Likelihood-Methode

Da in der induktiven Statistik die Verteilung der Grundgesamtheit und somit auch
die gemeinsame Verteilung der Stichprobenvariablen X. unbekannt sind, ist es von
Vorteil alle als mglich erachteten Wahrscheinlichkeitsverteilungen zu betrachten.
Ist lediglich ein Parameter unbekannt, charakterisiert
fx, .....x"(x,, ... ,xn 1~)=fx(x,I~) ... fx(xn

I~)= TIfx(x, I~)

(nIl: 39)

1=1

die gemeinsame Wahrscheinlichkeitsfunktion (bzw. -dichte) der nunabhngigen


und identisch verteilten Stichprobenvariablen X" ... , X. unter der Bedingung, dass
der unbekannte Parameter den Wert ~ besitzt. (nIl: 39) wird als sog. IlkellboodFunktion bezeichnet13 Sie ist fr jeden festen Wert von ~ eine n-dimensionale
Wahrscheinlichkeitsfunktion (bzw. -dichte) und fr feste x" ... , X. einer konkteten
Stichprobe eine Funktion von ~. Im letztgenannten Fall gibt die Funktion dann die
Wahrscheinlichkeit (bzw. Dichte) dieser Stichprobe fr alle mglichen Werte von ~
an. Die Likelihood-Funktion fassen wir im Folgenden als Funktion von ~ auf und
schreiben fr sie

L(~ I x"

... ,xn) = TI fx(x,

I~)

(nIl: 40)

1=1

oder kurz L(~). Zur Schtzung des unbekannten Parameters ~ der gemeinsamen
Wahrscheinlichkeitsfunktion der Stichprobenvariablen fordert nun das MaximumIikelibood-Prinzip bei festem Stichprobenergebnis x" ... , X. denjenigen Wert if
zu whlen, der die Likelihood-Funktion L(~) (bzw. die Wahrscheinlichkeit fr das
Eintreten des beobachteten Stichprobenresultats) maximiert. Der auf diese Art und
Weise nach dem Prinzip "Nichts ist wahrscheinlicher als die Realitt" konstruierte
Schtzer
= g(X" ... ,Xn ) heit Maximum-Llkelihood-Schtzer.

Wenn sie existieren, sind Maximum-Likelihood-Schtzer Ld.R. konsistent, erwartungstreu oder zumindest asymptotisch erwartungstreu, effizient oder zumindest
asymptotisch effizient und unterliegen dem Zentralen Grenzwertsatz, d.h. sie sind

asymptotisch normalverteilt.

Beispiel 111 1-9

Schtzung des Parameters p einer B(n,p)-Verteilung

Im Anschluss an eine Studentenparty werden 10 Studenten von der Polizei kontrolliert.


Dabei wird bei den Studenten Nawid S. und Christian J. festgestellt, dass sie mehr als den
zur Fahrtauglichkeit erlaubten Promillewert Alkohol im Blut haben. Der Anteil der nicht fahrtauglichen Studenten in der Stichprobe liegt damit bei 2/10 = 0.2. Betrachten wir diese
Stichprobe als mit Zurcklegen gezogen und damit binomialverteilt, so ergibt sich die
Wahrscheinlichkeit dafr, dass die Anzahl X der nicht fahrtauglichen Studenten in der
Auswahl bei 2 liegt, in Abhngigkeit vom Anteilswert p der Grundgesamtheit als

13 Unter dem Begriff Likelihood versteht man die Wahrscheinlichkeit, dass ein Stichprobenergebnis bei einem angenommenen Wert der (des) Zu schtzenden Parameter(s) eintritt.
Dieses Konzept unterscheidet sich dadurch von dem der Wahrscheinlichkeit, dass eine
Wahrscheinlichkeit auf das Auftreten zuknftiger Ereignisse ausgerichtet ist, whrend ein
Ukelihood sich auf vergangene Ereignisse mit bekannten Ergebnissen bezieht.

1. Punktschtzung

335

P(X= 2)

=C~}'(l-P)"

Genau dies ist die Likelihood-Funktion L(p) fiir dieses Fallbeispiel. Man spricht hier gelegentlich auch von der Like/ihood-Funktion der konkreten Stichprobe. Fr ausgewhlte
Werte von p ergeben sich folgende Wahrscheinlichkeiten:
P
0,0
0,1

L(p) = P(X = 21 p)

0,0000000
0,1937102

0,6
0,7

0,2
0,3
0,4

0,3019899
0,2334744
0,1209324

0,8
0,9
1,0

0,5

0,0439453

L(p)=P(X=2Ip)
0,0106168
0,0014467
0,0000737
0,0000004
0,0000000

Wir erkennen, dass die Likelihood-Funktion bei p = 0,2 ihr Maximum erreicht. Der Maximum-Likelihood-Schtzwert fiir den unbekannten Anteilswert der Grundgesamtheit ist somit gleich dem Stichprobenanteilswert p = 0,2 .
Wir wollen nun die Funktion L(p) allgemein betrachten. Es gilt zunchst
L(p) = (:)P'(l- P)'-' .
Zur Bestimmung des Maximums dieser Funktion ist nach den Regeln der Differenzialrechnung ihre erste Ableitung nach p zu bilden und gleich Null zu setzen. Da die LikelihoodFunktion L(p) und ihr natrlicher Logarithmus In L(p), die sog. Log-Likelihood-Funktion, jedoch an derselben Stelle ihr Maximum besitzen, maximiert man meist nicht L(p) sondern In
L(p). Der Grund dafr ist darin zu finden, dass wir durch Logarithmieren das vorliegende
Produkt in eine Summe berfhren knnen, die sich leichter ableiten lsst. Wir erhalten
InL(p) = In(:)+ xlnp+ (n -x)ln(l-p),
womit sich die erste Ableitung zu
d InL(p)
dp

x
p

(n-x)
(l-p)

ergibt. Durch Nullsetzen und Auflsen dieses Terms und unter Beachtung der Tatsache,
dass die zweite Ableitung stels negativ ist, ergibt sich fr den Maximum-Likelihood-Schtzwert des Stichprobenanteilswerts

)(_(n-x)~o
p

(l-p)

->

x-xp=np-xii

_ x _

p=-=x.

Die Zufallsvariable p = X stellt also den Maximum-Likelihood-Schtzer fiir p dar.

Beispiel 111 1-10

Schtzung des Parameters 1.. einer Po(1..)-Verteilung

Liegt eine konkrete Stichprobe x" ... ,Xn vom Umfang n aus einer Poisson-verteilten Grundgesamtheit X - Po(1..) mit der Wahrscheinlichkeilsfunktion

336

111 Induktive Statistik

) _{~'xl e-'

fPo ( x -

fOr x=O,1,2, ...

sonst

vor, so erhalten wir den ML-Schtzwert fOr den unbekannten Parameter ~ > 0 wie folgl:
Die Likelihood-Funktion

L(~)" L(~lxl, ... ,X,)

der Stichproben realisation ist


x.

L(~) = IIfx(x,I~) = II-.,e-'.


1..1

1..1 XI'

Durch Logarithmieren erhalten wird daraus die Log-Like