Sie sind auf Seite 1von 171

Stochastische Modelle

(Statistik fur Fortgeschrittene I)


Prof. Dr. Karl Mosler
Skript zur Vorlesung
Universitat zu Koln
Wintersemester 2013/14

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

Oktober 2013

Inhaltsverzeichnis
1 Zuf
allige Ereignisse

1.1

Zufallsvorgange und ihre moglichen Ergebnisse . . . . . .

1.2

Verkn
upfung von Ereignissen

. . . . . . . . . . . . . . .

1.3

Rechenregeln f
ur Ereignisse . . . . . . . . . . . . . . . .

1.4

Ereignis-Algebra und EreignisAlgebra . . . . . . . . .

2 Wahrscheinlichkeit

Der Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . .

2.1

Die mathematische Wahrscheinlichkeit . . . . . . . . . .

2.2

LaplaceWahrscheinlichkeiten . . . . . . . . . . . . . . .

2.3

Interpretationen des Wahrscheinlichkeitsbegriffes . . . . .

2.4

Bemerkungen zur Geschichte der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

Rechenregeln und Formeln . . . . . . . . . . . . . . . . . . . . . . . .

10

2.5

Rechenregeln f
ur Wahrscheinlichkeiten . . . . . . . . . .

10

2.6

Die Formel von Sylvester . . . . . . . . . . . . . . . . . .

12

2.7

Die Ungleichung von BooleBonferroni . . . . . . . . . .

12

3 Kombinatorische Berechnung von Wahrscheinlichkeiten

15

Kombinatorische Grundlagen . . . . . . . . . . . . . . . . . . . . . .

15

3.1

Permutationen und Kombinationen . . . . . . . . . . . .

15

3.2

Binomialkoeffizienten . . . . . . . . . . . . . . . . . . . .

16

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

Oktober 2013

ii

INHALTSVERZEICHNIS
3.3

Die allgemeine binomische Formel . . . . . . . . . . . . .

17

Ziehen mit und ohne Zur


ucklegen . . . . . . . . . . . . . . . . . . . .

18

3.4

Ziehen ohne Zur


ucklegen (ZoZ) . . . . . . . . . . . . . .

18

3.5

Ziehen mit Zur


ucklegen (ZmZ)

20

. . . . . . . . . . . . . .

4 Bedingte Wahrscheinlichkeit und Unabh


angigkeit

23

Bedingte Wahrscheinlichkeit und Satz von Bayes . . . . . . . . . . . .

23

4.1

Definition der bedingten Wahrscheinlichkeit . . . . . . .

23

4.2

Satz von der totalen Wahrscheinlichkeit und Satz von Bayes

24

4.3

A-priori- und a-posteriori-Wahrscheinlichkeiten

. . . . .

24

Stochastische Unabhangigkeit von Ereignissen . . . . . . . . . . . . .

26

4.4

Der Multiplikationssatz . . . . . . . . . . . . . . . . . . .

28

4.5

BernoulliVersuchsreihe . . . . . . . . . . . . . . . . . .

28

4.6

Bemerkungen zur praktischen Bestimmung von Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . .

29

5 Zufallsvariable
Verteilung von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . .

31
31

5.1

Definition . . . . . . . . . . . . . . . . . . . . . . . . . .

31

5.2

Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . .

32

5.3

Diskrete und stetige Verteilungen . . . . . . . . . . . . .

33

5.4

Quantilfunktion . . . . . . . . . . . . . . . . . . . . . . .

34

5.5

Trager . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

6 Spezielle Verteilungen
Spezielle diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . .

37
37

6.1

Hypergeometrische Verteilung . . . . . . . . . . . . . . .

37

6.2

Binomialverteilung . . . . . . . . . . . . . . . . . . . . .

37

6.3

Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

6.4

Geometrische Verteilung . . . . . . . . . . . . . . . . . .

39

iii

INHALTSVERZEICHNIS
6.5

Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . .

39

6.6

Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

6.7

Diskrete Gleichverteilung . . . . . . . . . . . . . . . . . .

40

Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

6.8

Uniforme Verteilung . . . . . . . . . . . . . . . . . . . .

41

6.9

Exponentialverteilung

. . . . . . . . . . . . . . . . . . .

41

6.10

Normalverteilung . . . . . . . . . . . . . . . . . . . . . .

42

6.11

Doppelte Exponentialverteilung . . . . . . . . . . . . . .

42

Eigenschaften von Verteilungen . . . . . . . . . . . . . . . . . . . . .

42

6.12

Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . .

42

6.13

Modus . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

6.14

Unimodalitat . . . . . . . . . . . . . . . . . . . . . . . .

43

6.15

Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . .

44

6.16

Mischung von Verteilungen . . . . . . . . . . . . . . . . .

45

7 Transformation von Zufallsvariablen


Verteilung einer transformierten Zufallsvariablen . . . . . . . . . . . .

47
47

7.1

Verteilungsfunktion und Wahrscheinlichkeitsfunktion . .

47

7.2

Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

7.3

Wahrscheinlichkeitstransformation . . . . . . . . . . . . .

48

Lage- und Skalenfamilien . . . . . . . . . . . . . . . . . . . . . . . . .

49

7.4

Lage- und Skalenfamilien . . . . . . . . . . . . . . . . . .

8 Momente einer univariaten Verteilung


Erwartungswert und hohere Momente . . . . . . . . . . . . . . . . . .

49
51
51

8.1

Zentrale und nicht-zentrale Momente . . . . . . . . . . .

51

8.2

Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

8.3

Schiefe und Wolbung . . . . . . . . . . . . . . . . . . . .

53

8.4

Momente bei affiner Transformation . . . . . . . . . . . .

53

iv

INHALTSVERZEICHNIS
8.5

Invarianz eines Verteilungsparameters . . . . . . . . . . .

54

8.6

Satz (Formeln f
ur zentrale und nichtzentrale Momente) .

54

Berechnung von Verteilungsparametern f


ur spezielle Verteilungen . .

55

8.7

Bernoulli-Verteilung (vgl. 6.2) . . . . . . . . . . . . . . .

55

8.8

Exponentialverteilung (vgl. 6.9) . . . . . . . . . . . . . .

55

8.9

Ubersicht
u
ber die wichtigsten univariaten Verteilungen
und ihre Parameter. . . . . . . . . . . . . . . . . . . . .

57

Die Ungleichungen von Markoff und von Tschebyscheff .

61

8.10

9 Gemeinsame Verteilungen von Zufallsvariablen


Multivariate Verteilungen . . . . . . . . . . . . . . . . . . . . . . . .

63
63

9.1

Gemeinsame Verteilungsfunktion . . . . . . . . . . . . .

63

9.2

Gemeinsame diskrete Verteilung . . . . . . . . . . . . . .

64

9.3

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

64

9.4

Gemeinsame stetige Verteilung

. . . . . . . . . . . . . .

65

9.5

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

66

9.6

Unabhangigkeit zweier Zufallsvariablen . . . . . . . . . .

66

9.7

n-variate Verteilungen, n 2 . . . . . . . . . . . . . . .

66

Eigenschaften multivariater Verteilungen . . . . . . . . . . . . . . . .

68

9.8

Stochastische Unabhangigkeit bei Transformation . . . .

68

9.9

Verteilung des Minimums und des Maximums von i.i.d. Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . .

68

9.10

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

68

9.11

Dichte einer Summe und einer Differenz von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

9.12

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

9.13

Dichte eines Produktes und eines Quotienten von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

INHALTSVERZEICHNIS
10 Momente bei mehreren Zufallsvariablen
Erwartungswerte und Kovarianzen . . . . . . . . . . . . . . . . . . .

v
71
71

10.1

Multivariater Erwartungswert . . . . . . . . . . . . . . .

71

10.2

Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

71

10.3

Die Kovarianz zweier Zufallsvariablen . . . . . . . . . . .

72

10.4

Der Korrelationskoeffizient zweier Zufallsvariablen . . . .

73

10.5

Erwartungsvektor, Kovarianzmatrix, Korrelationsmatrix

74

Bedingte Momente und Regression . . . . . . . . . . . . . . . . . . .

74

10.6

Bedingte Erwartungswerte . . . . . . . . . . . . . . . . .

74

10.7

Regression erster Art . . . . . . . . . . . . . . . . . . . .

75

10.8

Bedingte Varianz . . . . . . . . . . . . . . . . . . . . . .

76

10.9

Regression zweiter Art (Lineare Regression) . . . . . . .

77

11 Spezielle multivariate Verteilungen


Multinomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . .
11.1

79
79

Die Multinomialverteilung . . . . . . . . . . . . . . . . .

79

Multivariate Normalverteilung . . . . . . . . . . . . . . . . . . . . . .

80

11.2

Die bivariate Normalverteilung . . . . . . . . . . . . . .

80

11.3

Die multivariate Normalverteilung . . . . . . . . . . . . .

81

Bivariate Exponentialverteilung . . . . . . . . . . . . . . . . . . . . .

82

11.4

Die bivariate Exponentialverteilung nach Marshall und Olkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12 Grenzwerts
atze
Schwaches Gesetz der groen Zahl . . . . . . . . . . . . . . . . . . . .
12.1

82
85
85

Satz (Schwaches Gesetz der groen Zahl) . . . . . . . . .

85

Konvergenzarten bei Zufallsvariablen . . . . . . . . . . . . . . . . . .

86

12.2

Konvergenz nach Wahrscheinlichkeit . . . . . . . . . . .

86

12.3

Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

87

12.4

Schwaches Gesetz der groen Zahl f


ur empirische Momente

88

vi

INHALTSVERZEICHNIS
12.5

Starkes Gesetz der groen Zahl . . . . . . . . . . . . . .

88

12.6

Konvergenz nach Verteilung . . . . . . . . . . . . . . . .

89

12.7

Konvergenz nach Wahrscheinlichkeit und fast sichere Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . .

90

12.8

Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . .

90

12.9

Approximation der Binomialverteilung . . . . . . . . . .

91

12.10 Approximation der Poisson-Verteilung . . . . . . . . . .

91

13 Stochastische Prozesse

93

Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . .

93

13.1

Stochastischer Prozess . . . . . . . . . . . . . . . . . . .

93

13.2

Unabhangige und identisch verteilte Zuwachse . . . . . .

94

13.3

Random Walk . . . . . . . . . . . . . . . . . . . . . . . .

94

13.4

Ankunftsprozess und Erneuerungsprozess . . . . . . . . .

95

13.5

Stochastischer Prozess in stetiger Zeit . . . . . . . . . . .

95

Poisson-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

13.6

Definition des Poisson-Prozesses . . . . . . . . . . . . . .

96

13.7

Anwendung: Bedienungssystem . . . . . . . . . . . . . .

97

13.8

Zusammengesetzter Poisson-Prozess . . . . . . . . . . . .

98

14 Wiener-Prozesse

99

Brownsche Bewegung und allgemeiner Wiener-Prozess . . . . . . . . .

99

14.1

Definition der Brownschen Bewegung . . . . . . . . . . .

99

14.2

Allgemeiner Wiener-Prozess . . . . . . . . . . . . . . . .

102

14.3

Wiener-Prozess mit Drift . . . . . . . . . . . . . . . . . .

103

Stochastische Differentialgleichungen . . . . . . . . . . . . . . . . . .

104

14.4

Ito-Differentialgleichung . . . . . . . . . . . . . . . . . .

105

14.5

Geometrische Brownsche Bewegung . . . . . . . . . . . .

106

14.6

Ito Lemma . . . . . . . . . . . . . . . . . . . . . . . . . .

108

14.7

Brownsche Br
ucke

. . . . . . . . . . . . . . . . . . . . .

110

14.8

Gau-Prozesse . . . . . . . . . . . . . . . . . . . . . . . .

112

vii

INHALTSVERZEICHNIS
15 Markoff-Ketten
Definition und Anwendungsbeispiele

113
. . . . . . . . . . . . . . . . . .

113

15.1

Beispiel: Kraftfahrzeughaftpflichtversicherung . . . . . .

113

15.2

Markoff-Kette . . . . . . . . . . . . . . . . . . . . . . . .

114

15.3

Ubergangsmatrix,
Anfangsverteilung . . . . . . . . . . .

115

15.4

Berechnung von Wahrscheinlichkeiten . . . . . . . . . . .

116

15.5

Unendlicher Zustandsraum . . . . . . . . . . . . . . . . .

117

15.6

Anwendung: Lagerhaltung . . . . . . . . . . . . . . . . .

118

15.7

Anwendung: Restlebensdauer eines Bauteils . . . . . . .

118

Eigenschaften von Markoff-Ketten . . . . . . . . . . . . . . . . . . . .

119

15.8

Unabhangigkeit von Vergangenheit und Zukunft . . . . .

119

15.9

Erreichbarkeit von Zustanden, Periodizitat . . . . . . . .

120

15.10 Invariante Verteilung . . . . . . . . . . . . . . . . . . . .

121

15.11 Ergodensatze . . . . . . . . . . . . . . . . . . . . . . . .

122

15.12 Anwendung: Lange einer Warteschlange

122

. . . . . . . . .

16 Station
are Prozesse
Stationaritat

125

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

125

16.1

Einf
uhrende Beispiele . . . . . . . . . . . . . . . . . . . .

125

16.2

Stationaritat . . . . . . . . . . . . . . . . . . . . . . . . .

128

Wichtige stationare Prozesse . . . . . . . . . . . . . . . . . . . . . . .

130

16.3

Autoregressive Prozesse . . . . . . . . . . . . . . . . . .

130

16.4

Gleitende Durchschnitte . . . . . . . . . . . . . . . . . .

130

16.5

ARMA-Prozesse . . . . . . . . . . . . . . . . . . . . . . .

131

Lineare Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

132

16.6

Lineare Filter . . . . . . . . . . . . . . . . . . . . . . . .

132

viii

INHALTSVERZEICHNIS

A Erg
anzende Beispiele

135

A.1

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

135

A.2

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

136

A.3

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

136

A.4

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

137

A.5

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

139

A.6

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

140

A.7

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

140

A.8

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

141

A.9

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

143

A.10

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

144

A.11

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

145

A.12

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

146

A.13

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

148

A.14

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

148

A.15

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

149

A.16

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

150

A.17

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

151

A.18

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

153

A.19

Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

153

B Literaturverzeichnis

155

C Einige mathematische Symbole

159

VORBEMERKUNG

ix

Vorbemerkung
Grundlage des statistischen Schlieens ist die Wahrscheinlichkeitsrechnung. Wer
also statistische Methoden verstehen und eventuell selber anwenden will, muss
zunachst lernen, mit Wahrscheinlichkeiten und Groen, die nur nach Wahrscheinlichkeit bekannt sind, namlich Zufallsvariablen, zu rechnen.
Einen theoretischen Ansatz, in dem bestimmte Groen als Zufallsvariablen aufgefasst werden, nennt man ein stochastisches Modell. Stochastische Modelle finden
in allen Bereichen der Wirtschaftswissenschaften Verwendung, nicht nur in der

schlieenden Statistik. Zentral sind sie in der Okonometrie


und im Bereich Investition und Finanzierung. Stochastische Prozesse sind Zufallsvariable, die von der
Zeit abhangen. Man benotigt sie zur Modellierung und statistischen Analyse von
okonomischen Zeitreihen.
Dieses Skript umfasst den Stoff meiner Vorlesung Stochastische Modelle (Statistik f
ur Fortgeschrittene I), die sich an Studierende im Masterstudium der Wirtschaftswissenschaften richtet. Es soll den Horern der Vorlesung als Leitfaden und
Hilfe beim Mitschreiben dienen sowie dazu, sich die Teile der Wahrscheinlichkeitsrechnung, die bereits Stoff des Unterrichts an Gymnasien oder einer einf
uhrenden
Statistik-Vorlesung im Bachelorstudium waren, wieder ins Gedachtnis zu rufen.
Das Skript ist kein Lehrbuch, es beschrankt sich auf das Skelett der Vorlesung.

Das Skript enthalt alle Definitionen und Satze, dazu knapp skizzierte Beispiele und Bemerkungen. Es wird durch ausgewahlte, vollstandig geloste Aufgaben
erganzt. Lehrb
ucher, die sich zur Erganzung der Vorlesung und zum Selbststudium eignen, sind im Literaturverzeichnis aufgef
uhrt.
In der Vorlesung und im Skript werden die Vertrautheit mit mathematischer Notation und gewisse mathematische Grundkenntnisse vorausgesetzt. In den ersten
vier Kapiteln ist dies lediglich die Mengenschreibweise und das Rechnen mit Mengen und mit Summen von Zahlen. Ab Kapitel 5 wird dann auch mit Grenzwerten
gerechnet und die Differential- und Integralrechnung verwandt. Zum Nachschlagen mathematischer Sachverhalte sei auf eines der zahlreichen Lehrb
ucher der

Mathematik f
ur Okonomen verwiesen, etwa Mosler, Dyckerhoff, Scheicher (2011).
Auf der Wahrscheinlichkeitsrechnung baut meine Vorlesung Schlieende Statis
tik (Statistik f
ur Fortgeschrittene II) auf. Zu ihr existiert ein eigenes Skript.
Dieses Skript enthalt gewiss noch Fehler und Ungenauigkeiten. F
ur Verbesserungshinweise der Leser bin ich (und sind k
unftige Studenten) sehr dankbar.

Koln, im September 2013

Karl Mosler

VORBEMERKUNG

Kapitel 1
Zuf
allige Ereignisse
Die Wahrscheinlichkeitsrechnung hat zum Ziel, zufallsbehaftete Vorgange zu
quantifizieren. Ein Zufallsvorgang ist ein Vorgang, dessen Ergebnis ex ante (im
voraus) nicht feststeht. Wenn der Vorgang geplant ist, nennt man ihn auch ein
Zufallsexperiment. Wir beginnen mit einigen Beispielen.
1.1

Zufallsvorg
ange und ihre mo
glichen Ergebnisse

(1) Bevorstehende Geburt.


Ergebnis = Geschlecht {Junge, Madchen}.

(2) Qualitatspr
ufung eines aus einem Container mit unsortierten Apfeln
gezogenen Apfels.
Ergebnis = Handelsklasse {Ia, I, II, keines davon}.
(3) Lebensdauerpr
ufung eines technischen Gerates (z.B. Computer-Ventilator).
Ergebnis = Dauer der korrekten Funktion IR+ = {x | x 0}.
(4) Dollarkurs heute in einem Monat.
Ergebnis = Fixing an der Frankfurter Devisenborse IR+
oder [1.4, 2.3] oder ...
(5) Ertrag einer bestimmten Investition.
Ergebnis = Gewinn nach Steuern IR.
(6) Morgige Brotverkaufszahlen einer Backereifiliale.
Ergebnis = (Zahl Schwarzbrote, Zahl Graubrote) {(m, n) | m IN0 , n
IN0 } = IN0 IN0 .
(7) M
unzwurf.
Ergebnis { Zahl, Wappen }.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013


KAPITEL 1. ZUFALLIGE
EREIGNISSE

2
(8) Roulette.
Ergebnis {0, 1, . . . , 36}.

(9) Zweifacher W
urfelwurf.
Ergebnis = (1.Augenzahl, 2.Augenzahl) {(1 , 2 ) | 1, 2 IN6 },
wobei IN6 = {1, 2, 3, 4, 5, 6}.
(10) W
urfelwurf bis erstmals eine Sechs erscheint.
Ergebnis = Folge von Augenzahlen
{(1 , 2 , . . .) | i IN6 , i IN} oder
{(1 , 2 , . . . , k1, 6) | i IN5 , i = 1, . . . , k 1,
{(1 , 2 , . . .) | i IN5 }.

k IN}

Die Menge aller moglichen Ergebnisse eines Zufallsvorgangs wird Ergebnismenge


genannt und mit bezeichnet. Ein Element heit Ergebnis, eine Teilmenge
A heit Ereignis; ein einelementiges Ereignis {} ist ein Elementarereignis,
.
Bemerkungen
1. Auch vergangene Vorgange konnen Zufallsvorgange sein, wenn ihr Ergebnis
nicht feststeht.
Beispiel: Fr
uherer Unfall bei einem angebotenen Gebrauchtwagen.
2. Beispiele (7) bis (10) lassen sich in einfacher Weise wiederholt realisieren.
Sie werden als Standard-Zufallsexperimente bezeichnet. Die Beispiele (2)
und (3) sind wiederholbare Experimente, die Beispiele (1) und (6) ceteris

paribus ebenfalls. Beispiel (5) ist eher nicht wiederholbar.

(Ubung:
Diskutieren Sie geeignete ceteris-paribus-Annahmen!)
1.2

Verknu
pfung von Ereignissen

1. Beim Roulette (Beispiel (8)):


= {0, 1, 2, . . . , 36},
Zero
Z = {0},

Impair I = {1, 3, . . . , 35},

Pair
P = {2, 4, . . . , 36}.

Sprechweise: Das Ereignis I tritt ein, wenn der Zufallsvorgang ein Ergebnis
I hat.
Es gilt: Z ist Komplementarereignis von I P ,
Z = \ (I P ) = I P = I P
I und P sind disjunkt, I P = .
I, P , Z ist eine vollstandige Zerlegung (Partition) von .


KAPITEL 1. ZUFALLIGE
EREIGNISSE

2. Bei der Investition (Beispiel (5)):


Ertrag positiv

A = { R | > 0}.

3. Beim Backer (Beispiel (6)):


Insgesamt k St
uck verkauft:

Ak = {(m, n) | m, n IN0 ,

m + n = k},

Mindestens k St
uck verkauft:

Bk = {(m, n) | m, n IN0 ,

m + n k}.

Es gilt:
A0 = {(0, 0)},
A1 = {(0, 1), (1, 0)},
A2 = {(0, 2), (1, 1), (2, 0)}, und so weiter.

B0 = ist das sichere Ereignis,


B1 = \ A0 = A0 ,
B2 = \ (A0 A1 ) und so weiter.

= ist das unmogliche Ereignis.


1.3

Rechenregeln fu
r Ereignisse

(1) Es gilt:
A B = B A,
A B = B A,

(A B) C = A (B C),
(A B) C = A (B C),

A (B C) = (A B) (A C),
A (B C) = (A B) (A C),
A B = A B,
A B = A B.

(2)
A,
A \ B = A B,
A = (A B) (A B) = (A B) (A \ B),
A = A, A = ,
A B A B = A, A B = B.


KAPITEL 1. ZUFALLIGE
EREIGNISSE

(3) Die Vereinigung von Mengen hangt nicht von der Reihenfolge ab, in der die
Operation durchgef
uhrt wird; ebenso der Durchschnitt. F
ur eine Familie von
Mengen (Bi )iI , die mit einer beliebigen Indexmenge indiziert ist, definiert
man die Vereinigung beziehungsweise den Durchschnitt durch
T
Bi : = { | Bi f
ur alle i I},
iI
S
Bi : = { | Bi f
ur mindestens ein i I}.
iI

Es gelten die entsprechenden Rechenregeln wie f


ur Durchschnitte und Vereinigungen zweier Mengen:
!
[
[
A
Bi
=
(A Bi ) ,
iI

iI

Bi

iI

Bi =

iI

iI

(A Bi ) ,
Bi ,

iI

Bi =

iI

1.4

Bi .

iI

Ereignis-Algebra und EreignisAlgebra

Haufig betrachtet man nicht alle Teilmengen der Ergebnismenge als Ereignisse,
sondern nur einen Teil von ihnen. Bezeichne P() die Menge aller Teilmengen von
; sie heit die Potenzmenge von . Sei A P() eine Menge von Teilmengen,
die alle interessierenden Ereignisse enthalt. Um mit Ereignissen in A rechnen zu
konnen, fordert man folgende Eigenschaften:
Das sichere Ereignis ist ein Ereignis.
Das Komplement eines Ereignisses ist ein Ereignis.
Die Vereinigung von Ereignissen ist ein Ereignis.
Der Durchschnitt von Ereignissen ist ein Ereignis.
Definition Sei eine Menge, A P().
1. A heit EreignisAlgebra auf , wenn die folgenden vier Eigenschaften zutreffen:


KAPITEL 1. ZUFALLIGE
EREIGNISSE

(i) A,

(ii) A A A A,

(iii) A, B A A B A,

(iv) A, B A A B A.

2. A heit EreignisAlgebra, wenn (i), (ii) und (iii) zutrifft:


S
Ai = A1 A2 . . . A.
(iii) Ai A f
ur alle i IN
iIN

Bemerkungen

1. Bedingung (iii) folgt aus Bedingung (iii) (Ubung!),


also ist jede Ereignis
Algebra auch Ereignis-Algebra.
2. Zu jeder Ereignisalgebra A gehort nicht nur (wegen (i)) die ganze Ergebnismenge , sondern (wegen (ii)) auch ihr Komplement, die leere Menge
.
3. Die Forderung (iv) ist ist f
ur die Definition einer Ereignisalgebra entbehrlich. Sind namlich A und B Ereignisse in A, dann sind wegen (ii) auch
A und B Ereignisse in A, und wegen (iii) auch A B A. Es gilt aber
allgemein die Formel A B = A B, und deshalb folgt A B A.
4. Die Potenzmenge P(), das ist die Menge aller Teilmengen von , ist jedenfalls eine EreignisAlgebra: Man u
uft unmittelbar die Bedingungen
berpr
(i), (ii) und (iii). Falls eine endliche oder abzahlbar unendliche Menge
ist, wahlt man in der Regel A = P() als EreignisAlgebra.
5. Um Grenzbetrachtungen (siehe die Grenzwertsatze in Kapitel 12)
durchf
uhren zu konnen, benotigt man die starkere Bedingung (iii).

KAPITEL 1. ZUFALLIGE
EREIGNISSE

Kapitel 2
Wahrscheinlichkeit
Der Wahrscheinlichkeitsbegriff
2.1

Die mathematische Wahrscheinlichkeit

Definition Sei eine Menge, A eine EreignisAlgebra und sei P : A [0, 1],
A 7 P (A), eine Funktion. Falls
(i) P () = 0,
(ii) A1 , A2 A,

P () = 1,
A1 A2 =

P (A1 A2 ) = P (A1 ) + P (A2 ),

heit P endlichadditive Wahrscheinlichkeit auf A.


Falls A eine EreignisAlgebra ist, (i) gilt und
A1 , A2 , . . . S
A, paarweise

Pdisjunkt

P
(A
)
,
A
)
=
.kurz
P(
i
i=1
i=1 i

P (A1 A2 . . .) = P (A1 ) + P (A2 ) + . . . ,

heit P Wahrscheinlichkeit (oder Wahrscheinlichkeitsma ) auf A, und (, A, P )


heit Wahrscheinlichkeitsraum.
Bemerkungen
1. Jede Wahrscheinlichkeit auf einer EreignisAlgebra A ist auch endlichadditive Wahrscheinlichkeit auf der EreignisAlgebra A.
2. Man mache sich klar, dass f
ur beliebige Ereignisse in A die Wahrscheinlichkeitsungleichung P (A1 A2 ) P (A1 ) + P (A2 ) gilt.
3. Die Eigenschaften (i) und (ii) von P heien auch die Kolmogoroffschen
Axiome. Sie wurden 1933 von Kolmogoroff aufgestellt.1
1

A. Kolmogoroff, Grundbegriffe der Wahrscheinlichkeitsrechnung, Berlin 1933

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

Oktober 2013

KAPITEL 2. WAHRSCHEINLICHKEIT

2.2

LaplaceWahrscheinlichkeiten

(Vergleiche W
urfel, M
unzwurf, Roulette, Ziehung der Lottozahlen.)
ur alle i = 1, . . . , n.
Sei = {1 , 2 , . . . , n } endlich, A = P(), P ({i}) = n1 f
Wegen 2.1(ii) muss gelten
P (A) =

X 1
1
= |A|,
n
n
A

wobei

|A| : = Anzahl der Elemente von A. |A| wird auch die Anzahl der (f
ur A) g
uns
tigen Falle, n die Anzahl der moglichen Falle genannt, also

|A|
Anzahl der g
unstigen Falle
P (A) =
=
.
n
Anzahl der moglichen Falle
Bemerkung Die Bedingung P ({i}) = n1 f
ur alle i = 1, . . . , n muss nicht f
ur
die Elementarereignisse aus Definition 2.1 zutreffen. So ist die Ergebnismenge
der Summe der Augenzahlen beim Werfen zweier W
urfeln = {1 , . . . , 11 } =
1
1
{2, . . . , 12}, aber es gilt P ({i}) 6= 11 = n f
ur alle i = 1, . . . , 11.
Anwendungen
1. Roulette: n = 37, P (Z) =

1
,
37

P (I) = P (P ) =

18
37

2. Faire M
unze: n = 2, P (Wappen) = P (Zahl) = 12

3. Verhalten bei Ungewissheit: Seien n verschiedene sich ausschlieende


Zustande moglich. Zum Beispiel wird von n Pferden im Rennen genau eines
gewinnen. Das Ergebnis Zustand i tritt ein ist dann gleichbedeutend mit

Pferd i gewinnt. Wenn nichts weiter bekannt ist, wird haufig die subjek
tive Wahrscheinlichkeit
P (Zustand i tritt ein, das heit Pferd i gewinnt ) = n1 gesetzt.
4. Einfache Zufallsauswahl: Aus einer Grundgesamtheit von n Merkmalstragern, zum Beispiel Kaufern eines bestimmten Produktes, wird auf
zufallige Weise ein Merkmalstrager ausgewahlt und beobachtet. Dann geht
man davon aus, dass
P (Merkmalstrager i wird ausgewahlt) =

1
.
n

m der n Merkmalstrager mogen eine bestimmte Eigenschaft B besitzen,


z.B. das Produkt zum ersten Mal kaufen. Dann ist
m
P (Der ausgewahlte Merkmalstrager hat die Eigenschaft B) = .
n

DER WAHRSCHEINLICHKEITSBEGRIFF

Das Urnenmodell fur die einfache Zufallsauswahl:


n Kugeln befinden sich in einer Urne. Sie unterscheiden sich durch bestimmte Eigenschaften, etwa Farbe und Numerierung, sind aber in Groe
und Gewicht gleich. Die Urne ist ein Gefa, in dem die Kugeln gut gemischt
und aus dem einzelne Kugeln verdeckt gezogen werden konnen. Der einfachen Zufallsauswahl entspricht, dass man nach gr
undlichem Mischen eine
Kugel blind zieht.

2.3

Interpretationen des Wahrscheinlichkeitsbegriffes

1. Haufigkeitsinterpretation:
Falls der Zufallsvorgang im Prinzip beliebig oft und unabhangig voneinander wiederholbar ist, erwartet man, dass die relative Haufigkeit eines Ereignisses A nahe an P(A) herankommt.

2. Entscheidungstheoretische Interpretation:
Folgende Interpretation macht auch bei nichtwiederholbaren Zufallsvorgangen Sinn. Ein Individuum (der Entscheidungstrager) wettet auf das
Eintreten von A. Es erhalt die Auszahlung 100, falls A eintritt, und die
Auszahlung 0, falls A nicht eintritt. Um diese Wette einzugehen, sei das Individuum dazu bereit, maximal den Einsatz z zu zahlen. Die Auszahlungen
und der Einsatz werden in Nutzeneinheiten gemessen und seien durch die
Beziehung
z = 100 P (A) + 0 P (A),

also P (A) =

z
,
100

miteinander verkn
upft. Dies bedeutet, dass das Individuum die Wette mit
dem gewichteten Mittel der Auszahlungen bewertet; Gewichte sind die
(subjektiven) Wahrscheinlichkeiten. Umgekehrt entspricht die (subjektive)
Wahrscheinlichkeit in Prozent, die das Individuum dem Ereignis A beimisst,
gerade seinem maximalen Wetteinsatz.

Bei (1) spricht man von objektiver Wahrscheinlichkeit; sie wohnt dem Ereignis
inne wie eine physikalische Groe. Bei (2) spricht man von subjektiver Wahrscheinlichkeit.

10
2.4

KAPITEL 2. WAHRSCHEINLICHKEIT
Bemerkungen zur Geschichte der Wahrscheinlichkeitsrechnung

Zufallsexperiment
W
urfelwahrscheinlichkeiten
Theorie der Gl
ucksspiele:
Gesetz der groen Zahlen:
Zentraler Grenzwertsatz:
Methode der kleinsten Quadrate:
WienerProzesse:
Axiomatische Begr
undung:

Moses (Buch Exodus)


Girolamo Cardano (15011576)
Galileo Galilei (15641642)
Blaise Pascal (16231662)
Pierre de Fermat (16011665)
Jakob Bernoulli (16541705)
A. de Moivre (16671754)
Karl Friedrich Gauss (17771855)
L. Bachelier (1900), A. Einstein (1905),
N. Wiener (18941964)
A.N. Kolmogoroff (19001989)

Rechenregeln und Formeln


2.5

Rechenregeln fu
r Wahrscheinlichkeiten

Die folgenden Regeln ergeben sich unmittelbar aus der obigen Definition 2.1 der
mathematischen Wahrscheinlichkeit.
(1)

AB

.........
...................... ..............................
.......
.......... ..........
......
.......
.
..... .......... ...........
.....
....
...
.
.
...
...
...
....
....
..
..
.
.
...
..
...
..
.
.
...
...
...
..
.
...
.
.
....
.
.
..
......
.
......
.
.
.
.
.
.
.
...
....... ................
..........
.......
...................... ..............................
.........

P (B \ A) = P (B) P (A),
P (A) P (B)

Beweis: B = A (B \ A), A (B \ A) = . Wegen 2.1(ii) folgt P (B) =


P (A) + P (B \ A),
also P (B \ A) = P (B) P (A). Da P (B \ A) 0 ist, folgt ferner P (A)
P (B).
(2) P (A) = 1 P (A)
Beweis: Dies folgt aus (1), wenn man B = einsetzt.
(3) P (B \ A) = P (B) P (A B)
........................ ...............................
.....
........
.......
....
.....
.....
...
...
... .....
..
...
.
...
...
.
..
....
....
..
..
...
....
..
...
...
..
.
...
.
..
.
...
...
.
.
.
.
.
... ...
...
.
.
.
.
......
....
....
.
......
............ ................................. ................
...
...

Beweis: Es gilt B \ A = B \ (A B) und


A B B. Mit A B statt A in (1) folgt
die Behauptung.

11

RECHENREGELN UND FORMELN


(4) P (A B) = P (A) + P (B) P (A B)

Beweis: A B = (A \ B) (B \ A) (A B), und die Vereinigung ist


disjunkt. Also gilt
P (A B) = P (A \ B) + P (B \ A) + P (A B)
(3)

= P (A) P (A B) + P (B) P (B A) + P (A B)
= P (A) + P (B) P (A B).

Anwendung von (4): Beim Roulette ist das Ereignis Rouge gleich

R = {1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23, 25, 27, 30, 32, 34, 36}, I bedeutet
wie bisher Impair. Die Wahrscheinlichkeit f
ur Rouge oder Impair be

rechnet man aus


P (I) = P (R) =

18
,
37

P (I R) =

10
,
37

P (I R) = P (I) + P (R) P (I R) =

18
37

18
37

10
37

26
.
37

(5)
P (A B C) = P (A) + P (B) + P (C)
P (A B) P (A C) P (B C)
+ P (A B C)

Beweis: Mit Hilfe von (4) (Ubung!).


(6) Falls {A1 , A2 , . . . , AM } Zerlegung von ist, gilt der Satz von der totalen
Wahrscheinlichkeit
M
X
P (B Ai ).
P (B) =
i=1

Beweis: B A1 , B A2 , . . ., B AM sind disjunkt. Also gilt:


!
!
M
M
M
X
[
[
P (B Ai ) = P
(B Ai ) = P B
Ai = P (B).
i=1

i=1

i=1

Beispiel zu (6):
(a) In Venedig auf dem Markusplatz wahlen Sie einen Passanten zufallig aus
und sprechen ihn an.
B : Der Passant versteht Englisch,

A1 : Der Passant ist Italiener,

A2 : Der Passant ist Auslander.

12

KAPITEL 2. WAHRSCHEINLICHKEIT
Dann ist die Wahrscheinlichkeit P(B), dass der Passant Englisch versteht,
gleich der Wahrscheinlichkeit P (B A1 ), dass er Englisch versteht und Italiener ist, plus der Wahrscheinlichkeit P (B A2 ), dass er Englisch versteht
und Auslander ist.

(b) In einer Urne befinden sich n Kugeln, die entweder blau, gelb oder wei und
auerdem mit einer Zahl versehen sind. Von den blauen und gelben Kugeln
ist jede zweite mit einer ungeraden Zahl versehen, von den weien keine.
Man zieht zufallig eine Kugel.
Wie gro ist die Wahrscheinlichkeit, dass sie eine ungerade Zahl tragt?
Antwort:
A1 : Die

A2 : Die

A3 : Die

B : Die

Kugel ist blau,


Kugel ist gelb,
Kugel ist weiss,
Kugel tragt eine ungerade Zahl.
P (B) = P (B A1 ) + P (B A2 ) + P (B A3 )
|A1 | |A2 |
0
=
+
+
2n
2n
2n
|A1 | + |A2 |
=
2n

2.6

Die Formel von Sylvester

Satz
P (A1 A2 . . . An ) =
+

X
i

P (Ai )

i,j,k:i<j<k
n1

+ (1)

i,j:i<j

P (Ai Aj)

P (Ai Aj Ak ) . . .

P (A1 A2 . . . An )

Beweis F
ur n = 2 und n = 3 erhalten wir die obigen Formeln 2.5(4) beziehungsweise 2.5(5). F
ur jedes groere n kann man die Sylvester-Formel entsprechend
ausrechnen; allgemein beweist man sie durch vollstandige Induktion nach n.
2.7

Die Ungleichung von BooleBonferroni

Satz
1

n
X
i=1

P (Ai ) P (A1 A2 . . . An ) min P (Ai )


i

13

RECHENREGELN UND FORMELN


Beweis
P (A1 . . . An ) P (Ai) f
ur jedes i, also
P (A1 A2 . . . A2 ) =
=

da P (A1 A2 . . . An )

min P (Ai )
i

1 P (A1 A2 . . . An )
1 P (A1 A2 . . . An )
1 (P (A1 ) + P (A2 ) + . . . P (An )),
P (A1 ) + P (A2 ) + . . . P (An ) ist.

Anwendungen
1. Zuverlassigkeit einer Maschine: Eine Maschine besteht aus mehreren
Teilen; sie funktioniert, wenn alle Teile funktionieren. Sei
Ai : Teil i funktioniert.

Die Ungleichungen liefern dann Schranken f


ur die Wahrscheinlichkeit, dass
die Maschine funktioniert.
2. Zuverlassigkeit einer Dateisicherung: Es werden mehrere Sicherungskopien
einer Computerdatei erstellt. Die Sicherung ist dann erfolgreich, wenn mindestens eine der Kopien funktioniert, d.h. beim Backup ohne Datenverlust

zur Verf
ugung steht. Zu berechnen ist die Wahrscheinlichkeit einer Vereinigung von Ereignissen. Wie lasst sich dies mit den obigen Ungleichungen

abschatzen? (Ubung!)
3. Prognose: Haufig wird nicht nur eine okonomisch relevante Groe prognostiziert, sondern mehrere zugleich, indem entsprechende Prognoseintervalle
angegeben werden. Sei
Ai : Das i-te Prognoseintervall enthalt die k
unftige Realisation der

entsprechenden Groe.
Die Bonferroni-Ungleichungen beschranken die Wahrscheinlichkeit, dass
die Prognosen simultan zutreffen.

Bemerkungen
P
1. Die untere Bonferroni-Schranke 1 i P (Ai) kann ausarten, das heit

kleiner oder gleich 0 sein. Dann liefert sie keine Information.

14

KAPITEL 2. WAHRSCHEINLICHKEIT
2. Scharfere Schranken erhalt man durch die sogenannte InklusionsExklusions-Methode. In der Sylvester-Formel 2.6 ist der erste Summand der
rechten Seite groer als die linke Seite, die beiden ersten Summanden zusammen jedoch kleiner. Die ersten drei Summanden u
bersteigen wiederum
die linke Seite. Das setzt sich alternierend fort, so dass man abwechselnd
obere und untere Schranken f
ur P (A1 A2 . . . An ) erhalt. Die gleiche

ur
Uberlegung liefert auch (mit Ai statt Ai ) untere und obere Schranken f
P (A1 A2 . . . An ) = 1 P (A1 A2 . . . An ).

Kapitel 3
Kombinatorische Berechnung von
Wahrscheinlichkeiten
Kombinatorische Grundlagen
3.1

Permutationen und Kombinationen

Gegeben seien n unterscheidbare Objekte x1 , x2 , . . . xn , z.B. von 1 bis n numerierte


Kugeln in einer Urne.
Problem 1 Wieviele verschiedene Moglichkeiten gibt es, die n Objekte der Reihe
nach anzuordnen? Jede solche Moglichkeit heit Permutation (oder Anordnung)
der x1 , . . . , xn .
Losung: Es sind n Positionen in einem Vektor (, , . . . , ) an die xi zu verteilen.
F
ur die erste Position gibt es n Moglichkeiten, ein xi auszuwahlen. F
ur die zweite
Position stehen dann nur n1 der xi zur Verf
ugung; es gibt demnach f
ur jede der
n Moglichkeiten in der ersten Position noch n 1 Moglichkeiten in der zweiten
Position, also n(n 1) Moglichkeiten. Dies setzt sich in der dritten und den
folgenden Positionen mit n 2, n 3 usw. fort. Wir erhalten n! = n(n 1)(n
2) . . . 1 verschiedene Permutationen von x1 , . . . xn . (Formal zeigt man dies durch

vollstandige Induktion nach n. Ubung!)


Problem 2 k der n Objekte mogen eine Eigenschaft A besitzen, z.B. mogen k
Objekte gelb markiert sein, der Rest blau. Wieviele Anordnungen gibt es, wenn
die Objekte, die die Eigenschaft A haben, nicht voneinander unterschieden werden, und ebenso die Objekte, die die Eigenschaft A nicht haben? (Im Beispiel
d
urfen dann je zwei gelbe Kugeln in der Anordnung vertauscht werden, und je
zwei blaue ebenfalls.) Eine solche Anordnung (genauer: Klasse von Anordnungen)
heit Kombination von k aus n Objekten.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

16

KAPITEL 3. KOMBINATORISCHE WAHRSCHEINLICHKEITEN

Losung: Man betrachte eine gegebene Anordnung der n Objekte. Vertauscht man
die k Objekte mit Eigenschaft A auf ihren Platzen, so erhalt man insgesamt k!
Anordnungen, die nicht voneinander unterschieden werden. Vertauscht man die
u
brigen n k Objekte auf ihren Platzen, sind es wiederum (n k)! nicht unterschiedene Anordnungen. Dies gilt f
ur jede gegebene Anordnung der n Objekte.
Man hat also die Zahl aller Anordnungen der n Objekte durch k!(n k)! zu
dividieren und erhalt
n!
k!(n k)!
f
ur die Zahl der Kombinationen von k aus n Objekten. Es gilt

n!
n(n 1)(n 2) ... (n k + 1)
=
k!(n k)!
1 2 3 ... k
f
ur k = 1, 2, ..., n. Z.B. f
ur n = 99 und k=3 erhalt man

999897
123

= 156849.

Beispiel In einem Tennisverein, der aus 21 Mitgliedern besteht, wird


a) ein erster und ein zweiter Vorsitzender und ein Schatzmeister gewahlt,
b) ein dreikopfiges Organisationskomitee f
ur eine Weihnachtsfeier bestimmt,
c) eine Rangliste erstellt,
d) eine Essensbestellung f
ur die Weihnachtsfeier aufgegeben, bei der jeder eines
von zwei angebotenen Men
us auswahlt.

Wieviele Moglichkeiten gibt es jeweils? (Ubung!)

3.2

Binomialkoeffizienten

Man definiert 0! = 1 und n! = n(n 1)! f


ur jedes n IN. F
ur beliebige ganze
Zahlen n und k ZZ heit
  
n!
f
ur
k = 0, 1, 2, ..., n und n = 0, 1, 2, . . . ,
n
k!(nk)!
=
0
sonst .
k
Binomialkoeffizient; gesprochen ,,n u
ber k. Es gelten die Formeln:
Satz
(1)
(2)

n
1


n
n

= n f
ur n IN,

= n0 = 1 f
ur n IN,

17

KOMBINATORISCHE GRUNDLAGEN


n
k

n
nk

f
ur n, k ZZ,



n
(4) nk + k1
= n+1
f
ur n, k ZZ.
k
(3)

Beweis (1), (2) und (3) folgen unmittelbar aus der Definition. F
ur n IN und
k {1, ..., n} gilt:

  
n!(n k + 1)
n
n
n!k
=
+
+
k1
k
(n k)!k!(n k + 1) (n k + 1)!(k 1)!k
n!(n k + 1) + n!k
n!(n k + 1 + k)
=
=
(n k + 1)!k!
(n k + 1)!k!
(n + 1)!
=
(n + 1 k)!k!


n+1
,
=
k
also (4). F
ur n 6 IN oder k 6 {1, 2, ..., n} sieht man die G
ultigkeit von (4)
unmittelbar.

3.3

Die allgemeine binomische Formel

Satz F
ur n IN und a, b IR gilt

n  
X
n k nk
b a
(a + b) =
k
k=0
n



Beweis F
ur n = 1 erhalt man auf der rechten Seite 10 b0 a1 + 11 b1 a0 = a + b.



F
ur n = 2 lautet die rechte Seite 20 b0 a2 + 21 b1 a1 + 22 b2 a0 = a2 + 2ab + b2 .

Der weitere Beweis erfolgt durch vollstandige Induktion nach n. Der Induktionsanfang wurde bereits f
ur n = 1 und n = 2 gezeigt. Unter der Annahme, da die
Formel f
ur ein festes n gilt, haben wir
(a + b)n+1 = (a + b)n (a + b)
n  
X
n k nk
b a (a + b)
=
k
k=0
n  
n  
X
n k nk+1 X n k+1 nk
b a
b a
+
=
k
k
k=0
k=0
Die zweite Summe ist mit k 0

k + 1 gleich

n+1
P

k 0 =1
n+1
P

k 0 =0

n
k 0 1

k 0 1

bk ank +1

bk ank +1 . Zusammen erhalt man, wobei wiederum k f


ur k 0 gesetzt ist,

18

KAPITEL 3. KOMBINATORISCHE WAHRSCHEINLICHKEITEN

(a + b)

n+1


n+1 
n  
X
n
n k nk+1 X
0
0
bk ank +1
b a
+
=
0
k 1
k
k 0 =0
k=0


n+1  
X
n
n
bk ank+1
+
=
k

1
k
k=0
n+1
X  n + 1
bk an+1k ,
=
k
k=0

was zu beweisen war.

Bemerkung Die rekursive Berechnung der Binomialkoeffizienten mittels 3.2(4)


wird am Pascalschen Dreieck veranschaulicht:
1

n=0
1
1
1
1
2
1
2
1
3
3
1
3
1
4
6
4
1
4
1
5
10
10
5
1
5
usw.

Ziehen mit und ohne Zuru


cklegen
3.4

Ziehen ohne Zuru


cklegen (ZoZ)

Eine Urne enthalte N Kugeln, davon seien K Kugeln gelb, N K blau. Sei
0 K N. Die Kugeln seien von 1 bis N numeriert. Man zieht zufallig n Kugeln,
d.h. mit gleicher Auswahlwahrscheinlichkeit unter den in der Urne befindlichen
Kugeln.
Sei die Menge aller moglichen endlichen Folgen (1 , 2 , ..., n ) von so gezogenen
Kugeln. Zufallige Ziehung bedeutet, da jede solche Folge gleich wahrscheinlich
ist. Also setzt man

= (1 , . . . , n ) | 1 {1, . . . , N},

i {1, . . . , N}\{1, . . . , i1 }, ,
=

i = 2, . . . , n
kurz:

= { = (1 , 2 , ..., n ) | i {1, . . . , N} alle verschieden } ,


ZIEHEN MIT UND OHNE ZURUCKLEGEN

19

A = P() und P gleich der Laplace-Wahrscheinlichkeit auf . Dann ist die Zahl
der moglichen Folgen gleich
|| = N(N 1) . . . (N n + 1) =

N!
.
(N n)!

Sei Ak : Es werden genau k gelbe Kugeln gezogen, wobei 0 k K und k n.

Die Zahl der f


ur Ak g
unstigen Folgen betragt

 
N K
K
n! ,
|Ak | =
nk
k
 K 
da Kk Nnk
die Anzahl der Folgen ist, deren erste k Kugeln gelb und deren
u
brigen Kugeln blau sind und n! die Zahl der verschiedenen Anordnungen von k
gelben und n k blauen Kugeln in der Folge sind.
Demnach ist
P (Ak ) =

K
k

N K
nk
N!
(N n)!

n!

K
k

N K
nk

N
n

Bemerkung Dies ist die Wahrscheinlichkeitsfunktion der hypergeometrischen


Verteilung, siehe 6.1.
Beispiel (Qualitatskontrolle)
Ein Computerhandler bekommt 100 PC-Tastaturen angeboten, deren Qualitat er
pr
ufen mochte. Angenommen 5 von den 100 sind defekt. Der Handler u
uft
berpr
3 zufallig gezogene Tastaturen. Dann ist die Wahrscheinlichkeit, dass er genau
eine defekte Tastatur findet, gleich
P (A1 ) =

5
1

1005
31

100
3

= 0.1381.

Die Wahrscheinlichkeit, dass er keine defekte Tastatur findet, betragt


P (A0 ) =

5
0

95
3

100
3

= 0.8560.

Bemerkung Zur konkreten Durchf


uhrung der Zufallsauswahl: Die Untersuchungseinheiten werden in geeigneter Weise numeriert, etwa mit a1 , . . . aN . Es
werden k Zufallszahlen aus der Menge {a1 , . . . aN } generiert, die dem ZoZ entsprechen. Dies geschieht durch Computerprogramme oder geeignete StandardZufallsmechanismen.

20
3.5

KAPITEL 3. KOMBINATORISCHE WAHRSCHEINLICHKEITEN


Ziehen mit Zuru
cklegen (ZmZ)

Gegeben sei eine Urne wie in 3.4. Man zieht n Kugeln zufallig mit Zur
ucklegen,
d.h. man zieht eine Kugel nach der anderen, indem man jede Kugel nach ihrer
Ziehung wieder in die Urne zur
ucklegt und sie mischt. Sei die Menge aller
moglichen so gezogenen endlichen Folgen,
= { = (1 , . . . n ) | i {1, . . . N}, i = 1, . . . n}.
Jede solche Folge wird als gleich wahrscheinlich angenommen; sei also A = P()
und P die Laplace-Wahrscheinlichkeit auf .
Es folgt
|| = N N . . . N = N n ,
 
n
K k (N K)nk ,
|Ak | =
k
da K k (N K)nk gleich der Anzahl der Folgen ist, deren erste K Kugeln gelb und
deren u
brige Kugeln blau sind, und nk die Zahl der verschiedenen Anordnungen
von k gelben und n k blauen Kugeln in der Stichprobe ist.
Wir erhalten
 k
nk
  k
   k 
n
K (N K)nk
K
K
n K (N K)nk
n
k
1
=
=
P (Ak ) =
k Nk
k
Nn
N nk
N
N
Bemerkung Mit =
verteilung, siehe 6.2.

K
N

ist dies die Wahrscheinlichkeitsfunktion der Binomial-

Beispiel (Qualitatskontrolle; Fortsetzung)


Wenn der Handler die Stichprobe von drei aus 100 mit Zur
ucklegen zieht, erhalt
er geringf
ugig veranderte Wahrscheinlichkeiten P (Ak ); siehe die Tabelle.

k
k
k
k

=0
=1
=2
=3

P (Ak )
ZoZ
ZmZ
0,8560 0,8573
0,1381 0,1354
0,0059 0,0072
0,0001 0,0001

Aufgabe Aus N nummerierten Kugeln werden n mit Zur


ucklegen gezogen. Wie
gro ist die Wahrscheinlichkeit p, dass alle gezogenen Nummern verschieden sind?


ZIEHEN MIT UND OHNE ZURUCKLEGEN

21

Losung: F
ur n > N ist die Wahrscheinlichkeit p = 0. Sei n N. Die Zahl der
moglichen Falle (Folgen aus 1, . . . , N mit Wiederholung) betragt N n , die Zahl
der g
unstigen Falle (Folgen ohne Wiederholung) = N(N 1) . . . (N n + 1) =
N! , und die gesuchte Wahrscheinlichkeit ist
(N n)!
p=
Z.B. f
ur N = 100, n = 3 ist p =

N!
.
(N n)! N n

100 99 98
= 0, 9702.
1003

Beispiel (MatchingProblem)
Bei einer Daten
ubertragung werden Dateien an bestimmte Adressen geleitet. An
genommen, n Dateien sollen an n Adressen geleitet werden. Wahrend der Ubertragung geht die Zuordnung zwischen Dateien und Adressen verloren; bei der
Ankunft werden deshalb die Dateien in zufalliger, d.h. gleich wahrscheinlicher
Weise den Adressen zugeordnet. Wie gro ist die Wahrscheinlichkeit, dass mindestens eine Datei ihrer richtigen Adresse zugeordnet wird?
Sei Ai : Datei i wird der richtigen Adresse zugeordnet, i = 1, . . . n. Gesucht ist

die Wahrscheinlichkeit P (A1 . . . P


An ). Wir berechnen sie mit der Formel von
Sylvester. Es gilt P (Ai ) = n1 , also ni=1 P (Ai ) = n n1 = 1.
Sei i < j. Es gibt n(n1) Moglichkeiten i und j jeweils einer Adresse zuzuordnen,
wovon genau eine Moglichkeit korrekt ist; also gilt
1
,
n(n 1)
 
X
1
1
n
P (Ai Aj ) =
= .
2 n(n 1)
2!
i<j

Letzteres, da die Summe n2 Summanden hat, die alle gleich sind. Entsprechend
ist f
ur i < j < k
P (Ai Aj ) =

1
, also
n(n 1)(n 2)
 
X
1
1
n
P (Ai Aj Ak ) =
= ,
3!
3 n(n 1)(n 2)
i<j<k
P (Ai Aj Ak ) =

u.s.w. f
ur Durchschnitte aus vier und mehr der Ai . Aus der Sylvester-Formel
erhalten wir demnach
1
1
1
1
P (A1 . . . An ) = 1 + + . . . + (1)n1
2! 3! 4!
n!

22

KAPITEL 3. KOMBINATORISCHE WAHRSCHEINLICHKEITEN

Wenn n gro ist, nahert sich diese Wahrscheinlichkeit einem Grenzwert,


lim P (A1 . . . An ) = lim

Da e

X
(1)i
i=0

i!

X
(1)i1
i=0

i!

n
X
(1)i1
i=1

ist, folgt

i!

X
(1)i1
i=1

X
(1)i1
i=1

i!

i!

=1

1
0, 63212.
e

Die Konvergenz ist so schnell, dass bereits f


ur n = 7 der Limeswert auf vier
Dezimalstellen mit dem exakten Wert u
bereinstimmt.

Kapitel 4
Bedingte Wahrscheinlichkeit und
Unabh
angigkeit
Bedingte Wahrscheinlichkeit und Satz von Bayes
4.1

Definition der bedingten Wahrscheinlichkeit

Definition Sei B A ein Ereignis mit P (B) > 0. F


ur A A heit
P (A|B) =

P (A B)
P (B)

bedingte Wahrscheinlichkeit von A unter B.


Bemerkungen
Wenn B A ist, dann gilt A B = B und P (A|B) =

P (B)
P (B)

= 1.

Insbesondere ist P (B|B) = 1.


Die Funktion A 7 P (A|B), A A, ist eine Wahrscheinlichkeit, d.h. sie
erf
ullt die Kolmogoroffschen Axiome (vgl. 2.1).

Beweis: Ubung!
Interpretation: P (A|B) gibt die Wahrscheinlichkeit daf
ur an, dass A eintritt, wenn B bereits eingetreten ist, kurz: dass A auf B folgt.
Beispiel (Qualitatskontrolle)
Um die Qualitat einer groeren Anzahl (dem Los) von produzierten Einheiten

zu pr
ufen, geht man wie folgt vor. Eine Einheit wird zufallig aus dem Los gezogen.
Sei A : Die Einheit ist defekt, B: Die Einheit ist an einem Montag produziert

worden. Dann entspricht P (A|B) dem Schlechtanteil der Montagsproduktion.


Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013


24KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
4.2

Satz von der totalen Wahrscheinlichkeit und Satz von Bayes

Satz Sei {B1 , B2 , . . . , BM } eine Zerlegung von mit P (Bi ) > 0 f


ur i = 1, . . . , n.
Dann gilt
(1) Satz von der totalen Wahrscheinlichkeit
P
P (A) = M
j=1 P (A | Bj ) P (Bj ),
(2) Satz von Bayes
P (Bi |A) =

P (A|Bi )P (Bi )
PM
j=1 P (A|Bj )P (Bj )

, falls P (A) > 0.

Beweis
(1)
M
X
j=1

P (A|Bj ) P (Bj )

Def.

M
X
P (A Bj )

P (Bj )

j=1

M
X
j=1

P (Bj )

P (A Bj )

P (A)

(2)
P (Bi |A) =
=
(1)

4.3

P (Bi A)
P (A)
P (A|Bi) P (Bi )
P (A)
P (A|Bi ) P (Bi)
.
PM
j=1 P (A|Bj ) P (Bj )

A-priori- und a-posteriori-Wahrscheinlichkeiten

Der Satz von Bayes lasst sich wie folgt interpretieren: B1 , . . . , BM sind sich ausschlieende mogliche Zustande der Welt ( Hypothesen), A ist das Ergebnis eines

Experiments. P (Bi ) und P (A|Bi) seien bekannt f


ur i = 1, . . . , M. P (Bi ) heit
die a-priori-Wahrscheinlichkeit von Bi , P (A|Bi) ist die Wahrscheinlichkeit von
A, falls die Hypothese Bi zutrifft. P (Bi |A) wird a-posteriori-Wahrscheinlichkeit
von Bi genannt. Sie gibt die Wahrscheinlichkeit daf
ur an, dass Bi zutrifft unter

BEDINGTE WAHRSCHEINLICHKEIT UND SATZ VON BAYES

25

der Bedingung, dass das Versuchsergebnis A beobachtet worden ist. P (Bi|A) wird
mit dem Satz von Bayes berechnet.
Beispiele
(1) Herkunft eines defekten St
ucks.
Ein Produkt (z.B. elektronisches Bauteil) wird in drei Produktionslinien gefertigt.
Diese haben Defektraten von 3, 1 und 1.5 Prozent. Die Gesamtproduktion entfallt
zu 20, 40 und 40 Prozent auf die drei Linien. Aus der Gesamtproduktion wird
zufallig ein St
uck entnommen.
A: Das St
uck ist defekt,

Bi : Das St
uck stammt aus Linie i, i = 1, 2, 3.

Dann ist

P (B1 ) = 0.2, P (A|B1) = 0.03, P (A|B1 ) = 0.97,


P (B2 ) = 0.4, P (A|B2) = 0.01, P (A|B2 ) = 0.99,
P (B3 ) = 0.4, P (A|B3 ) = 0.015, P (A|B3 ) = 0.985.

P (A B1 )
P (A B2 )
P (A B3 )
P (A)

P (A|B1) P (B1 ) = 0.006


0.004
0.006
0.006 + 0.004 + 0.006 = 0.016
0.006
P (B1 |A) =
= 0.375
0.016
0.004
P (B2 |A) =
= 0.25
0.016
0.006
= 0.375
P (B3 |A) =
0.016
=
=
=
=

(2) Fehlerdiagnose. Wie (1) jedoch Bi : Fehler i liegt vor. A, A: Ein bestimmtes

Pr
ufverfahren liefert das Ergebnis A bzw. A.
(3) Stufenweise Diagnose. Wie (2), jedoch mehrfaches Pr
ufen und Anwenden der
Bayes-Formel. Die a-posteriori-Wahrscheinlichkeit einer Stufe wird zur a-prioriWahrscheinlichkeit der nachsten.


26KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

Stochastische Unabh
angigkeit von Ereignissen
Definition Zwei Ereignisse A und B heien stochastisch unabhangig, wenn
P (A B) = P (A) P (B) gilt.
Bemerkungen
1. Die Definition ist symmetrisch in A und B. Statt A und B sind stochastisch

unabhangig sagt man auch A ist stochastisch unabhangig von B oder

B ist stochastisch unabhangig von A.

2. Falls P (B) > 0 : A, B stochastisch unabhangig P (A|B) = P (A)


3. P (B) = 0 oder P (B) = 1

A, B stochastisch unabhangig

Beispiel Beim Roulette sind die Ereignisse R (Rouge) und I (Impair) nicht
stochastisch unabhangig:
P (R I) =

10
,
37

aber P (R) P (I) =

18 18

37 37

Beispiel (Doppelter M
unzwurf)
Zwei faire M
unzen werden einmal geworfen. Der Ergebnisraum ist dann
= {(z, z), (z, k), (k, z), (k, k)},
wobei (z, k) bedeutet, dass die erste M
unze Zahl zeigt und die zweite Kopf. Jedes
der vier Ergebnisse ist gleich wahrscheinlich. Wir betrachten die Ereignisse, die
den Ergebnissen der ersten M
unze entsprechen,
Z1 := {(z, k), (z, z)} Zahl bei der ersten M
unze,

K1 := {(k, k), (k, z)} Kopf bei der ersten M


unze,

und entsprechend Z2 und K2 bei der zweiten M


unze. Dann ist
1
P (Z1 ) = P (K1 ) = P (Z2 ) = P (K2 ) = ,
2
und es folgt, dass z.B. die Ereignisse Z1 und Z2 stochastisch unabhangig sind,
P (Z1 ) P (Z2 ) =

1 1
1
= = P ({(z, z)}) = P (Z1 Z2 ).
2 2
4

Ebenso sind Z1 und K2 , K1 und Z2 sowie K1 und K2 stochastisch unabhangig.


STOCHASTISCHE UNABHANGIGKEIT
VON EREIGNISSEN

27

Satz
A, B stochastisch unabhangig

A, B stochastisch unabhangig,
A, B stochastisch unabhangig,
A, B stochastisch unabhangig.

Beweis Nach Voraussetzung gilt P (A B) = P (A) P (B). Dann ist P (A B) =


P (A) P (A B) = P (A) P (A) P (B) = P (A) [1 P (B)] = P (A) P (B), also
sind A und B stochastisch unabhangig. Durch Vertauschen von A und B folgt
aus der Voraussetzung auch, dass A und B stochastisch unabhangig sind. Aus
den ersten beiden Aussagen zusammen folgt dann die dritte.

Definition Die Ereignisse A1 , A2 , . . . AM heien stochastisch unabhangig , wenn


f
ur alle {i1 , . . . ik } {1, . . . M} und alle k {2, . . . M} gilt
P (Ai1 Ai2 . . . Aik ) = P (Ai1 ) P (Ai2 ) . . . P (Aik ).
Bemerkungen
1. F
ur M = 2 ist dies die obige Definition.
F
ur M = 3 ergibt sich:
A1 , A2 , A3 sind stochastisch unabhangig, wenn

P (A1 A2 )
P (A1 A3 )
P (A2 A3 )
P (A1 A2 A3 )

=
=
=
=

P (A1 ) P (A2 ),
P (A1 ) P (A3 ),
P (A2 ) P (A3 ) und
P (A1 ) P (A2 ) P (A3 ).

2. Stochastische Unabhangigkeit von mehr als zwei Ereignissen Ai heit auch


globale stochastische Unabhangigkeit der Ai , i = 1, . . . M. Sie ist eine weiterreichende Forderung als die paarweise stochastische Unabhangigkeit der
Ai , wie das folgende Beispiel zeigt.
Beispiel (Globale 6= paarweise stochastische Unabhangigkeit)
Wir betrachten die Laplace-Wahrscheinlichkeit auf = {1, 2, 3, 4, 5, 6, 7, 8, 9}.
F
ur A = {1, 2, 3}, B = {3, 6, 9} und C = {1, 4, 9} ist dann P (A) = P (B) =
1
P (C) = ,
3
1
P (A B) = P (A) P (B) = ,
9


28KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
1
P (A C) = P (A) P (C) = ,
9
1
P (B C) = P (B) P (C) = ;
9
also sind A, B und C paarweise stochastisch unabhangig. Wegen
P (A B C) = 0 6=

1
= P (A) P (B) P (C)
27

sind sie jedoch nicht (global) stochastisch unabhangig.


4.4

Der Multiplikationssatz

Seien A1 , . . . , AM Ereignisse. Falls A1 , . . . , AM stochastisch unabhangig sind, gilt


die Formel

M
\

i=1

Ai

= P (A1 ) P (A2 ) . . . P (AM ).

Satz
F
ur beliebige Ereignisse A1 , . . . AM gilt
!
M
\
P
Ai = P (A1 ) P (A2 |A1 ) P (A3 |A1 A2 ) . . . P (AM |A1 A2 . . . AM 1 ),
i=1

sofern die bedingenden Ereignisse positive Wahrscheinlichkeiten haben, also


P (A1 ) > 0, P (A1 A2 ) > 0, . . . P (A1 . . . AM 1 ) > 0 ist.
Beweis Die rechte Seite der Formel ist gleich
P (A1 )

P (A1 A2 ) P (A1 A2 A3 )
P (A1 . . . AM )

...
.
P (A1 )
P (A1 A2 )
P (A1 . . . AM 1 )

Durch K
urzen erhalt man P (A1 . . . AM ).
4.5

BernoulliVersuchsreihe

(Jacob Bernoulli 1705)


Definition Ein Zufallsexperiment, bei dem das Ereignis A auftreten kann, wird
n-mal wiederholt.
Sei Ai : Beim i-ten Mal tritt A auf , i = 1, ..., n.


STOCHASTISCHE UNABHANGIGKEIT
VON EREIGNISSEN

29

Falls die A1 , . . . , An stochastisch unabhangig und die P (Ai ) f


ur alle i gleich sind,
P (Ai ) = , heit die Versuchsreihe BernoulliVersuchsreihe f
ur A mit den Parametern n und .
Es gilt dann
P (A1 A2 . . . An ) = . . . = n

P (A1 A2 . . . Ak Ak+1 . . . An ) = k (1 )nk


Offenbar kommt es in der zweiten Formel nicht auf die Reihenfolge der Ereignisse
an; die Wahrscheinlichkeit hangt nur von der Zahl der Erfolge ab. Weiter gilt

 
n k
(1 )nk .
P (A tritt genau k-mal auf) =
k
Bemerkung Das nfache Ziehen mit Zur
ucklegen ist ein Bernoulli-Experiment
(siehe 3.5) mit den Parametern n und = K
.
N
4.6

Bemerkungen zur praktischen Bestimmung von Wahrscheinlichkeiten

F
ur die ein bestimmtes Ereignis A (vgl. oben die Beispiele 1.1) soll ausgesagt
werden: Die Wahrscheinlichkeit von A ist (ungefahr) gleich . Hierf
ur kommen
sehr unterschiedliche Methoden in Betracht. Abhangig von der Art des Ereignisses
A, dem Ziel der Fragestellung und den verf
ugbaren Moglichkeiten bestimmt man
auf eine oder mehrere der folgenden Weisen.
1. Symmetrie
uberlegungen an den Zufallsvorgang: physikalisch wie f
ur W
urfel,
M
unze und Roulette oder auf Grund eines quantitativen Modells (wie z. B.
lineare Regression mit symmetrischen Abweichungen nach oben und unten).
2. Aus den Modell
uberlegungen f
ur den Zufallsvorgang: z.B. stochastische Unabhangigkeit bestimmter Ereignisse, Normalverteilungsannahmen.
3. Bernoulli-Experiment: Schatzung von durch die relative Haufigkeit von
A. Vgl. die Schatztheorie in der schlieenden Statistik; auch Tests u
ber .
4. Satz von Bayes: a-priori-Wahrscheinlichkeit plus Versuchsergebnis.
5. Wetten: zur Bestimmung der subjektiven Wahrscheinlichkeit.
6. Befragung von Experten.

7. Exakte Berechnung aus bekannten Wahrscheinlichkeiten von Ereignissen,


aus denen sich A zusammensetzt. Vgl. die Rechenregeln in den Kapiteln 2,
3, 4.
8. Approximative Berechnung aus bekannten Wahrscheinlichkeiten von zu A
korrelierten Ereignissen.


30KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

Kapitel 5
Zufallsvariable
Verteilung von Zufallsvariablen
Um Ereignisse durch Zahlen zu beschreiben, verwendet man Zufallsvariable. Beispiele daf
ur lieferten bereits das Ziehen mit Zur
ucklegen, das Ziehen ohne Zur
ucklegen und das Devisengeschaft.
Im folgenden sei (, A, P ) ein gegebener Wahrscheinlichkeitsraum.
5.1

Definition

(1) Eine Funktion X : IR heit Zufallsvariable (Z. V.), falls f


ur jedes x IR
die Menge
{ | X() x}
in A liegt.

(2) Sei X eine Zufallsvariable. F


ur B IR sei X 1 (B) := { |X() B}.
Falls X 1 (B) A ist, schreibt man

P (X B) := P X 1 (B) .

Man kann zeigen, dass f


ur jedes Intervall B die Menge X 1 (B) in A liegt, also
P (X B) definiert ist und dar
uber hinaus f
ur alle Mengen B, die sich durch
abzahlbare Vereinigungen und Durchschnitte sowie Komplementbildungen aus
Intervallen ergeben. Diese Mengen heien Borel-Mengen; ihre Gesamtheit ist eine
Ereignis--Algebra in IR und wird mit B bezeichnet. Speziell gilt dies f
ur das
Intervall, das nur aus einem Punkt x besteht, und man schreibt

P (X = x) := P X 1 ({x})
Entsprechend sind Schreibweisen wie P (X < x) und P (a X b) gemeint.

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

Oktober 2013

32

KAPITEL 5. ZUFALLSVARIABLE

Beispiel Sei X die Zahl der Erfolge in einer Bernoulli-Versuchsreihe (vgl. 4.5).
Dann gilt
P (X = x) =
5.2

n
x

x (1 )nx , falls x = 0, 1, . . . , n,
0
sonst.

Verteilungsfunktion

Definition Sei X eine Zufallsvariable,


FX (x) := P (X x) := P ({ | X() x}) .
Die Funktion FX : IR IR heit Verteilungsfunktion von X.
Folgerung F
ur beliebige a, b IR mit a < b gilt

P (a < X b) = FX (b) FX (a).


Beispiel (Bernoulli-Versuchsreihe mit n = 3,

0.125,

0.375,
0.375,
P (X = k) =

0.125,

0,

p = 21 )
falls k
falls k
falls k
falls k
sonst.

0.000, falls

0.125, falls
0.500, falls
FX (x) = P (X x) =

0.875, falls

1.000, falls

= 0,
= 1,
= 2,
= 3,

x < 0,
0 x < 1,
1 x < 2,
2 x < 3,
3 x.

Beispiel (Devisengeschaft)
Gewinn X() = ( 0 )a b bei Kauf zum Kurs 0 , Verkauf zum Kurs ,
eingesetztem Kapital a und Fixkosten b. Der Kurs Y () = ist ebenfalls eine
Zufallsvariable. Man nehme an, dass der Kurs stetig gleichverteilt im Intervall
[, ] ist, d. h. die Wahrscheinlichkeit, dass der Kurs in ein Teilintervall von
[, ] fallt, proportional der Lange des Intervalls ist:
P (Y [, ]) =
Dann ist
FY (y) =

,
,
,

f
ur < .
falls y ,
falls y < ,
falls y.

Ubung:
Zeichne FX f
ur = 1.4, = 2.2, 0 = 1.4, a = 1000, b = 5.

33

VERTEILUNG VON ZUFALLSVARIABLEN

Satz Sei F : IR IR eine Funktion. Wenn F die Verteilungsfunktion einer


Zufallsvariablen X ist, so gilt:
(i) F ist monoton wachsend, d.h. aus x < y folgt F (x) F (y).
(ii) F ist von rechts stetig, d.h. x0 F (x0 ) = F (x0 +) := lim F (x).
x&x0

(iii) lim F (x) = 0, lim F (x) = 1.


x

Umgekehrt ist jede Funktion, die (i), (ii) und (iii) erf
ullt, Verteilungsfunktion
einer Zufallsvariablen.
Bemerkung F
ur alle x0 IR gilt
P (X = x0 ) = P (X x0 ) P (X < x0 )
= FX (x0 ) FX (x0 ),
= FX (x0 ) lim FX (x),
x%x0

P (X = x0 ) = 0
P (X = x0 ) > 0

5.3

FX stetig in x0 ,
FX hat in x0 einen Sprung der Hohe P (X = x0 ).

Diskrete und stetige Verteilungen

Definition Sei X eine Zufallsvariable mit Verteilungsfunktion F .


(1) Durch B 7 P (X B) wird eine Wahrscheinlichkeit auf B (den BorelMengen in IR) definiert; diese Wahrscheinlichkeit heit Verteilung von X.
(2) Wenn X nur endlich oder abzahlbar unendlich viele Werte x1 , x2 , ... mit
positiver Wahrscheinlichkeit annimmt, heit die Verteilung von X diskret.
ungen in x1 , x2 , ..., F (x) =
P F ist dann eine Treppenfunktion mit Spr
P (X = xi ). Die Funktion f : IR IR, f (x) = P (X = x) heit Wahrxi x

scheinlichkeitsfunktion von X.

(3) Wenn F stetig und bis auf hochstens endlich oder abzahlbar unendlich
viele Stellen differenzierbar ist, dann heit die Verteilung von X stetig. Die
Funktion f : IR IR,
 0
F (x)
sofern F in x differenzierbar,
f (x) =
0
sonst,
heit Dichte von X.

34

KAPITEL 5. ZUFALLSVARIABLE

Satz F
ur eine Dichte f gilt:
(1) f (x) 0 f
ur alle x.
(2)

f (x)dx = 1.

(3) F (z) =

Rz

f (x)dx f
ur alle z.

(4)

Rb
a

f (x)dx = P (X [a, b]) = P (X ]a, b[) = P (X ]a, b]) = P (X [a, b[),

falls a < b.
Umgekehrt gilt: Eine Funktion f : IR IR, die (i) und (ii) erf
ullt, ist die Dichte
einer Zufallsvariablen.
Beispiel (Devisengeschaft; Fortsetzung)
Die Dichte von Y ist
fY (y) =
5.4

1
,

0,

falls < y <


sonst.

Quantilfunktion

Definition Sei F Verteilungsfunktion von X. Die Funktion Q : ]0, 1[ IR,


Q() = F 1 () = min {x IR| F (x) },

0 < < 1,

heit Quantilfunktion (oder inverse Verteilungsfunktion) von X.


Q() heit -Quantil von X. Speziell heien Q( 21 ), Q( 41 ) und Q( 34 ) Median,
unteres und oberes Quartil von X.
Satz Die Quantilfunktion ist monoton wachsend und stetig von links.
Anschaulich erhalt man die Quantilfunktion Q, indem man den Graphen der
Verteilungsfunktion F an der Hauptdiagonalen spiegelt. Dabei gehen waagerechte
St
ucke des Graphen von F (auf Intervallen ohne Wahrscheinlichkeitsmasse) in
Spr
unge des Graphen von Q u
ber, und umgekehrt.
5.5

Tr
ager

Definition Sei X eine Zufallsvariable mit Verteilungsfunktion F . Die kleinste


abgeschlossene Menge TX mit der Eigenschaft
P (X TX ) = 1
heit Trager von X.

VERTEILUNG VON ZUFALLSVARIABLEN

35

Beispiel
1. Sei X die Zahl der Erfolge in einem Bernoulli-Experiment mit n Stufen.
Dann ist T = {0, 1, 2, . . . , n} der Trager von X.
2. Sei X stetig gleichverteilt auf [, ]. Dann ist der Trager gleich [, ].

36

KAPITEL 5. ZUFALLSVARIABLE

Kapitel 6
Spezielle Verteilungen
Spezielle diskrete Verteilungen
6.1

Hypergeometrische Verteilung

Seien N, M, n IN mit 0 M N, 1 n N, und sei X eine Zufallsvariable


mit der Wahrscheinlichkeitsfunktion
( M NM
( k )( nk )
, falls k ZZ, 0 k n, k M und n k N M,
(Nn )
P (X = k) =
0,
sonst.
Dann heit X hypergeometrisch verteilt mit Parametern N, M und n. Die hypergeometrische Verteilung wird mit H(n, N, M) bezeichnet. Man schreibt kurz:
X H(n, N, M).
Beispiel Ziehen ohne Zur
ucklegen, siehe 3.4.
6.2

Binomialverteilung

Sei 0 < < 1, n IN, und X sei eine Zufallsvariable mit der Wahrscheinlichkeitsfunktion
 n k
(1 )nk , falls k = 0, 1, 2, . . . , n,
k
P (X = k) =
0,
sonst.
Dann heit X binomialverteilt mit Parametern n und ; kurz: X B(n, ).
Es gilt X B(n, ) n X B(n, 1 ).
Beispiel Ziehen mit Zur
ucklegen, =
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

M
,
N

siehe 3.5.
Oktober 2013

38

KAPITEL 6. SPEZIELLE VERTEILUNGEN

Aufgabe: Berechnen Sie die Wahrscheinlichkeitsfunktion, die Verteilungsfunktion und die Quantilfunktion von B(4, 0.1).
Losung:
k
0
1
2
3
4

f (k)
F (x),
0.6561
0.2916
0.0486
0.0036
0.0001

k
0
1
2
3
4

k
0.6561
0.9477
0.9963
0.9999
1.0000

k x<k+1
0.6561
0.9477
0.9963
0.9999
1.0000

f (x) = 0,
/ {0, 1, 2, 3, 4},
falls x
0, falls x < 0,
F (x) =
1, falls x 4.

F 1 () = Q()
0, 0 < 0
1, 0 < 1
2, 1 < 2
3, 2 < 3
4, 3 < 4

Im Beispiel ist das obere Quartil gleich 1, das 99%-Quantil gleich 2.


f (k)
0.7 6
r
B(4, 0.1)

r
r

r
-

0
1
2
3
4
Die hypergeometrische Verteilung lasst sich wie folgt durch die Binomialverteilung approximieren:

6.3

Satz

F
ur beliebiges n IN und ]0, 1[ gilt

  
N N N
n k
k
nk

lim
(1 )nk f
ur k = 0, 1, . . . , n.
=
N
N
k
n

Der Satz besagt, dass mit wachsendem Umfang N der Urne und bei konstantem
Anteil = M
f
ur jedes n die Wahrscheinlichkeitsfunktion der hypergeometrischen
N

39

SPEZIELLE DISKRETE VERTEILUNGEN

Verteilung gegen die der Binomialverteilung konvergiert. Man kann also, wenn N
gro ist, approximativ
M
H(n, N, M) B(n, )
N
setzen. Die Geschwindigkeit der Konvergenz hangt von dem Wert n ab. Als Faustregel benutzt man, dass die Approximation hinreichend genau ist, wenn
n
0.05
N
ist. Der Anteil

n
N

heit Auswahlsatz.

Bemerkung Die Binomialverteilung kann durch die Normalverteilung approximiert werden, siehe 12.9.
6.4

Geometrische Verteilung

Sei ]0, 1[ und sei X eine Zufallsvariable mit der Wahrscheinlichkeitsfunktion



(1 )k1 f
ur k IN,
P (X = k) =
0
sonst.
Dann heit X geometrisch verteilt mit Parameter ; X G().
Anwendung Bernoulli-Experiment: Anzahl der Versuche bis zum ersten Er
folg.
f (x)

6
G 61
0.3
r

0
6.5

10

12

14

16

18

r -

20

Poisson-Verteilung

Sei > 0, X eine Zufallsvariable mit


 k
e f
ur k = 0, 1, 2, . . . ,
k!
P (X = k) =
0
sonst.
Dann heit X Poisson-verteilt mit Parameter ; X P o().

40

KAPITEL 6. SPEZIELLE VERTEILUNGEN

Bemerkung
Die Poissonverteilung kann durch die Normalverteilung approximiert werden, siehe 12.10.
f (x)
0.3 6 r r
r

0
f (x)

P o(2)
r

r r

10

0.2 6
r

0
6.6

10

12

P o(12)
r

14

16

18

20

22

24

r r

26

Satz

(Poisson 1837) F
ur > 0 und k {0, 1, 2, . . .} gilt
   
k
n
nk k
lim
1
= e .
n k
n
n
k!
Anwendung F
ur kleine = n und groe n verwendet man statt B(n, ) approximativ P o(n ). Als Faustregel f
ur eine hinreichend gute Approximation
gilt:
n 50, 0.1 und n 9.
6.7

Diskrete Gleichverteilung

Sei A = {a1 , a2 , . . . , aN } eine endliche Menge in IR. X heit diskret gleichverteilt


auf A, wenn
 1
, falls x = ai , i = 1, . . . , N,
N
P (X = x) =
0 sonst.
Bemerkung Dies ist die der Laplace-Wahrscheinlichkeit (vgl. 2.2) zugrundeliegende Definition.

41

STETIGE VERTEILUNGEN

Stetige Verteilungen
6.8

Uniforme Verteilung

Seien a, b IR,

a < b,
f (x) =

1
,
ba

falls a < x < b,


sonst,

ist Dichte einer Zufallsvariablen X, da

f (x)dx = 1 und f (x) u


berall 0 ist.

Die zugehorige Verteilung heit uniforme Verteilung (auch stetige Gleichverteilung oder Rechteckverteilung ) auf dem Intervall [a, b]; kurz: X R(a, b).
Anwendung Devisengeschaft, siehe 5.3.
6.9

Exponentialverteilung

Sei > 0.
f (x) =

ex ,
0

falls x > 0,
sonst.

ist Dichte einer Zufallsvariablen X. Die Verteilung heit Exponentialverteilung;


man schreibt X Exp().
Anwendungen
1. Lebensdauer eines technischen Gerates.
2. Dauer eines Zustandes, z.B. Arbeitslosigkeit einer Person.
3. Kundenstrom wie oben: Zeit zwischen zwei aufeinanderfolgenden Ank
unften.
f (x)
6

Exp(2)

..
...
..
..
..
..
..
..
...
...
...
..
..
..
..
..
...
...
..
...
...
...
....
....
.....
......
........
...........
.....................
..........................................................................................................

42
6.10

KAPITEL 6. SPEZIELLE VERTEILUNGEN


Normalverteilung

Seien 2 , IR, 2 > 0,


f (x) =

e 22 (x) f
ur x IR.

2 2
f ist die Dichte der Normalverteilung (auch: Gau-Verteilung) N(, 2 ).
f (x)
0.5 6

..................

N(0, 1)
N(0, 4)
N(2, 1)

....... ......
...
........
..... .....
.. ...
... .....
..
..
..
...
...
..
..
..
.
.
... ..
..
.............
...
..
... ..
..
...
... .
..
...
....
.
..
.
.
.
.
..
.. ...
...
..
.. ..
..
. ..
...
..
. ....
..
...
..
..
..
.
.
.
..
..
..
..
.
.
.
..
. ....... ....... .......... ....... ......... ..
.
.
.
.
.
.
.
.
.
.
.
... .... ....... ........
....... ....
.
.
.
.
.
.
.
.
.
... .........
.
.
....
......
.
..
.
.
.
.
.
.
.
.
.
.
.
.
... ....... ....... ..
.
.
.
.
.
.
.....
..
...
....... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
................................. ....................... ..... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .
................................. ..................
....... ....... ....... ....... ....... ....... ....... ....... .......

14 12 10 8
6.11

10

12

14

Doppelte Exponentialverteilung

Seien > 0, IR,

1 |x|
ur x IR.
e f
2
f ist die Dichte der doppelten Exponentialverteilung DE(, ).
f (x) =

Anwendung Abweichung von einem Sollwert, ahnlich wie die Normalverteilung.


f (x)
1
2

DE(0, 12 )

..................
....
......
.... .....
.. ..
... .....
...
...
.............
...
....
....
...
.. ..
..
.. ...
...
..
.
..
..
...
.
..
.
.
.
...
..
..
...
...
..
..
..
...
..
...
..
..
...
..
..
...
...
....
....
.
.
.
.
... ...
....
...
.
.
.
.
....
.
.
.......
...
.
.....
.
.
.
.
.
... .......
.....
...
.
.
.
.
.
.
.
.
......
......
....
.....
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
........
....
....
.
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............
................
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................................
...................
...................................................

DE(2, 1)

Eigenschaften von Verteilungen


6.12

Symmetrie

Die Verteilung einer Zufallsvariablen X heit symmetrisch, wenn es eine Zahl c


gibt, so dass f
ur alle z 0
P (X c z) = P (X c + z).

EIGENSCHAFTEN VON VERTEILUNGEN

43

Dies bedeutet f
ur die Wahrscheinlichkeitsfunktion
f (c z) = f (c + z)
f
ur alle z 0.
Beispiele
1. N(, 2 ) ist symmetrisch zu c = .
2. Ebenso ist DE(, ) symmetrisch zu c = .
3. B(1, 12 ) ist symmetrisch zu c = 12 . Allgemein ist B(n, ) genau dann symmetrisch, wenn = 12 ist; es gilt dann c = n2 .
6.13

Modus

Sei f die Dichte einer stetigen Verteilung. Jede Stelle m T , an der f ein lokales
Maximum hat, heit Modus der Verteilung. Auch einen Randpunkt des Tragers,
bei dem dies nur im Limes gilt, bezeichnet man als Modus. Statt Modus sagt
man auch Modalwert.
Beispiele
1. ist einziger Modus der Normalverteilung N(, 2 ).
2. Jedes m [a, b] ist Modus der stetigen Gleichverteilung R(a, b).
3. 0 ist einziger Modus der Exponentialverteilung Exp().
F
ur eine diskrete Zufallsvariable X mit P (X = xj ) = pj definieren wir wie folgt:
Ein Wert xM heit Modus, falls
P (X = xM ) P (X = x) f
ur alle x T.
Beispiel xM = 1 ist einziger Modus der geometrischen Verteilung G().
6.14

Unimodalit
at

Eine stetige Verteilung heit unimodal, wenn es mindestens einen Wert xM gibt,
f
ur den
f (x) f (y) f (xM )
f
ur alle x, y mit x < y < xM und f
ur alle x, y mit x > y > xM gilt.
Beispiele N(, 2 ), Exp(), R(a, b) und DE(, ) sind unimodale Verteilungen.

44

KAPITEL 6. SPEZIELLE VERTEILUNGEN

Eine diskrete Verteilung von X heit unimodal, wenn es mindestens einen Wert
xM mit P (X = xM ) = pjM gibt, f
ur den
pj pk pj M
f
ur alle j, k mit j < k < jM und f
ur alle j, k mit j > k > jM gilt.
Beispiel B(n, ) ist eine unimodale Verteilung.

6.15

Ausfallrate

F
ur eine stetig verteilte Zufallsvariable X mit Dichte f und Verteilungsfunktion
F heit
f (x)
h(x) =
1 F (x)

die Ausfallrate (hazard rate) von X. 1 F (x) wird auch die Uberlebensfunktion
von X genannt. Wenn X eine Lebensdauer darstellt, ist 1 F (x) die Wahrscheinlichkeit, die Dauer x zu u
berschreiten. Wegen
1 P (x < X x + x)
1
P (x < X x + x|X > x) =
x
x
P (X > x)
1 F (x + x) F (x)
=
x
1 F (x)
1 F (x + x) F (x)
f (x)
lim
=
x0 x
1 F (x)
1 F (x)
Wahrend x f (x) die approximative Wahrscheinlichkeit ist, dass X in das Intervall ]x, x + x] fallt, ist x h(x) die die approximative bedingte Wahrscheinlichkeit, dass dies unter der Bedingung X > x geschieht. Mit anderen Worten,
x h(x) ist die Wahrscheinlichkeit, dass die Lebensdauer im kleinen Intervall
]x, x + x] endet, unter der Voraussetzung, dass sie nicht bereits fr
uher geendet
hat.
Die Verteilung einer stetigen Zufallsvariablen X lasst sich auf verschiedene Weisen
durch eine Funktion charakterisieren: zum einen durch die Verteilungsfunktion F
von X, zum anderen durch die Dichte f . Ebenso ist die Verteilung durch die

Uberlebensfunktion
von X bestimmt, aber auch durch die Ausfallrate h. Es gilt

namlich die Formel (Beweis: Ubung!)


 Z x

F (x) = 1 exp
h(t)dt .
0

45

EIGENSCHAFTEN VON VERTEILUNGEN


Beispiele
1. Bei Exp() gilt, sofern x > 0 ist, f (x) = ex , F (x) = 1 ex ,
h(x) =

ex
1(1ex )

= , d.h. die Ausfallrate ist konstant.

2. Bei R(0, 1) gilt, sofern 0 < x < 1 ist, f (x) = 1, F (x) = x, h(x) =
Ausfallrate beginnt bei 1 und wachst monoton gegen .

1
;
1x

die

Anwendungen Uberlebensdauer
von Patienten, Funktionsdauer technischer
Gerate, Dauer von Arbeitslosigkeit.
6.16

Mischung von Verteilungen

P
Seien F1 , . . . , Fk Verteilungsfunktionen, p1 , . . . , pk 0, kj=1 pj = 1. Dann ist
P
F (x) := kj=1 pj Fj (x) eine Verteilungsfunktion. Sie heit Mischung der Verteilungen F1 , . . . , Fk mit Mischungswahrscheinlichkeiten p1 , . . . , pk .
Falls F1 , . . . , Fk diskrete oder stetige
P Verteilungen mit Wahrscheinlichkeitsfunktionen f1 , . . . , fk sind, ist f (x) := kj=1 pj fj (x) die Wahrscheinlichkeitsfunktion
von F .
Beispiele
1. Lotterie, bei der man ein Freilos gewinnen kann.
2. Mischung dreier Exponentialverteilungen:
Sei F1 = Exp(0.2),

F2 = Exp(2),

F3 = Exp(4),

p1 = 0.4,

p2 = 0.5,

p3 = 0.1. Dann ist die Dichte f der Mischung gegeben durch



0.4 0.2 e0.2x + 0.5 2 e2x + 0.1 4 e4x falls x > 0,
f (x) =
0
sonst.
Aufgabe: Berechnen Sie die Verteilungsfunktion und die Ausfallrate dieser
Mischung.
Losung:
F (x) = 1 0.4 e0.2x 0.5 e2x 0.1 e4x ,
h(x) =

0.08 e0.2x + e2x + 0.4 e4x


0.4 e0.2x + 0.5 e2x + 0.1 e4x

Die Ausfallrate ist, im Gegensatz zur ungemischten Exponentialverteilung,


nicht konstant, sondern fallend.

46

KAPITEL 6. SPEZIELLE VERTEILUNGEN


3. Mischung einer Normalverteilung mit einer verschmutzenden Normal
verteilung; z.B. F1 = N(2, 1), F2 = N(20, 1), p1 = 0.9, p2 = 0.1. Mit F1
wird die Verteilung von Daten in der betrachteten Grundgesamtheit, mit
F2 die Verteilung von Daten in einer anderen, mit Wahrscheinlichkeit p2
falschlich einbezogenen Grundgesamtheit modelliert.
f (x)
0.5 6

0.9N(2, 1) + 0.1N(20, 1)

...
.. ..
.. ...
.. ...
.... ...
..
..
...
...
..
..
...
..
..
...
...
...
..
...
...
..
...
...
...
...
.
.
..
..
...
.
.
.
...
.......................
.
.
.
......................................................................................................................................
....................
.
.
.
.
.
.
.
........

10

14

18

22

26

4. Mischung einer stetigen Verteilung mit einer diskreten Verteilung (Dauer


von Telefongesprachen u
ber einen bestimmten Verbindungsknoten):
F1 = P o() modelliert die Dauer der Telefongesprache, die durch Ablauf
des Zeittakts, etwa am M
unzfernsprecher, beendet werden. F2 = Exp()
modelliert die Dauer der u
brigen Gesprache.
F (x)

0.5P o(2) + 0.5Exp(1)

1 6

...................................................
...................................................

.....................
.............................
.................
..............
...........
..........
..
........
.......
.......
......
.....
.
.
.
.
.
.
.....
.....
.....
.....

-x

Kapitel 7
Transformation von
Zufallsvariablen
Gegeben die Verteilung einer Zufallsvariablen X, wie lautet die Verteilung der
Zufallsvariablen Y = 2X 3? Allgemeiner, wie ist f
ur eine Transformationsfunktion g die transformierte Zufallsvariable Y = g(X) verteilt?

Verteilung einer transformierten Zufallsvariablen


7.1

Verteilungsfunktion und Wahrscheinlichkeitsfunktion

Sei X eine Zufallsvariable mit Verteilungsfunktion FX . Wir betrachten die Zufallsvariable Y = g(X), wobei g eine streng monoton wachsende, auf dem Trager TX
von X definierte, differenzierbare Funktion sei. Dann ist g 0 (x) > 0 f
ur alle x TX ,
1
und g besitzt eine strikt monoton wachsende Umkehrfunktion g : g(TX ) TX .
Der Trager von Y ist g(TX ). Die Verteilungsfunktion FY von Y lautet
FY (y) = P (Y y) = P (g(X) y)


= P X g 1 (y) = FX g 1(y)
f
ur y g(TX ). Ist X diskret verteilt mit Wahrscheinlichkeitsfunktion fX (xi ) = pi
f
ur i = 1, . . . , n, so ist Y ebenfalls diskret verteilt mit Wahrscheinlichkeitsfunktion
fY (g(xi )) = pi , i = 1, . . . , n.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

48

KAPITEL 7. TRANSFORMATION VON ZUFALLSVARIABLEN

Ist X stetig verteilt mit Dichte fX so ist auch Y stetig verteilt; die Dichte betragt

d
d
FY (y) = FX g 1 (y)
fY (y) =
dy
dy

d 1 
= fX g 1 (y)
g (y)
dy

1
.
= fX g 1 (y) 0 1
g (g (y))

7.2 Beispiele
1. Sei g(x) = x + und > 0, also g 0(x) = , g 1(y) =
beliebige Zufallsvariable X gilt dann


y
FY (y) = FX
, y IR,

y
.

F
ur eine

und, falls X stetig verteilt ist,

1
fY (y) = fX

2. Sei g(x) = ln x, und X eine positive Zufallsvariable, also P (X > 0) = 1.


ur y IR,
Dann ist g 0 (x) = x1 , g 1 (y) = ey f
FY (y) = FX (ey ) ,

und, im Fall einer stetigen Verteilung,


fY (y) = fX (ey ) ey .

3. Lognormalverteilung; siehe Ubung.


7.3

Wahrscheinlichkeitstransformation

Sei FX auf TX differenzierbar mit positiver Ableitung. Wir setzen y = g(x) =


FX (x) f
ur alle x. Dann ist g 1 gleich der Quantilsfunktion F 1 , und

FY (y) = FX FX1 (y) = y, 0 < y < 1.

Y ist daher stetig gleichverteilt auf dem Einheitsintervall Y R(0, 1). Wegen
X = F 1 (Y ) gilt umgekehrt: Ist F eine gegebene Verteilungsfunktion, die auf
ihrem Trager differenzierbar ist und eine positive Ableitung besitzt, und ist Y
eine Zufallsvariable mit Y R(0, 1), dann hat die Zufallsvariable
X = F 1 (Y )

die Verteilungsfunktion F . Diese Transformation wird zur Erzeugung von Zufallszahlen verwendet: Hat man einen Zufallszahlengenerator, der auf [0,1]

stetig gleichverteilte Zufallszahlen erzeugt, das sind Realisationen einer R(0, 1)verteilten Variablen Y , dann sind die mit F 1 transformierten Zufallszahlen Realisationen einer Zufallsvariablen X mit der vorgegebenen Verteilungsfunktion F .

LAGE- UND SKALENFAMILIEN

49

Lage- und Skalenfamilien


Oft betrachtet man spezielle Verteilungen, die von einem oder mehreren Parametern abhangen; siehe die obigen Beispiele. Sei ein Parameter oder ein Vektor
von Parametern, etwa = bei der Exponentialverteilung oder = (, 2 ) bei
der Normalverteilung, und bezeichne die Menge der zugelassenen Werte , etwa
= {| > 0} bzw. = {(, 2 )| IR, 2 > 0}. Die Menge
{F | }
nennt man eine Verteilungsfamilie. Im Beispiel erhalt man die Familien
{P o()| > 0} bzw. {N(, 2 )| IR, 2 > 0}.
7.4

Lage- und Skalenfamilien

(1) Eine Verteilungsfamilie {F | IR} heit Lagefamilie, wenn f


ur alle und
x
F (x) = F0 (x ).
(2) Eine Verteilungsfamilie {G | > 0} heit Skalenfamilie, wenn f
ur alle
und x
 
x
G (x) = G1
.

(3) Eine Verteilungsfamilie {F, | IR, > 0} heit Lage-Skalenfamilie


(auch: affiner Verteilungstyp), wenn f
ur alle , und x


x
.
F, (x) = F0,1

Wenn F0,1 die Verteilungsfunktion einer Zufallsvariablen X ist, dann ist


offenbar F, die Verteilungsfunktion von + X. Entsprechendes gilt f
ur
Lagefamilien (1) und f
ur Skalenfamilien (2). heit deshalb Lageparameter,
Skalenparameter. Ist Y F, , dann heit X = Y die Standardisierung
von Y .
Beispiele
1. f
ur Lagefamilien: {N(, 1)| IR} mit Lageparameter .
2. f
ur Skalenfamilien: {Exp()| > 0} mit Skalenparameter 1 ,
{N(0, 2 )| 2 > 0} mit Skalenparameter .

50

KAPITEL 7. TRANSFORMATION VON ZUFALLSVARIABLEN


3. f
ur Lage-Skalenfamilien: {N(, 2 )| IR, 2 > 0} mit Lageparameter
und Skalenparameter ,
{DE(, )| IR, > 0} mit Lageparameter und Skalenparameter ,
{R(a, b)| a, b IR, a < b} mit Lageparameter a und Skalenparameter b a.

Ubung:
Zeigen Sie dies f
ur die Familie der Exponentialverteilungen Exp() und
die der Rechteckverteilungen R(a, b).

Kapitel 8
Momente einer univariaten
Verteilung
Erwartungswert und h
ohere Momente
Der Verteilung FX einer Zufallsvariablen X werden Zahlen, sogenannte Verteilungsparameter, zugeordnet, die die Lage der Verteilung auf der reellen Achse,
ihre Streuung und ihre weitere Form widerspiegeln. Sei im folgenden X eine stetige oder diskrete Zufallsvariable, und f ihre Wahrscheinlichkeitsfunktion.
8.1

Zentrale und nicht-zentrale Momente

1. F
ur eine Funktion h : IR IR definiert man
P
falls X diskret,

i h(xi )f (xi ),
E(h(X)) =
R

h(x)f (x)dx, falls X stetig.

Zum Beispiel: h(X) = X 2 , h(X) = ln(X).

2. 0k := E(X k ) heit k-tes nicht-zentrales Moment (auch: k-tes gewohnliches


Moment) von X, k {0, 1, 2, . . .}. Speziell f
ur k = 1 ist dies der Erwar0
tungswert von X, := E(X) = 1 .

3. k := E (X )k heit k-tes zentrales Moment von X. Das zweite zentrale Moment ist die Varianz von X,
P
2

i (xi ) f (xi ) bzw.



2 = V ar(X) := 2 = E (X )2 =
R

(x )2 f (x)dx.

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

Oktober 2013

52

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

:= 2 heit Standardabweichung von X.


Offenbar ist 00 = 0 = 1; ferner 1 = 0, falls existiert und endlich ist.

8.2

Satz

Falls = EX existiert und endlich ist, gilt


R
R0
(1) EX = [1 F (x)]dx
F (x)dx,
0

R
(2) EX = [1 F (x)]dx, sofern X 0 fast sicher.
0

Beweis von (2):


1 F (z)
6

1 r

r
r

r r

Falls X eine diskrete Verteilung besitzt, ist E(X ) die aus Rechtecken bestehende Flache rechts von minus der links von . Also sind wegen E(X ) = 0 die

beiden Flachen gleich, und die Flache unter dem Graph der Uberlebensfunktion
ist gleich der des Rechtecks mit Basis und Hohe 1, betragt also .

Falls X stetig verteilt ist, beweist man (2) mit partieller Integration; ebenso

beweist man (1) (Ubung!).


Bemerkungen (Zur Existenz und Endlichkeit der Momente)
ur i IN wird eine diskre1. St. Petersburger Paradox: Durch P (X = 2i ) = 21i f

P
2i = 1. Die Verteilung tritt bei folgendem
te Verteilung definiert; denn
i=1

Spiel auf: Eine M


unze wird geworfen, bis erstmals Wappen erscheint. Wenn
dies beim i-ten Mal geschieht, erhalt ein Mitspieler eine Auszahlung von
X = 2i Geldeinheiten.
Der Erwartungswert von X ist
=

X
i=1

2i 2i = .

Man sagt, existiert, ist aber unendlich.


ERWARTUNGSWERT UND HOHERE
MOMENTE

53

2. Cauchy-Verteilung:

1 1
, x IR,
1 + x2
ist die Dichte der Cauchy-Verteilung. Obwohl sie symmetrisch zu c = 0 ist,
existiert der Erwartungswert nicht, da
Z
1 1
=
dx
x
2
1 + x
Z
Z
1 0
1 x
x
=
dx +
dx
1 + x2
0 1 + x2
f (x) =

und das zweite Integral den Wert plus unendlich annimmt, das erste jedoch
den Wert minus unendlich.
3. Wenn ein k-tes Moment (gewohnlich oder zentral) existiert und endlich ist,
dann existieren auch alle niedrigeren (gewohnlichen und zentralen) Momente. 0k existiert und ist endlich genau dann, wenn k existiert und endlich ist.
F
ur die St.Petersburger Verteilung und die Cauchy-Verteilung folgt daraus,
dass sie keine endlichen hoheren Momente, z.B. Varianzen, besitzen.
4. Wenn der Trager beschrankt ist, besitzt die Verteilung endliche Momente
beliebiger Ordnung.
5. Wenn eine Verteilung symmetrisch zu c ist und einen endlichen Erwartungswert besitzt, dann ist dieser offenbar gleich c. Die Symmetrie der Verteilung
ist jedoch nicht hinreichend f
ur die Existenz eines endlichen Erwartungswertes, wie die Cauchy-Verteilung zeigt.
.
Zum Beispiel ist die stetige Gleichverteilung R(a, b) symmetrisch zu c = a+b
2
Da der Trager beschrankt ist, T = [a, b], existiert ein endliches , also ist
= c.
8.3

Schiefe und W
olbung

Schiefe 1 und Wolbung 2 von X sind wie folgt definiert:


1 :=

3
3

2 :=

4
4

2 heit auch Kurtosis von X.


8.4

Momente bei affiner Transformation

Sei Y = + X, > 0. Die Momente von Y ergeben sich in einfacher Weise aus
denen von X. Zunachst gilt f
ur den Erwartungswert
E(Y ) = E( + X) = + E(X),

54

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

ferner f
ur das k-te zentrale Moment


k (Y ) = E (Y E(Y ))k = E ( + X E(X))k

= k E (X E(X))k
= k k (X).

Speziell f
ur Varianz, Standardabweichung, Schiefe und Wolbung erhalten wir
V ar(Y )
(Y )
1 (Y )
2 (Y )

2 V ar(X),
(X),
1 (X),
2 (X).

=
=
=
=

In einer Lage-Skalenklasse gen


ugt es also, diese Verteilungsparameter nur einer
Verteilung, etwa der Standardverteilung zu berechnen; f
ur allgemeine Verteilungen der Klasse erhalt man sie dann durch einfache Transformationen.
8.5

Invarianz eines Verteilungsparameters

Ein Verteilungsparameter ist eine Funktion, die jeder Verteilung (aus einer
gewissen Menge von Verteilungen) eine Zahl zuordnet. Die gewohnlichen und die
zentralen Momente sowie Schiefe und Wolbung sind Verteilungsparameter. Ein
Verteilungsparameter heit lageinvariant, wenn (FX ) = (FX+ ) gilt f
ur jedes
IR. heit skaleninvariant, wenn (FX ) = (FX ) gilt f
ur jedes > 0. Zum
Beispiel sind alle zentralen Moment und die Standardabweichung lageinvariant;
Schiefe und Wolbung sind auerdem skaleninvariant.
8.6

Satz (Formeln fu
r zentrale und nichtzentrale Momente)
0k

k  
X
k
j=0

kj j ,

 
k
X
j k
0kj j .
=
(1)
j
j=0

Beweis mit der binomischen Formel, (a + b)n =

Pn

k=0

n
k

ak bnk .

Speziell f
ur k = 2, 3, 4 liefert der Satz die Formeln:
 
 
 
0 1
2 2
0 0
1 2
0 2
00 2
1 + (1)
2 + (1)
2 = (1)
2
1
0
0
2
2
0
2
= 2 2 + = 2 ,
2 = E(X 2 ) (E(X))2 ,
3 = 03 302 + 23,
4 = 04 403 + 6022 34 .

SPEZIELLE VERTEILUNGEN55
BERECHNUNG VON VERTEILUNGSPARAMETERN FUR

Berechnung von Verteilungsparametern fu


r spezielle Verteilungen
8.7

Bernoulli-Verteilung (vgl. 6.2)

Sei X B(1, ). Dann ist


= E(X) = 0 (1 ) + 1 =
2 = V ar(X) = E(X 2 ) (E(X))2 = 02 (1 ) + 12 2
= 2 = (1 )
3 = E((X )3 ) = (0 )3 (1 ) + (1 )3
= 3 (1 ) + (1 )3 = (1 )[(1 )2 2 ] = (1 )[1 2]
4 = E((X )4 ) = 4 (1 ) + (1 )4 = (1 )[ 3 + (1 )3 ]
1 2
3
,
=p
1 =
3

(1 )
2

4
(1 )3 + 3
=
=
.
4
(1 )

Die Schiefe ist positiv (negativ) genau dann, wenn <


gleich 0, wenn = 21 .

8.8

1
2

(bzw. > 21 ) ist; sie ist

Exponentialverteilung (vgl. 6.9)

F
ur X Exp() und k IN gilt mit partieller Integration:
0k

0k

xk ex dx
0
Z
k x
= [x e ]0 +
=

k 0
, also
=
k1
k!
= k.

kxk1 ex dx

56

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

Es folgt = 01 = 1 , 02 =
2

= 2

2
.
2

Die zentralen Momente berechnet man mit Satz 8.3:

3 =
4 =
=
1 =

 2
1
1
= 2,

1
,

6
6
2
2
03 302 + 23 = 3 3 + 3 = 3 ,

0
0
0 2
4
4 43 + 62 3
24 24 12
3
9

=
,
4 4 4 4
4
3
4
= 2, 2 = 4 = 9.
3

=
2

Die Schiefe der Exponentialverteilung ist positiv. Allgemein weist, bei unimodalen
Verteilungen, eine positive Schiefe darauf hin, dass die Dichte rechtsschief und

linkssteil ist.

Geometrische V. G()

Hypergeometrische V.
H(n, N, M )

Parameterbereich

n IN, 0 < < 1

>0

0<<1

0 M N, 0 n N

Trager

k {0, 1, . . . , n}

k {0, 1, . . . }

k {1, 2, . . . }

k {max(0, n+M N ),
. . . , min(M, n)}

e k!

(1 )k1

(Mk )(NM
nk )
(Nn )
nM
N

Wahrscheinlichkeitsfunktion

k (1 )nk

n(1 )

1
2

2
1

1
2
mod

n
k

12

n(1)

6
n

1
n(1)

[(n + 1)]

3+

[]

[x] bezeichnet die gr


ote ganze Zahl, die kleiner oder gleich x ist.
Ist x ganzzahlig, so ist auch der um eins kleinere Wert ein Modus.

9+

(1
nM
N

M N n
)
N N 1

2
1

(M +1)(n+1)
N +2

SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR

Poisson-V. P o()

57

8.9 Ubersicht
u
ber die wichtigsten univariaten Verteilungen und ihre
Parameter.
Diskrete Verteilungen

Binomial-V. B(n, )

Verteilung

IR, > 0

IR, > 0

a, b IR, a < b

>0

Trager

IR

[0, )

[a, b]

[0, )

Dichte

2
1
1 e 2 2 (x)
2

12 (ln x)2
2
1
e
2x

1
ba

ex

Momente

k
Q
(2i 1)
2k = 2k
i=1
2k1 = 0

k2 2
2

0k = ek+
1

2k1 = 0

e+ 2

e2+ (e 1)

med

mod

1
2k = k+1

1
(a
2
1
(b
12

e 2 1(e + 2)

1
(a
2
2


ba k
2

0k =

+ b)

a)2

1
2

9
5

+ b)

Alle x [a, b]

k!
k

ln 2
0

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

Parameterbereich

Rechteck-V. R(a, b)

58

Exponential-V.
Exp()

Normal-V. N (, 2 )

Stetige Verteilungen I

Lognormal-V.
LN (, 2 )

Verteilung

Weibull-V. W (, a)

Doppelte Exponential-V. DE(, )

Cauchy-V. C(, )

Parameterbereich

b, p > 0

, a > 0

IR, > 0

IR, > 0

Trager

[0, )

[0, )

IR

IR

Dichte

bp bx p1
e x
(p)

|x|
1
e
2

1
2 +(x)2

Momente

0k =

x
axa1 (
e )
a

(k+p)
bk (p)

p
b

p
b2

2
p

3+

0k = k 1 +
1 +

1
a

k
a

a+1 2
2 (( a+2
a ) ( a ) )

6
p

a
ln 2

med
mod

p1
,
b

0,

p1
p<1

a 1 a1 , a 1
0,
a<1

2k = (2k)! 2k
2k1 = 0

Existiert nicht

Existiert nicht

2 2

Existiert nicht

Existiert nicht

Existiert nicht

59

(x) bezeichnet
die sogenannte Gammafunktion. F
ur x > 0 ist die Gammafunktion definiert durch
R
(x) = 0 tx1 et dt. F
ur n IN gilt (n) = (n 1)!.

SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR

Gamma-V.
Gam(b, p)

Stetige Verteilungen II

Verteilung

Parameterbereich

p, q > 0

p, q > 0

IR, > 0

, c > 0

[0, 1]

[0, )

IR

[c, )

Trager
Dichte
Momente

1
xp1 (1
B(p,q)

B(k+p,q)
B(p,q)

0k =

xp1
1
B(p,q) (1+x)p+q

x)q1
0k

p
p+q

p
,
q1

pq
(p+q)2 (p+q+1)

p(p+q1)
,
(q1)2 (q2)

2(qp)
p+q+2

q>1
q>2

p+q+1
pq

g=
y=

Pareto-V. P ar(, c)

,
3
x

0k =


c +1
x

ck
,
k

k<

c
,
1

c2
,
(1)2 (2)

>2

2(+1) 2

,
(3)

>3

>1

4.2

med
mod

gegy
,
(1+egy )2

B(k+p,qk)
, k<q
B(p,q)

Logistische V.
L(, 2 )

p1
,
p+q2

p, q 1,
p+q >2

p1
,
q+1

p>1
sonst

c 2

B(p, q) bezeichnet die sogenannte Betafunktion. F


ur p, q > 0 ist die Betafunktion definiert durch
R 1 p1
q1
B(p, q) = 0 t (1 t) dt.
.
Die Betafunktion steht in enger Beziehung zur Gammafunktion: B(p, q) = (p)(q)
(p+q)

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

Beta-V. 2. Art
Beta2 (p, q)

60

Beta-V. 1. Art
Beta1 (p, q)

Stetige Verteilungen III

Verteilung

SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR
8.10

61

Die Ungleichungen von Markoff und von Tschebyscheff

(1) Markoffsche Ungleichung


P (|X| )

E (|X|r )
r

f
ur alle  > 0, r > 0.

Beweis (f
ur X stetig):
r

E (|X| ) =

IR

|x|r f (x)dx
Z

|x| f (x)dx +

{x| |x|<}
r

0 +  P (|X| )

|x|r f (x)dx

{x| |x|}

(2) Tschebyscheffsche Ungleichung


P (|X | )

2
f
ur alle ,
2

wenn X endliche Varianz 2 und Erwartungswert besitzt.


Beweis In der Markoffschen Ungleichung setzt man r = 2 und X f
ur
X ein.

Anwendung Die Tschebyscheffsche Ungleichung liefert Intervalle, die X mit


einer Mindestwahrscheinlichkeit enthalten. Mit  = , > 1, erhalt man
P ( X + ) 1

1
.
2

Speziell ist die Wahrscheinlichkeit, dass X um hochstens die doppelte Standardabweichung von seinem Erwartungswert abweicht, mindestens gleich 34 . F
ur die
8
dreifache Standardabweichung ist diese Wahrscheinlichkeit mindestens 9 . Dies
gilt f
ur beliebig verteilte Zufallsvariablen, deren Standardabweichung endlich ist.

62

KAPITEL 8. MOMENTE EINER UNIVARIATEN VERTEILUNG

Kapitel 9
Gemeinsame Verteilungen von
Zufallsvariablen
Multivariate Verteilungen
Seien X und Y Zufallsvariablen auf dem Wahrscheinlichkeitsraum (, A, P ).
9.1

Gemeinsame Verteilungsfunktion

Man definiert
F (x, y) = P (X x, Y y)
= P ({ | X() x, Y () y}) .
Die Funktion F : IR2 [0, 1] heit gemeinsame Verteilungsfunktion von X und
Y oder auch Verteilungsfunktion des Zufallsvektors (X, Y ) in IR2 .
Die gewohnliche Verteilungsfunktion FX von X erhalt man aus der gemeinsamen
Verteilungsfunktion durch den Grenz
ubergang
FX (x) = P (X x) = lim P (X x, Y y)
y

lim F (x, y);

und ebenso die Verteilungsfunktion FY von Y durch FY (y) = lim F (x, y). FX
x

und FY nennt man auch Randverteilungsfunktionen (Marginalverteilungsfunktionen) des Zufallsvektors (X, Y ).


Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

64KAPITEL 9. GEMEINSAME VERTEILUNGEN VON ZUFALLSVARIABLEN


9.2

Gemeinsame diskrete Verteilung

Falls (X, Y ) nur endlich oder abzahlbar viele Wertepaare mit positiver Wahrscheinlichkeit annimmt, (xi , yj ) IR2 , i = 1, 2, . . . , j = 1, 2, . . . , haben X und Y
eine gemeinsame diskrete Verteilung; kurz: (X, Y ) ist diskret verteilt. Dann sind
die Randwahrscheinlichkeiten durch
P (X = xi ) =

P (X = xi , Y = yj ), i = 1, 2, . . .

und
P (Y = yj ) =

P (X = xi , Y = yj ), j = 1, 2, . . . ,

gegeben. Die bedingte Wahrscheinlichkeit f


ur X = xi unter der Bedingung, dass
Y = yj gilt, ist gleich
P (X = xi | Y = yj ) =

P (X = xi , Y = yj )
,
P (Y = yj )

und entsprechend ist P (Y = yj | X = xi ) definiert.


9.3

Beispiel

Bei einem Bernoulli-Experiment mit n = 2 Stufen und Erfolgswahrscheinlichkeit


beschreibt X das Ergebnis der ersten Stufe, Y das der zweiten. Wir haben dann
P (X
P (X
P (X
P (X

= 1,
= 0,
= 1,
= 0,

Y
Y
Y
Y

= 1)
= 1)
= 0)
= 0)

=
=
=
=

2,
(1 ),
(1 ),
(1 )2 .

Die gemeinsame Verteilungsfunktion ist

1,
x 1 und y 1,

x 1 und 0 y < 1,
1 ,
1 ,
0 x < 1 und y 1,
F (x, y) =

(1

)
,
0 x < 1 und 0 y < 1,

0,
x < 0 oder y < 0.

Die Werte von F sind in der Zeichnung vermerkt.

65

MULTIVARIATE VERTEILUNGEN
y
0

1
s

(1 )2

1
s

- x
0

Die Randverteilungsfunktion von X,

1
1
FX (x) = lim F (x, y) =
y

falls x 1
falls 0 x < 1
falls x < 0

ist die Verteilungsfunktion einer B(1, )-Variablen; das gleiche gilt f


ur FY .
9.4

Gemeinsame stetige Verteilung

Zwei Zufallsvariable X und Y heien gemeinsam stetig verteilt (man sagt auch,
das Paar (X, Y ) sei stetig verteilt), wenn sich ihre gemeinsame Verteilungsfunktion F als Stammfunktion einer Funktion f schreiben lasst, d.h. wenn es eine
Funktion f : IR2 IR gibt, so dass
Z y Z x
F (x, y) =
f (u, v) du dv.

f heit
ur Mengen B in IR2 gilt P ((X, Y )
R Rgemeinsame Dichte von X und Y . F
f (x, y)dx dy und speziell f
ur Rechtecke
B) =
B

P (1 X 1 , 2 Y 2 ) =

f (x, y)dx dy

Bis auf mogliche Ausnahmepunkte (die auf hochstens abzahlbar vielen Geraden
in IR2 liegen) gilt dann
2
F (x, y) .
f (x, y) =
x y
R
R
Die Funktionen fX (x) = f (x, y)dy und fY (y) = f (x, y)dx heien
Randdichten; offenbar ist fX die Dichte von X und fY die von Y .
Durch

f (x, y)
,
falls fY (y) 6= 0,
fX|Y =y (x) =
fY (y)

nicht definiert, falls fY (y) = 0,

66KAPITEL 9. GEMEINSAME VERTEILUNGEN VON ZUFALLSVARIABLEN


wird die bedingte Dichte von X, gegeben Y = y, definiert; analog fY |X=x (y).
Die bedingte Dichte von X, gegeben Y = y, ist selbst die Dichte einer Zufallsvariablen, sofern fY (y) 6= 0 ist. Vgl. auch die Definition der bedingten Wahrscheinlichkeit in 4.1.
9.5

Beispiel

Wir betrachten die Gleichverteilung auf dem Rechteck [0, 1] [5, 10]. Sie hat die
Dichte
 1
, falls 0 < x < 1 und 5 < y < 10,
5
f (x, y) =
0 sonst.
Ihre Randdichten fX und fY sind die der stetigen Gleichverteilung auf [0, 1] bzw.
[5, 10]. F
ur die bedingte Dichte von X bzgl. Y = 6 gilt:

1, falls 0 < x < 1,
fX|Y =6 (x) =
0 sonst.
9.6

Unabh
angigkeit zweier Zufallsvariablen

X und Y heien stochastisch unabhangig, falls F (x, y) = FX (x) FY (y) f


ur be
liebige x und y gilt. Aquivalent dazu ist, im Falle einer stetigen gemeinsamen
Verteilung,
f (x, y) = fX (x) fY (y)
f
ur alle x und y, woraus fX (x) = fX|Y =y (x) folgt. Im Falle einer diskreten gemeinsamen Verteilung ist die stochastische Unabhangigkeit gleichbedeutend mit
P (X = xi , Y = yj ) = P (X = xi ) P (Y = yj )
f
ur alle i und j.
Sowohl im Beispiel 9.3 (Bernoulliexperiment) als auch im Beispiel 9.5 (Gleichverteilung auf einem Rechteck) liegt stochastische Unabhangigkeit vor. Vgl. dazu
auch die stochastische Unabhangigkeit von Ereignissen in 4.3.
9.7

n-variate Verteilungen, n 2

F
ur mehr als zwei Zufallsvariablen X1 , . . . , Xn definiert man die gemeinsame Verteilungsfunktion F : IRn [0, 1], F (x) = F (x1 , x2 , . . . , xn ) = P (X1 x1 , X2
x2 , . . . , Xn xn ). Der Zufallsvektor X = (X1 , . . . , Xn ) ist stetig, wenn es eine
Dichte f gibt mit
Z x1
Z xn
f (t1 , . . . , tn )dt1 . . . dtn ,
...
F (x1 , . . . , xn ) =

67

MULTIVARIATE VERTEILUNGEN
also

n
F (x1 , ..., xn )
f (x) = f (x1 , ..., xn ) =
x1 ...xn
bis auf Ausnahmestellen.
Stochastisch unabhangig nennt man die Zufallsvariablen X1 , ..., Xn (oder den
Zufallsvektor X), wenn
F (x1 , ..., xn ) = F1 (x1 ) ... Fn (xn ).
Hier bezeichnet Fi die Randverteilungsfunktion von Xi . Im stetigen Fall lautet
die Bedingung
f (x1 , ..., xn ) = f1 (x1 ) ... fn (xn )
mit den Randdichten fi . (Man u
berlege sich, dass aus der stochastischen Unabhangigkeit von X1 , ..., Xn die stochastische Unabhangigkeit jeder Auswahl
Xi1 , ..., Xik aus diesen Variablen folgt.)
Wenn n 3 ist, treten nicht nur univariate sondern auch multivariate Randverteilungen auf. Bedingte Dichten sind Funktionen eines Teils der Variablen,
wahrend die u
brigen Variablen durch die Bedingung festgelegt sind.
Also, z.B. mit n = 3,
fX1 |(X2 ,X3 )=(x2 ,x3 ) (x1 ) =

f (x1 , x2 , x3 )
,
fX2 X3 (x2 , x3 )

falls der Nenner 6= 0 ist.


X1 , ..., Xn heien unabhangig identisch verteilt (i.i.d.), wenn sie stochastisch unabhangig sind und alle univariaten Randverteilungen gleich sind, also
F (x1 , ..., xn ) = F1 (x1 ) ... F1 (xn ).
Auf englisch heit dies independent identically distributed und wird als i. i.

d. abgek
urzt.
Anwendung in der statistischen Inferenz In der schlieenden Statistik fasst
man wiederholte Beobachtungen eines bestimmten Merkmals als Realisationen
von identisch verteilten Zufallsvariablen auf: Die Beobachtungen x1 , x2 , . . . , xn
sind Werte der identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn . Meistens trifft
man zusatzlich die Annahme, dass die n Zufallsvariablen stochastisch unabhangig
sind. Man nennt dann X1 , X2 , . . . , Xn eine (einfache) Stichprobe. Die gemeinsame Wahrscheinlichkeitsverteilung der X1 , X2 , . . . , Xn ist das stochastische Modell
der Beobachtungen; diese Verteilung wird als nur zum Teil bekannt vorausgesetzt.
Auf Grund der realisierten Werte der Stichprobe werden nun unbekannte Parameter des Modells geschatzt bzw. Hypothesen u
ber das Modell verworfen oder

68KAPITEL 9. GEMEINSAME VERTEILUNGEN VON ZUFALLSVARIABLEN


bestatigt. Der Parameterschatzer bzw. die Testgroe hangen von den zufalligen

Beobachtungen ab und sind dadurch ebenfalls Zufallsvariablen. Uber


sie und die
dabei zur Anwendung kommenden Schlussverfahren erlaubt es die schlieende
Statistik, Wahrscheinlichkeitsaussagen herzuleiten.

Eigenschaften multivariater Verteilungen


9.8

Stochastische Unabh
angigkeit bei Transformation

Wenn X und Y stochastisch unabhangig sind, sind auch beliebige Transformationen g(X) und h(Y ) stochastisch unabhangig. Allgemein gilt der folgende Satz.
Satz Seien U = g(X1 , ..., Xn ) und V = h(Y1 , ..., Ym ) Zufallsvariablen oder vektoren. Wenn die m + n Zufallsvariablen X1 , ..., Xn , Y1, ..., Ym stochastisch unabhangig sind, dann sind auch U und V stochastisch unabhangig.
Beispiel Sind X, Y und Z unabhangig, dann sind auch X+Y und Z 2 unabhangig.
9.9

Verteilung des Minimums und des Maximums von i.i.d. Zufallsvariablen

Gegeben sei der Zufallsvektor (X1 , ..., Xn ) = X. Man definiert den geordneten
Zufallsvektor X() = (X(1) , ..., X(n) ), wobei X(1) den kleinsten Wert von X1 , ..., Xn
bedeutet, X(2) den zweitkleinsten, und so fort. In vielen Anwendungen - etwa
der Lebensdaueranalyse - ist es von Interesse wie das Minimum X(1) und das
Maximum X(n) verteilt sind. Falls die X1 , ..., Xn unabhangig identisch verteilt
sind, erhalten wir
P (X(n) x) =
=
=
P (X(1) > x) =
=
P (X(1) x) =

9.10

P (Xi x f
ur alle i)
P (X1 x) ... P (Xn x)
[F1 (x)]n ,
P (Xi > x f
ur alle i)
n
[1 F1 (x)] ,
1 [1 F1 (x)]n .

Beispiel

Die Verteilung des diskreten Zufallsvektors (X, Y ) werde durch folgende Tabelle
der Einzelwahrscheinlichkeiten pij = P (X = xi , Y = yj ) gegeben.

EIGENSCHAFTEN MULTIVARIATER VERTEILUNGEN

pij
X=1
2
3

Y =
0
0.1
0.2
0.3
0.6

1
0.0
0.3
0.1
0.4

69

0.1
0.5
0.4
1.0

Die Rander enthalten die Zeilen- und Spaltensummen, das sind die Randwahrscheinlichkeiten von X bzw. Y . Wir suchen die Verteilung der Zufallsvariablen
Z := X + Y. F
ur die Wahrscheinlichkeiten von Z gilt allgemein
X
P (Z = z) =
P (X = xi , Y = z xi ), z IR,
i

also hier
zi 1
2
3
4
P (Z = zi ) 0.1 0.2 0.6 0.1
F (zi ) 0.1 0.3 0.9 1.0
9.11

Dichte einer Summe und einer Differenz von Zufallsvariablen

Falls X und Y gemeinsam diskret verteilt sind, berechnet man die Verteilung von
Z = X + Y wie im vorigen Beispiel. F
ur gemeinsame stetig verteilte X und Y
gilt der folgende Satz.
Satz Sei f die Dichte von (X, Y ). Dann sind X + Y und X Y stetig verteilt
mit den Dichten
Z
fX+Y (z) =
f (x, z x) dx,

Z
fXY (z) =
f (x, x z) dx.

Beweis Sei X = x und Y = y f


ur irgendwelche Werte x und y. Dann ist X+Y z
genau dann, wenn y z x ist. Um die Wahrscheinlichkeit P (X + Y z)
zu berechnen, m
ussen wir die gemeinsame Dichte f (x, y) u
ber alle die x und y
integrieren, f
ur die y z x ist.
Z Z zx
P (X + Y z) =
f (x, y) dy dx

Z Z z
=
f (x, u x) du dx,

70KAPITEL 9. GEMEINSAME VERTEILUNGEN VON ZUFALLSVARIABLEN


wobei u = y + x substituiert wurde. Ableiten nach z liefert
Z
d
P (Z z) =
f (x, z x) dx,
dz

also die erste Behauptung. Die zweite beweist man ebenso.


9.12

Beispiel

Sei (X, Y ) stetig gleichverteilt auf dem Einheitsquadrat in IR2 ,



1, falls 0 < x < 1 und 0 < y < 1,
f (x, y) =
0 sonst.
fX+Y (z) =

f (x, z x)dx =

1dx, wobei

B(z)

B(z) = {x|0 < x < 1 und 0 < z x < 1}


= ]0, 1[ ]z 1, z[

falls 0 < z 1,
]0, z[,
]z 1, 1[, falls 1 < z < 2,
=

sonst.

falls 0 < z 1,
z,
2 z, falls 1 < z < 2,
fX+Y (z) =

0
sonst.

Die zu fX+Y gehorige Verteilung heit symmetrische Dreiecksverteilung, auch:


Simpson-Verteilung, auf dem Intervall [0, 2]. Die Summe zweier unabhangiger,
auf [0, 1] rechteckverteilter Zufallsvariablen ist also auf [0, 2] symmetrisch dreiecksverteilt.
9.13

Dichte eines Produktes und eines Quotienten von Zufallsvariablen

Entsprechende Formeln gelten f


ur die Dichte des Produktes und die Dichte des
Quotienten von zwei Zufallsvariablen.
(soweit definiert) stetig
Satz (X, Y ) besitze die Dichte f . Dann sind X Y und X
Y
verteilt mit den Dichten
Z
1  z
fXY (z) =
dx,
f x,
x
|x|
Z
|x|f (z x, x)dx.
f X (z) =
Y

Kapitel 10
Momente bei mehreren
Zufallsvariablen
Erwartungswerte und Kovarianzen
10.1

Multivariater Erwartungswert

Seien X1 , . . . , Xn gemeinsam verteilte Zufallsvariablen. Der Erwartungswert einer


Funktion g : IRn IR dieser Variablen ist wie im univariaten Fall definiert:
P

x1 ,...,xn g(x1 , . . . , xn ) P (X1 = x1 , . . . , Xn = xn ) bzw.


E (g(X1, . . . , Xn )) =
R
R

g(x1 , . . . , xn )f (x1 , . . . , xn )dx1 . . . dxn


,
...

falls die X1 , . . . , Xn gemeinsam diskret bzw. stetig verteilt sind.

Der bivariate Fall n = 2 ist auch hier der wichtigste, so dass wir uns im folgenden zumeist auf ihn beschranken. Seien also X und Y gemeinsam verteilte
Zufallsvariablen.
10.2

Satz

(1) E(X + Y ) = EX + EY ,
(2) E(X) = E(X) f
ur jedes IR,
(3) X Y

(3) P (X Y ) = 1

EX EY,

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

EX EY .
Oktober 2013

72

KAPITEL 10. MOMENTE BEI MEHREREN ZUFALLSVARIABLEN

(1) und (2) bedeuten, dass der Erwartungswert additiv und homogen ersten Grades, also linear ist. (3) und das etwas allgemeinere (3) heien, dass der Erwartungswert monoton wachsend ist.
Beweis von (1): Im diskreten Fall sei zur Abk
urzung pij := P (X = xi , Y = yj )
gesetzt. Dann ist
XX
E(X + Y ) =
(xi + yj )pij
i

XX
X

xi

xi pij +

XX
i

pij +

yj pij

yj

xi P (X = xi ) +

pij

yj P (Y = yj )

= EX + EY

Den stetigen Fall beweist man analog.


10.3

Die Kovarianz zweier Zufallsvariablen

Definition cov(X, Y ) := E ((X EX)(Y EY )) heit Kovarianz von X und


Y.
Satz
(1) var(X + Y ) = varX + varY + 2cov(X, Y ),
(2) cov(X, Y ) = E(XY ) EX EY,
(3) cov(X, Y ) = cov(Y, X),
(4) cov(X, X) = varX,
(5) cov( + X, Y ) = cov(X, Y ),
(6) X und Y stochastisch unabhangig
varX + varY.

cov(X, Y ) = 0, var(X + Y ) =

73

ERWARTUNGSWERTE UND KOVARIANZEN


Beweis
(1):


var(X + Y ) = E (X + Y E(X + Y ))2

= E (X EX + Y EY )2

= E (X EX)2 + (Y EY )2 + 2(X EX)(Y EY )




= E (X EX)2 + E (Y EY )2 + 2E (X EX)(Y EY )
= varX + varY + 2cov(X, Y )

(3) und (4) sind offensichtlich, (2) und (5) rechnet man ahnlich wie (1) aus.
(6): Sei (X, Y ) stetig verteilt und unabhangig. Dann ist f (x, y) = fX (x) fY (y),
E(X Y ) =

R R

xyf (x, y)dxdy =

also wegen (2) cov(X, Y ) = 0.


10.4

xfX (x)dx

yfY (y)dy = EX EY,

Der Korrelationskoeffizient zweier Zufallsvariablen

Definition (X, Y ) =
Y.

cov(X, Y )

heit Korrelationskoeffizient von X und


varX varY

Satz
(1) 1 (X, Y ) 1.
(2) (X, Y ) = 1
(3) (X, Y ) = 1

es gibt Zahlen IR, > 0, so dass P (Y = + X) = 1.

es gibt Zahlen IR, < 0, so dass P (Y = + X) = 1.

(4) X und Y stochastisch unabhangig (X, Y ) = 0.


Bemerkung In den Fallen (2) und (3) liegt fast sichere affin-lineare Abhangigkeit zwischen X und Y vor. Wenn 2 (X, Y ) nahe 1 ist, deutet dies auf einen
ungefahren affin-linearen Zusammenhang hin.
Wenn = 0 ist, besteht zwar kein solcher linearer Zusammenhang aber womoglich
eine andere funktionale Abhangigkeit (z.B. eine quadratische). Insbesondere kann
man aus = 0 nicht die stochastische Unabhangigkeit von X und Y folgern.
Zahlenbeispiel Im Beispiel 9.10 ist EX = 2.3, EY = 0.4, varX = 0.41, varY =
0.24, cov(X, Y ) = 0.02, (X, Y ) = 0.0638.

74

KAPITEL 10. MOMENTE BEI MEHREREN ZUFALLSVARIABLEN

10.5

Erwartungsvektor, Kovarianzmatrix, Korrelationsmatrix

Definition F
ur einen Zufallsvektor X = (X1 , ..., Xn ) heit
E(X) =

(EX1 , ..., EXn ) Erwartungswertvektor von X,

Cov(X) =

Cor(X) =

varX1
cov(X1 , X2 )
cov(X2 , X1 )
varX2
..
..
.
.
cov(Xn , X1 ) cov(Xn , X2 )

1
(X1 , X2 )
(X2 , X1 )
1
..
..
.
.
(Xn , X1 ) (Xn , X2 )

. . . cov(X1 , Xn )
. . . cov(X2 , Xn )
..
..
.
.
...
varXn
. . . (X1 , Xn )
. . . (X2 , Xn )
..
..
.
.
...
1

Kovarianzmatrix von X,

Korrelationsmatrix von X.

Cov(X) und Cor(X) sind symmetrische Matrizen; auerdem sind sie nichtnegativ definit.1
Zahlenbeispiel Im vorigen Beispiel erhalt man
E(X) = (2.3, 0.4) ,


0.41 0.02
,
Cov(X) =
0.02 0.24


1
0.06376
.
Cor(X) =
0.06376
1

Bedingte Momente und Regression


10.6

Bedingte Erwartungswerte

In 9.4 wurde bereits bemerkt, dass die bedingte Dichte von Y , gegeben X = x, die
Dichte einer Zufallsvariablen darstellt. Deren Erwartungswert wird als bedingter
Erwartungswert von Y , gegeben X = x, bezeichnet; im Symbol E(Y |X = x).
Entsprechendes wird f
ur gemeinsam diskret verteilte Y und X definiert:
Definition
 P
y P (Y = yi |X = x),
E(Y |X = x) = R i i
yfY |X=x (y)dy,

falls (X, Y ) diskret,


falls (X, Y ) stetig.

Eine symmetrische Matrix ist nichtnegativ definit, wenn f


ur alle Zeilenvektoren x IRn
0
gilt: xAx 0.
1

BEDINGTE MOMENTE UND REGRESSION

75

Dies ist hochstens f


ur x aus dem Trager von X definiert, im diskreten Fall also
f
ur x = xi , i = 1, 2, . . ., im stetigen Fall f
ur x mit f (x) > 0. Der bedingte
Erwartungswert, gegeben X = x, hat alle Eigenschaften, die der gewohnliche
Erwartungswert (vgl. 8.1) hat; insbesondere ist er linear und monoton wachsend
(vgl. Satz 10.2). Wir betrachten ferner die Zufallsvariable E(Y |X), die den Wert
E(Y |X = x) annimmt, wenn X den Wert x annimmt; sie heit bedingter Erwartungswert von Y unter X. Bildet man wiederum den Erwartungswert dieser
Zufallsvariablen bez
uglich X , so erhalt man den gewohnlichen Erwartungswert von Y :
Satz vom iterierten Erwartungswert
E(E(Y |X)) = E(Y ) ,
wobei der innere, bedingte Erwartungswert sich auf die Zufallsvariable Y , gegeben
X, und der auere Erwartungswert sich auf die Zufallsvariable X bezieht.
Beweis (f
ur den diskreten Fall)
X
X
P (X = xj )
yi P (Y = yi|X = xj )
E(E(Y |X)) =
j

yi

yi

P (X = xj )P (Y = yi|X = xj )

P (Y = yi , X = xj )

yi P (Y = yi)

= E(Y )

10.7

Regression erster Art

Der bedingte Erwartungswert von Y , gegeben X = x, beschreibt den mittleren


Wert von Y unter der Bedingung, dass X den Wert x annimmt.
Definition Die Funktion gI ,
gI (x) = E(Y |X = x)
f
ur alle x, f
ur die E(Y |X = x) definiert ist, nennt man Regressionsfunktion erster
Art von Y auf X.
Zum Beispiel, wenn (X, Y ) diskret verteilt ist mit P (X = xi , Y = yi ) = n1 f
ur alle
i = 1, 2, . . . , n, dann ist gI (xi ) gleich dem bedingten arithmetischen Mittel von Y

76

KAPITEL 10. MOMENTE BEI MEHREREN ZUFALLSVARIABLEN

unter der Bedingung X = xi ; vgl. die Regression erster Art in der Deskriptiven
Statistik.
Satz F
ur jede Funktion h : IR IR gilt
E((Y h(X))2 ) E((Y E(Y |X))2 ) = E((Y gI (X))2 ).
Mit anderen Worten, die Regressionsfunktion erster Art liefert gegen
uber allen
anderen Funktionen von X den kleinsten erwarteten quadratischen Abstand zu
Y . Zwei wichtige Extremfalle bestehen darin, dass Y bereits selbst eine Funktion
von X ist, bzw. dass Y stochastisch unabhangig von X ist:
Folgerungen
(1) Falls Y = h(X) ist, gilt E(Y |X = x) = h(x) f
ur alle x; d.h. die Regressionsfunktion erster Art ist gleich h.
(2) Falls Y und X stochastisch unabhangig sind, ist der bedingte Erwartungswert gleich dem gewohnlichen Erwartungswert, also E(Y |X = x) = E(Y )
f
ur alle x. Aus (1) folgt dann, dass die Regressionsfunktion erster Art konstant ist und gleich dem Erwartungswert von Y .
10.8

Bedingte Varianz

Definition
P
2

i (yi E(Y |X = x)) P (Y = yi |X = x), falls (X, Y ) diskret,


var(Y |X = x) =
R

(y E(Y |X = x))2 fY |X=x (y)dy,


falls (X, Y ) stetig,

heit bedingte Varianz von Y , gegeben X = x. Mit var(Y |X) bezeichnet man
die Zufallsvariable, die den Wert var(Y |X = x) annimmt, wenn X den Wert
x annimmt. Sie heit bedingte Varianz von Y unter X. Analog zum Satz vom
iterierten Erwartungswert ist
E(var(Y |X)) = E(E((Y E(Y |X))2|X)
= EX,Y ((Y E(Y |X))2 ) .
(Man beachte, dass in der ersten Zeile sich die beiden aueren, nicht bedingten
Erwartungswerte auf X beziehen, der in der Klammer stehende, nicht bedingte
Erwartungswert auf Y . In der zweiten Zeile wird der Erwartungswert bez
uglich
der gemeinsamen Verteilung von X und Y gebildet.)

BEDINGTE MOMENTE UND REGRESSION

77

Es gilt ferner die Varianzzerlegung


varY

=
=
=
=
=

E(Y 2 ) (E(Y ))2


EX (E(Y 2 |X)) (EX (E(Y |X)))2
EX (E(Y 2 |X)) EX (E(Y |X)2) + EX (E(Y |X)2 ) (EX (E(Y |X)))2
EX (var(Y |X)) + varX (E(Y |X))
EX,Y ((Y gI (X))2 ) + var(gI (X)).

(Man mache sich auch hier klar, bez


uglich welcher Zufallsvariablen die Varianzen und Erwartungswerte jeweils gebildet werden!) Die Varianz von Y zerfallt
demnach in die Varianz der durch die Regressionsfunktion definierten Zufallsvariablen, das ist die durch die Regression erster Art erklarte Varianz, und die
restliche, nichterklarte Varianz, die gleich dem Erwartungswert der bedingten
Varianz von Y unter X ist. Die G
ute der Anpassung durch die Regression erster
Art wird also durch den Quotienten aus erklarter Varianz und gesamter Varianz
von Y
E(var(Y |X))
var(E(Y |X))
=1
varY
varY
beschrieben. Er ist offenbar 0 genau dann, wenn X, Y stochastisch unabhangig
sind und deshalb E(Y |X) konstant gleich E(Y ) ist. Der Quotient betragt 1 genau
dann, wenn var(Y |X) fast sicher 0, also Y = E(Y |X) ist. In diesem Fall ist Y
fast sicher gleich einer Funktion von X.
10.9

Regression zweiter Art (Lineare Regression)

Bei der Regression zweiter Art wird der mittlere Wert von Y durch eine affinlineare Funktion von X wie folgt beschrieben.
Definition Die Funktion gII : T (X) IR, gII (x) = a + bx, wobei
b=

cov(X, Y )
,
var(X)

a = E(Y ) bE(X),

heit Regressionsfunktion zweiter Art (lineare Regressionsfunktion) von Y auf


X.
Satz F
ur jede affin-lineare Funktion h : IR IR gilt



E (Y h(X))2 E (Y (a + bX))2 = E (Y gII (X))2 .

Die Regressionsfunktion zweiter Art liefert also gegen


uber allen anderen affinlinearen Funktionen von X den kleinsten erwarteten quadratischen Abstand zu
Y . Im Fall der stochastischen Unabhangigkeit von Y und X ist cov(X, Y ) = 0,
und die Regressionsfunktion zweiter Art ist konstant gleich E(Y ) wie bei der
Regression erster Art. Falls Y fast sicher gleich einer affin-linearen Transformation von X ist, d.h. es Konstanten a und b gibt mit Y = a + bX, erhalten wir
|(X, Y )| = 1 und E((Y gII (X))2 ) = 0.

78

KAPITEL 10. MOMENTE BEI MEHREREN ZUFALLSVARIABLEN

Kapitel 11
Spezielle multivariate
Verteilungen
Multinomialverteilung
11.1

Die Multinomialverteilung

Man verallgemeinert die Binomialverteilung (siehe 6.2) auf mehr als zwei Ereignisse wie folgt. Ein Experiment, bei dem k verschiedene Ergebnisse mit Wahrscheinlichkeiten 1 , . . . , k auftreten konnen, wird n-mal unabhangig voneinander
durchgef
uhrt.
P (X1 = r1 , . . . , Xk = rk ) gebe die Wahrscheinlichkeit an, dass genau rj -mal das
Ergebnis Aj auftritt (f
ur j = 1, 2, . . . , k). X = (X1 , . . . , Xk ) ist dann ein diskreter
Zufallsvektor in IRk , f
ur den gilt
P (X1 = r1 , . . . , Xk = rk ) =

n!
r1 . . . krk ,
r1 ! . . . rk ! 1

P
Pk1
j , rj {0, 1, . . . , n} f
ur alle j, kj=1 rj =
wobei j 0 f
ur alle j, k = 1 j=1
n, n IN. X heit multinomialverteilt mit Parametern n, 1 , . . . , k1 ; kurz:
X MN(n, 1 , . . . , k1 ). Die VerteilungPwird Multinomialverteilung oder auch
Polynomialverteilung genannt. Es gilt P ( kj=1 Xj = n) = 1.

Speziell f
ur k = 2 erhalt man den Vektor X = (X1 , X2 ) mit X1 B(n, 1 ),
X2 B(n, 2 ) und X2 = n X1 fast sicher.
Anwendung Beobachtung eines klassierten Merkmals durch Zufallsziehung aus
einer Grundgesamtheit.
Aus dem Experiment ist klar, dass jede univariate Randverteilung eine Binomialverteilung ist, Xj B(n, j ) f
ur j = 1, . . . , k. Daher ist E(Xj ) = nj
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

80

KAPITEL 11. SPEZIELLE MULTIVARIATE VERTEILUNGEN

und var(Xj ) = nj (1 j ). Man kann weiter ausrechnen, dass f


ur i 6= j
E(Xi Xj ) = n(n 1)i j ist, also
cov(Xi , Xj ) = E(Xi Xj ) E(Xi ) E(Xj ) = n(n 1)i j n2 i j = ni j ,
(Xi , Xj ) =

i j
(1 i )(1 j )

 12

Multivariate Normalverteilung
11.2

Die bivariate Normalverteilung

X und Y heien gemeinsam normalverteilt, wenn sie die Dichte


f (x, y) =

1
p

1 2 "

2

2 #!
x X
y Y
(x X )(y Y )
1
+
,
2
exp
2(1 2 )
X
X Y
Y

2X Y

2
x, y IR, besitzen. Im Symbol (X, Y ) N(X , Y , X
, Y2 , ).
2
Dabei sind X und Y IR, X
und Y2 > 0, 1 1. Die f
unf Parameter der bivariaten Normalverteilung haben folgende Bedeutung: X = E(X),
2
Y = E(Y ), X
= var(X), Y2 = var(Y ), = (X, Y ). Es gilt deshalb
cov(X, Y ) = X Y , vgl. die Definition der Kovarianz in 10.3. Die Randverteilungen sind gewohnliche Normalverteilungen
2
X N(X , X
),

Y N(Y , Y2 ) .

F
ur gemeinsam normalverteilte Zufallsvariablen gilt, dass die Unabhangigkeit mit
der Unkorreliertheit zusammenfallt. Falls namlich = 0 ist, haben wir
"
2 
2 #!
1
1
x X
y Y
f (x, y) =
exp
+
2X Y
2
X
Y
!

2

2 !
1 x X
1 y Y
1
1
exp
exp
=

2
X
2
Y
2X
2Y
= fX (x) fY (y),
aus der Unkorreliertheit folgt also bei Normalverteilung, dass X und Y stochastisch unabhangig sind. Die Umkehrung, dass aus der Unabhangigkeit = 0 folgt,
gilt f
ur beliebige Verteilungen, vgl. 10.4.

81

MULTIVARIATE NORMALVERTEILUNG

Auch die bedingte Verteilung von Y , gegeben X = x, ist eine Normalverteilung;


sie hat die Parameter
Y
Y |x = E(Y |X = x) = Y + (x X ),
X
Y2 |x = var(Y |X = x) = Y2 (1 2 ).
Insbesondere hangt die bedingte Varianz von Y , gegeben X = x, nicht von x ab.
Die Regressionsfunktion 2. Art lautet gII (x) = a + bx mit
b=

cov(X, Y )
Y
= ,
var(X)
X

a = Y bX .

Man sieht, dass gII (x) = E(Y |X = x) = gI (x) ist, also die Regressionen 1. und
2. Art u
bereinstimmen.
Eine weitere wichtige Eigenschaft ist, dass die Summe, die Differenz und allgemeiner jede Linearkombination von normalverteilten Variablen wieder normalverteilt ist. Wir formulieren das als Satz:
2
Satz Sei (X, Y ) N(X , Y , X
, Y2 , ). Dann gelten die folgenden Aussagen:

(1) X und Y sind stochastisch unabhangig = 0.


2
(2) X +Y N(X +Y , 2 X
+ 2 Y2 +2X Y ) f
ur beliebige , 6= 0.

11.3

Die multivariate Normalverteilung

Seien Y1 , ..., Ym unabhangig identisch verteilte Variable. Yi N(0, 1) f


ur alle i.
Die Verteilung des Vektors Y = (Y1 , ..., Ym ) heit m-variate Standardnormalverteilung. F
ur diese gilt: EY = (0, ..., 0) in IRm und Cov(Y ) = I, d.h. die Kovarianzmatrix ist die m m Einheitsmatrix. Sei nun B eine m n Matrix und
IRn . Der Zufallsvektor X = Y B + in IRn heit dann normalverteilt in IRn .
Er hat den Erwartungswertvektor und die Kovarianzmatrix = B 0 B. Man
schreibt kurz:
X N(, ).
Speziell:

(1) m = n = 1: Man erhalt die gewohnliche Normalverteilung, X N(, 2 ).


 p

1 2 X 0
(2) m = n = 2, = (X , Y ), B =
:
X
Y


2

X
Y
X
Man erhalt = B 0 B =
,
X Y
Y2
2
das ist die bivariate Normalverteilung aus 11.2, X N(X , Y , X
, Y2 , ).

82

KAPITEL 11. SPEZIELLE MULTIVARIATE VERTEILUNGEN

Wenn X normalverteilter Zufallsvektor in IRn ist, X N(, ), dann gilt:


cov(Xi , Xj ) = ij wobei ij das entsprechende Element aus ist.
Die Verteilung N(, ) besitzt dann und nur dann eine Dichte, wenn
den vollen Rang n hat. Andernfalls bezeichnet man N(, ) als ausgeartete
Normalverteilung; ihr Trager ist nicht der ganze Raum IRn sondern ein
linearer Unterraum.
Jede (auch mehrdimensionale) Randverteilung ist eine Normalverteilung,
deren Erwartungswertvektor und Kovarianzmatrix man durch Streichung
von Zeilen und Spalten aus und erhalt; speziell Xi N(i , ii ).
Jede affin-lineare Transformation Z = XC + d ist normalverteilt,
Z N(C + d, C 0C). Dabei bezeichnet C eine beliebige n k Matrix und
d einen beliebigen Vektor im IRk .

Bivariate Exponentialverteilung
11.4

Die bivariate Exponentialverteilung nach Marshall und Olkin

Seien Z1 , Z2 und Z3 unabhangige exponentialverteilte Zufallsvariable, Z1


Exp(1 ), Z2 Exp(2 ) und Z3 Exp(3 ). Wir betrachten die beiden Minima
X = min{Z1 , Z3 } und Y = min{Z2 , Z3 }.

Man zeigt leicht (Ubung!),


dass X und Y jeweils exponentialverteilt sind, X
Exp(1 + 3 ), Y Exp(2 + 3 ). F
ur die gemeinsame Verteilung von X und Y
gilt:
P (X > x, Y > y) =
=
=
=

P (Z1 > x, Z2 > y, Z3 > max{x, y})


P (Z1 > x)P (Z2 > y)P (Z3 > max{x, y})
e1 x e2 y e3 max{x,y}
exp(1 x 2 y 3 max{x, y}).

(1)

Diese Verteilung heit bivariate Exponentialverteilung; sie geht auf Marshall und
Olkin (1967) zur
uck. X und Y sind offenbar nicht unabhangig. Der Korrelationskoeffizient berechnet sich zu
(X, Y ) =

3
.
1 + 2 + 3

Ferner kann man zeigen, dass


P (X = Y ) = (X, Y ) > 0

BIVARIATE EXPONENTIALVERTEILUNG

83

gilt; die gemeinsame Verteilung besitzt daher keine Dichte; sie ist weder eine
diskrete noch eine stetige Verteilung.
Anwendung: Competing risks.

84

KAPITEL 11. SPEZIELLE MULTIVARIATE VERTEILUNGEN

Kapitel 12
Grenzwerts
atze
Schwaches Gesetz der groen Zahl
Grenzwertsatze u
ber Folgen von Zufallsvariablen benotigt man, um das Verhalten
eines Wahrscheinlichkeitsmodells auf lange Sicht zu charakterisieren. Will man

etwa den unbekannten Parameter einer Wahrscheinlichkeitsverteilung schatzen,


so interessiert, ob der Schatzer bei hinreichend vielen Beobachtungen beliebig
nahe an den unbekannten Wert des zu schatzenden Parameters herankommt.
Eine Folge von Zufallsvariablen, etwa ein Schatzer bei wachsendem Stichprobenumfang, kann gegen eine konstante Zahl konvergieren. Ein fundamentales Ergebnis ist das folgende sogenannte Schwache Gesetz der groen Zahl.
12.1

Satz (Schwaches Gesetz der groen Zahl)

Sei X1 , X2 , X3 , . . . eine Folge von unabhangigen, identisch verteilten Zufallsvariablen, die den Erwartungswert = EXi und die endliche Varianz 2 = varXi
besitzen. Dann gilt f
ur jedes > 0


!
n
1 X

n


P
Xi 1.
n

i=1

In der statistischen Inferenz heit X1 , X2 , . . . , Xn StichprobePder Lange n. Das


= 1 n Xi mit wachSchwache Gesetz besagt, dass das Stichprobenmittel X
i=1
n
sender Stichprobenlange gegen den Erwartungswert der Beobachtungen Xi kon um hochstens ein kleines von
vergiert. Genauer, die Wahrscheinlichkeit, dass X
abweicht, konvergiert mit wachsendem n gegen 1, wobei beliebig klein vorgegeben werden kann.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013


KAPITEL 12. GRENZWERTSATZE

86

Beweis Das Schwache Gesetz folgt aus der Tschebyscheffschen Ungleichung. Es


gilt namlich
n

= E
EX
= var
var X

1X
1
=
EXi = n = ,
n i=1
n
!
n
n
1X
1
2
1 X
varXi = 2 n 2 = ,
Xi = 2
n i=1
n i=1
n
n

1X
Xi
n i=1

also

2
var X
=
1

.
2
n2
| ) = 1.
F
ur n erhalten wir limn P (|X
| ) = P (|X
E X|
) 1
P (|X

Bemerkungen
1. Eine aquivalente Formulierung des Schwachen Gesetzes ist: F
ur alle > 0
gilt:
| > ) = 0.
lim P (|X
n

die relative Haufig2. Wenn jedes Xi binomialverteilt ist, Xi B(1, ), ist X


keit hn der Erfolge bei einem n-stufigen Bernoulli-Experiment mit Wahr
scheinlichkeit . Das Schwache Gesetz lautet hier:
lim P (|hn | ) = 1.

Die relativen Haufigkeiten hn konvergieren in dieser Weise gegen die zugrundeliegende Wahrscheinlichkeit . Deshalb kann man einerseits
die Wahrscheinlichkeit eines Ereignisses durch die relativen Haufigkeiten eines Bernoulli-Experiments schatzen, andererseits
den Begriff der Wahrscheinlichkeit eines Ereignisses, der ja durch die

Kolmogoroffschen Axiome nur formal definiert ist, als eine Zahl interpretieren, die bei unabhangiger Wiederholung der Zufallssituation
nahe an den relativen Haufigkeiten des Ereignisses liegt.

Konvergenzarten bei Zufallsvariablen


12.2

Konvergenz nach Wahrscheinlichkeit

Definition Sei Y1 , Y2 , Y3 , . . . eine Folge von Zufallsvariablen und eine Zahl.


Die Folge (Yn ) konvergiert nach Wahrscheinlichkeit gegen , im Symbol

KONVERGENZARTEN BEI ZUFALLSVARIABLEN

87

= p limn Yn , falls f
ur jedes > 0
lim P (|Yn | ) = 1.

p lim Yn heit Wahrscheinlichkeitslimes der Folge (Yn ). Man sagt auch, dass
(Yn ) stochastisch gegen konvergiert. Zum Beispiel haben wir beim Schwachen
Gesetz der groen Zahl 12.1:
!
n
1X
Xi = EX,
p lim
n i=1
n
p lim hn = p.
n

Bekanntlich kann man eine Zahl als konstante Zufallsvariable auffassen. In


diesem Sinn ist f
ur eine im gewohnlichen Sinn konvergente Folge von Zahlen y1 , y2, y3 , . . . der Wahrscheinlichkeitslimes gleich dem gewohnlichen Limes,
p limn yn = limn yn .
F
ur den Wahrscheinlichkeitslimes gelten entsprechende Rechenregeln wie f
ur den
gewohnlichen Limes:
p lim(Yn + Zn )
p lim(Yn Zn )
p lim(Yn Zn )
 
Yn
p lim
Zn

= p lim Yn + p lim Zn ,
= p lim Yn p lim Zn ,
= p lim Yn p lim Zn ,
=

p lim Yn
,
p lim Zn

letzteres, sofern p lim Zn 6= 0 ist. Auerdem gilt f


ur jede stetige Funktion h :
IR IR, dass
p lim h(Yn ) = h(p lim Yn ).
Der folgende Satz enthalt n
utzliche hinreichende Bedingungen f
ur die Konvergenz
nach Wahrscheinlichkeit.
12.3

Satz

Hinreichend f
ur p lim Yn = ist jede der folgenden drei Bedingungen.
(i) limn varYn = 0 und limn EYn = .
(ii) limn Yn () = f
ur alle .
(iii) P ({| limn Yn () = }) = 1.


KAPITEL 12. GRENZWERTSATZE

88

Bedingung (ii) ist die punktweise Konvergenz der Folge der Funktionen Yn : In
jedem Punkt konvergiert die Folge der Zahlen Yn () gegen den Grenzwert .
Bedingung (iii) ist demgegen
uber etwas schwacher. Hier wird lediglich verlangt,
dass die Menge der Punkte, an denen die Folge der Zahlen Yn () gegen den
Grenzwert konvergiert, die Wahrscheinlichkeit 1 besitzt. Wenn die Bedingung
(ii) erf
ullt ist, ist diese Menge gleich . Wegen P () = 1 folgt daraus nat
urlich,
dass die Bedingung (iii) erf
ullt ist. Bedingung (ii) wird als sichere Konvergenz,
Bedingung (iii) als fast sichere Konvergenz bezeichnet. Man schreibt f
ur (iii) auch:
lim Yn = fast sicher.

Beim Beweis des Schwachen Gesetzes der Groen Zahl 12.1 haben wir gesehen,
= f
=
= limn 2 = 0 und E X
ur alle n, also limn E X
dass limn var X
n
gilt. Dies entspricht der Bedingung (i).
Das Schwache Gesetz der groen Zahl gilt nicht nur f
ur das Stichprobenmittel und
den Erwartungswert, sondern auch f
ur alle hoheren (zentralen und nichtzentralen)
Momente:
12.4

Schwaches Gesetz der groen Zahl fu


r empirische Momente

Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen. Dann gilt f
ur k IN
(1) p limn

1
n

(2) p limn

1
n

Pn

i=1

Pn

Xik = 0k ,

i=1 (Xi

k = k ,
X)

sofern das 2k-te zentrale Moment 2k von Xi existiert und endlich ist.
Beweis Offenbar ist 0k = E(Xik ). Teil (1) des Satzes folgt aus dem Schwachen
Gesetz 12.1 angewandt auf die Folge X1k , X2k , X3k , . . .; Teil (2) erhalt man dann
mit Satz 8.3 (ii) und den Rechenregeln f
ur den Wahrscheinlichkeitslimes.

12.5

Starkes Gesetz der groen Zahl

Die Gesetze der groen Zahl 12.1 und 12.4 bleiben richtig, wenn man darin die
schwache Konvergenz durch die starke, d.h. fast sichere Konvergenz ersetzt. Das
ist das Starke Gesetz der groen Zahl. Einen Beweis findet man in weiterf
uhrenden
Lehrb
uchern, etwa Chow und Teicher (1978).
Satz Sei X1 , X2 , X3 , . . . eine Folge von unabhangigen, identisch verteilten Zufallsvariablen, die den Erwartungswert = EXi und die endliche Varianz 2 = varXi
besitzen. Dann gilt

KONVERGENZARTEN BEI ZUFALLSVARIABLEN

89

1X
Xi =
n n
i=1
lim

fast sicher.

Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen. Dann gilt f
ur k IN
(1) limn
(2) limn

1
n

Pn

i=1

Pn
1

Xik = 0k

i=1 (Xi

fast sicher,

k = k
X)

fast sicher,

sofern das k-te zentrale Moment k von Xi existiert und endlich ist.
12.6

Konvergenz nach Verteilung

Bislang haben wir die Konvergenz einer Folge von Zufallsvariablen gegen eine
konstante Zahl betrachtet. Als nachstes wollen wir nun die Konvergenz auch
gegen eine Zufallsvariable zulassen. Eine solche Konvergenzaussage ist Inhalt des
Zentralen Grenzwertsatzes.
Definition Sei Y1 , Y2 , Y3 , . . . eine Folge von Zufallsvariablen und Z eine weitere
Zufallsvariable. Fn bezeichne die Verteilungsfunktion von Yn , F0 die von Z. Man
sagt, dass die Folge (Yn ) nach Verteilung gegen die Zufallsvariable Z konvergiert,
wenn
lim Fn (y) = F0 (y),
n

d.h.
lim P (Yn y) = P (Z y)

f
ur alle Punkte y IR gilt, in denen F0 stetig ist.
12.7

Konvergenz nach Wahrscheinlichkeit und fast sichere Konvergenz

Die obigen Definitionen lassen sich auch auf den Fall erweitern, dass der Grenzwert eine Zufallsvariable ist. Eine Folge (Y1 , Y2 , Y3 , . . .) von Zufallsvariablen konn.W.
vergiert nach Wahrscheinlichkeit gegen eine Zufallsvariable Z, Yn Z, wenn
p lim(Yn Z) = 0
n

f.s.

ist. Die Folge konvergiert fast sicher gegen Z, Yn Z, wenn


P ( lim Yn = Z) = 1
n

ist. Die beiden Konvergenzarten sind in folgender Weise verkn


upft:


KAPITEL 12. GRENZWERTSATZE

90
(i)
f.s.

Yn Z

n.W.

Yn Z

(ii)
f.s.

Yn Z

p lim sup |Yn Z| = 0.


n jn

Die fast sichere Konvergenz zieht also die Konvergenz nach Wahrscheinlichkeit
nach sich. Sie ist aquivalent damit, dass der maximale Abstand des Endes der

Folge Yn , Yn+1 , . . . nach Wahrscheinlichkeit gegen Null geht.

Zentraler Grenzwertsatz
12.8

Zentraler Grenzwertsatz

Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen mit EXi = und 0 < varXi = 2 < . Dann konvergiert
Pn
Xi n
Un = i=1
n 2
nach Verteilung gegen eine standardnormalverteilte Variable Z.
Der Zentrale Grenzwertsatz ist ein Hauptgrund f
ur die groe Bedeutung der
Normalverteilung. Er besagt, dass die normierte und zentrierte Summe Un von
unabhangig identisch verteilten Variablen eine Wahrscheinlichkeitsverteilung
besitzt, die f
ur wachsendes n beliebig nahe der N(0, 1)-Verteilung ist.
Anders ausgedr
uckt, kann man f
ur eine nicht zu kleine Stichprobenlange n die
Pn
X
der
Stichprobenwerte
durch eine Zufallsvariable ersetzen, die
Summe
i
i=1
normalverteilt mit dem Erwartungswert n und der Varianz n 2 ist, und erhalt
ungefahr die gleiche Wahrscheinlichkeitsverteilung:
n
X
i=1

Xi

approx.

N(n, n 2 ).

Der Zentrale Grenzwertsatz gilt f


ur jede beliebige Verteilung der Xi , vorausgesetzt sie besitzt eine endliche, positive Varianz. Die Geschwindigkeit der Konvergenz, also die G
ute der Approximation, hangt jedoch von der speziellen Gestalt
dieser Verteilung ab. Allgemeiner kann man sagen, dass die Konvergenz f
ur symmetrische und unimodale Verteilungen rasch ist, wahrend man f
ur schiefe oder
multimodale Verteilungen sehr viel groere Stichprobenlangen n benotigt, um
eine befriedigende Approximation zu erzielen.

ZENTRALER GRENZWERTSATZ
12.9

91

Approximation der Binomialverteilung

Ein
Pn wichtiger Spezialfall ist der, bei dem die Xi B(1, )-verteilt sind, also Y =
asst sich durch die Normalverteilung
i=1 Xi B(n, ). Die Verteilung von Y l
wie folgt approximieren.
Satz Sei Y B(n, ), 0 k < l n, k und l ganzzahlig. Dann ist
!
!
k 0.5 n
l + 0.5 n
p
,
P (k Y l) p
n(1 )
n(1 )

wobei die Verteilungsfunktion der Standardnormalverteilung bezeichnet.


Die Geschwindigkeit der Konvergenz hangt allerdings von ab; f
ur Werte von
nahe 0 oder nahe 1 ist am langsamsten. Die u
ur eine hinreichend
bliche Faustregel f
gute Approximation lautet: n(1 ) > 9.
Die Formel enthalt eine sogenannte Stetigkeitskorrektur (Addition bzw. Subtraktion von 0.5). Diese verbessert die Approximation bei kleinen Werten von n; f
ur
groe n spielt sie keine Rolle.
12.10

Approximation der Poisson-Verteilung

Ahnliches
gilt f
ur eine Poisson-verteilte Variable Y P o(). Y lasst sich als Summe von
unabh
a
ngig identisch Poisson-verteilten Variablen Xi auffassen, namlich
Pn
Y = i=1 Xi , Xi P o( n ). Es gilt deshalb:

Satz Sei Y P o(), 0 k < l, k und l ganzzahlig. Dann ist






l + 0.5
k 0.5
P (k Y l)

Die Approximation ist umso besser, je groer ist. Eine u


bliche Faustregel besagt,
dass > 9 sein sollte.

92

KAPITEL 12. GRENZWERTSATZE

Kapitel 13
Stochastische Prozesse
Definitionen und Beispiele
Im vorigen Paragraphen wurden Folgen von unabhangigen identisch verteilten Zufallsvariablen untersucht. Oft sind Beobachtungsdaten, insbesondere Zeitreihendaten, jedoch nicht unabhangig voneinander. Um auch Abhangigkeiten zwischen
zufalligen Beobachtungen zu modellieren, verwendet man stochastische Prozesse.
13.1

Stochastischer Prozess

Definition (Stochastischer Prozess) F


ur jedes n IN0 = {0, 1, 2, . . .} sei
eine Zufallsvariable Sn gegeben. Die Folge (Sn )nIN0 heit stochastischer Prozess
(in diskreter Zeit). Der gemeinsame Wertebereich der Sn heit Zustandsraum
des Prozesses. Meistens ist S0 fast sicher gleich einer Konstanten, etwa gleich 0.
Beispiele f
ur stochastische Prozesse sind:
der Bernoulli-Prozess (Bn )nIN0 mit B0 = 0 und stochastisch unabhangigen
Bn B(1, ), n IN; hier ist der Zustandsraum gleich {0, 1},
der Gausche White Noise (Un )nIN0 mit stochastisch unabhangigen Un

N(0, 2 ), der insbesondere im linearen Regressionsmodell der Okonometrie


verwendet wird; Zustandsraum ist IR.
Im allgemeinen sind die Sn eines stochastischen Prozesses jedoch weder unabhangig noch identisch verteilt, z.B. die folgende Klasse von Prozessen:
der unkorrelierte White Noise (Un )nIN0 mit Un (0, 2) , d.h. E(Un ) = 0
und var(Un ) = 2 , cov(Un , Um ) = 0 , n 6= m.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

94
13.2

KAPITEL 13. STOCHASTISCHE PROZESSE


Unabh
angige und identisch verteilte Zuw
achse

Die ersten Differenzen eines Prozesses (Sn )nIN0 ,


Xn = Sn Sn1 ,

n IN,

heien Zuwachse. Wenn die Zuwachse Xn eine stochastisch unabhangige Folge


bilden, heit (Sn ) Prozess mit unabhangigen Zuwachsen. Wenn die Xn identisch
verteilt sind, heit (Sn ) Prozess mit identisch verteilten Zuwachsen. Es gilt
Sn = S0 +

n
X

Xi .

i=1

Beispiele f
ur Prozesse mit unabhangigen und identisch verteilten Zuwachsen sind
die folgenden:
Beispiel 1 Ein Versicherer halt ein bestimmtes Portefeuille von Policen u
ber
einen langeren Zeitraum und rechnet am Ende jeder Woche ab. Das Ergebnis der
i-ten Woche wird durch die Zufallsvariable Xi ,

g mit Wahrscheinlichkeit ,
Xi =
v mit Wahrscheinlichkeit 1 ,
beschrieben, i = 1, 2, .P
. .; die Xi sind unabhangig. Nach n Wochen betragt das
Gesamtergebnis Sn = ni=1 Xi .
Eine typische Fragestellung bei einem solchen Prozess ist die nach der Ruinwahrscheinlichkeit: Wie gro ist die Wahrscheinlichkeit, dass in der n-ten Periode
(oder bis zur n-ten Periode) ein gegebenes Anfangskapital K aufgezehrt wird,
P (Sn + K < 0) bzw. P (inf 1in Si + K < 0)?
Beispiel 2 Bei einem Unternehmer gehen Auftrage ein. Sn sei der Zeitpunkt des
n-ten Auftrages. Xn ist dann die Zeitspanne zwischen zwei Auftragseingangen.
Haufig kann die Folge X1 , X2 , . . . als unabhangig und identisch verteilt angesehen
werden. Insbesondere gilt hier Xn 0 f
ur alle n, also 0 = S0 S1 S2 . . .
13.3

Random Walk

Wenn die Zuwachse Xn unabhangig und identisch verteilt sind und auerdem
E(Xi ) = 0 und E(Xi2 ) = 2 < gilt, nennt man den Prozess (Sn ) einen
einfachen Random Walk (deutsch: Irrfahrt). Dann ist E(Sn ) = 0, var(Sn ) = n 2
und nach dem Zentralen Grenzwertsatz Sn approximativ N(0, n 2 )-verteilt.
Anwendung Sei Yn ein spekulativer Preis zur Zeit n, etwa der Kassakurs einer
Aktie am Tag n. Die Random-Walk-Hypothese in ihrer starksten Form besagt,
dass der stochastische Prozess Yn , n = 0, 1, 2, . . . ein Random Walk ist.

95

DEFINITIONEN UND BEISPIELE


13.4

Ankunftsprozess und Erneuerungsprozess

Im Beispiel 2 liegt ein sogenannter Ankunftsprozess vor; er ist durch S0 = 0,


unabhangig verteilte Zuwachse und die Monotonieeigenschaft Sn Sn1 0 definiert. Sn gibt die Zeit an, zu der die n-te Ankunft (das n-te Ereignis) stattfindet.
Ein Ankunftsprozess mit unabhangigen und identisch verteilten Zuwachsen heit
Erneuerungsprozess. Der Name Erneuerungsprozess kommt so zustande:
Beispiel 3 Eine Maschine (z.B. eine Quarz-Armbanduhr) werde, wenn sie
ausfallt, sofort repariert (z.B. durch Austausch der Batterie). Sei Sn der Zeitpunkt der n-ten Reparatur. Wenn die Maschine nach der Reparatur wie neu

ist, stellt (Sn ) einen Erneuerungsprozess dar.


In anderen Anwendungen lasst sich Sn als Zeitpunkt der Geburt einer n-ten

Generation interpretieren. Generation kann sich auf die Fortpflanzung von Lebewesen beziehen, aber auch auf eine Folge von technischen Erfindungen, auf die
Weitergabe von Informationen, auf Zellteilungen oder auf Virus
ubertragungen.
Zu einem Erneuerungsprozess (Sn ) und t 0 betrachten wir die Zahl der Ereignisse bis zur Zeit t,
Nt = ]{n|Sn t}.
Nt ist eine Zufallsvariable mit Werten in IN0 . Es gilt N0 = 0 fast sicher und die
Monotonie
Ns Nt , falls s > t.
Kennt man die gemeinsame Verteilung der Nt (f
ur t 0) so kennt man auch die
der Sn (f
ur n IN0 ), da die Beziehung
Sn t

Nt n

d.h. ausf
uhrlicher
{Sn t} = {|Sn () t} = {|Nt() n} = {Nt n}
besteht.
13.5

Stochastischer Prozess in stetiger Zeit

F
ur jedes t 0 sei eine Zufallsvariable Zt definiert. (Zt )t0 heit stochastischer Prozess (in stetiger Zeit). Wenn der Zustandsraum gleich IN0 ist und
limt0 (Zt+t Zt ) 1 fast sicher gilt, heit (Zt ) Zahlprozess. Ein Beispiel f
ur
einen Zahlprozess ist der zu einem Erneuerungsprozess gehorige Prozess (Nt ).
Der wichtigste Zahlprozess ist der Poisson-Prozess.

96

KAPITEL 13. STOCHASTISCHE PROZESSE

Poisson-Prozess
13.6

Definition des Poisson-Prozesses

Sei (Sn ) ein Erneuerungssprozess mit exponentialverteilten Zuwachsen,


i.i.d.
Xn Exp(); dann heit der zugehorige Zahlprozess (Nt )tIR+ Poisson-Prozess
mit Rate . Die Zeit Xn zwischen zwei Ereignissen (=Ank
unften) hat also die
Dichte
fXn (x) = ex , x > 0,
und f
ur die bedingte Wahrscheinlichkeit, gegeben Xn > t, gilt wegen der Ge
dachtnislosigkeit der Exponentialverteilung
P (Xn > t + x|Xn > t) = P (Xn > x),
d.h. die t u
bersteigende, verbleibende Dauer von Xn hat dieselbe Verteilung wie
Xn selbst. Die Wahrscheinlichkeit, dass f
ur Xn im kleinen Intervall ]t, t + t] ein
Ereignis stattfindet, ist gleich
P (t < Xn t + t|Xn > t) = P (Xn t) = 1 et t ,
letzteres in erster Naherung (vgl. Definition der Hazardrate in 6.13). Sn ist die
Summe von n unabhangigen, Exp()-verteilten Groen; es hat die Dichte
fSn (x) =

n
xn1 ex
(n 1)!

x > 0.

(Ubung:
F
ur n = 2 durch Faltung ausrechnen.)
Jedes Nt ist Poisson-verteilt mit Parameter t; der Zuwachs Ns+t Ns u
ber das
Intervall ]s, s+t] ist ebenfalls Poisson-verteilt mit Parameter t, und die Zuwachse
u
ber disjunkte Intervalle sind stochastisch unabhangig:
(i) F
ur beliebige 0 t1 < t2 < . . . < tk sind die Zuwachse Ntk Ntk1 , Ntk1
Ntk2 , . . . Nt2 Nt1 stochastisch unabhangig.
m

, m IN0 .
(ii) F
ur beliebige s 0 und t > 0 ist P (Ns+t Ns = m) = et (t)
m!
Die Eigenschaft besagt, dass der Poisson-Prozess (Nt ) ein Prozess mit unabhangigen Zuwachsen ist. Aus (ii) folgt wegen N0 = 0, dass
P (Nt = m) = et

(t)m
m!

ist. Ferner sieht man, dass die Verteilung eines Zuwachses Ns+t Ns nur von
der Zeitdifferenz t aber nicht von s abhangt; ein Prozess mit unabhangigen

97

POISSON-PROZESS

Zuwachsen, der diese Eigenschaft besitzt, heit homogen. (i) und (ii) reichen
auch zur Charakterisierung des Poisson-Prozesses aus:
Satz Ein Zahlprozess (Nt )tIR+ ist genau dann ein Poisson-Prozess mit Parameter
, wenn seine Zuwachse Ns+t Ns stochastisch unabhangig und homogen gema
P o(t) verteilt sind.
13.7

Anwendung: Bedienungssystem

Ein Zulieferbetrieb nimmt laufend Auftrage entgegen, um just in time zu lie


fern. Wir nehmen an, dass die ankommenden Auftrage einen Poisson-Prozess mit
Rate 1 = 20 bilden. Sie werden der Reihe nach bearbeitet, wobei die Bearbeitungszeiten vom Zufall abhangen. Die Bearbeitungszeiten seien voneinander
unabhangig und exponentialverteilt mit 2 = 30. Zeiteinheit ist die Stunde. Typisch sind Fragen wie die folgenden:
(1) Wieviele Auftragseingange sind wahrend einer Schicht (7.5 Stunden) zu
erwarten? Wie gro ist die Standardabweichung? Geben Sie ein Intervall
an, das die Anzahl der Auftragseingange einer bestimmten Schicht mit 90%
Wahrscheinlichkeit enthalt.
(2) Ein Auftrag kommt herein, wahrend zehn Auftrage noch in der Warteschlange sind. Was ist die erwartete Dauer, bis der neue Auftrag bearbeitet
ist? Wie gro ist ihre Varianz? Wie lautet ihre Wahrscheinlichkeitsdichte?
Zu (1): Die fragliche Anzahl N7.5 ist P o()-verteilt
mit = 7.5 20 = 150. Also
ist E(N7.5 ) = 150, var(N7.5 ) = 150, (N7.5 ) = 150. Ein 90%-Intervall f
ur N7.5
konstruiert man mit Hilfe der Normalapproximation (hier ohne Stetigkeitskorrektur):

[ z0.95 , + z0.95 ].

Wegen z0.95 = 15012.2471.645 erhalten wir P (130 N7.5 170) = 0.90.


Zu (2): Der hereinkommende Auftrag findet einen Auftrag in der Bearbeitung
und zehn Auftrage in der Warteschlange vor; auerdem muss er selbst bearbeitet werden. Alle Bearbeitungszeiten sind unabhangig und Exp(30)-verteilt. Dies
gilt auch (wegen der Gedachtnislosigkeit) f
ur die restliche Bearbeitungszeit des

bereits in Arbeit befindlichen Auftrags. Die Dauer D ist die Summe von zwolf un1
, var(D) = 12 3012 .
abhangigen Exp(30)-verteilten Variablen, also E(D) = 12 30
Die Dichte von D ist gleich der von S12 mit = 30, also
fD (x) =

3012 11 30x
x e
, x > 0.
11!

98
13.8

KAPITEL 13. STOCHASTISCHE PROZESSE


Zusammengesetzter Poisson-Prozess

Eine Versicherung erhalte laufende Schadensmeldungen, die einem PoissonProzess mit der Rate folgen. Die Hohe der einzelnen Schaden sei zufallig, und
zwar unabhangig identisch verteilt und unabhangig von dem Prozess der Schadensmeldungen. Man untersuche den Gesamtschaden bis zur Zeit t.
Bezeichne Xi die i-te Schadenshohe, i IN, F ihre Verteilung, Nt die Zahl der
Meldungen bis zur Zeit t. Der Gesamtschaden bis zur Zeit t betragt dann
Zt =

Nt
X

Xi

i=1

t 0.

Ein solcher Prozess (Zt )t0 heit zusammengesetzter Poisson-Prozess mit Parametern und F . F
ur den Erwartungswert und die Varianz von Zt gilt:
E(Zt ) = t E(X1 ),

var(Zt ) = t E(X12 ).

Der mittlere totale Schaden ist also proportional dem mittleren Einzelschaden
und der Zeit. Die Varianz nimmt linear mit der Zeit zu. Man sieht dies wie folgt:
!
n
X
E(Zt |Nt = n) = E
Xi = n E(X1 ),
i=1

E(Zt ) = E(E(Zt |Nt )) = E(Nt E(X1 )) = E(Nt ) E(X1 ) = t E(X1 ),


!
n
X
var(Zt|Nt = n) = var
Xi = n var(X1),
i=1

var(Zt ) =
=
=
=
=

E(var(Zt |Nt )) + var(E(Zt|Nt ))


E(Nt var(X1 )) + var(Nt E(X1 ))
E(Nt ) var(X1 ) + var(Nt ) (E(X1 ))2
t [var(X1 ) + (E(X1 ))2 ]
t E(X12 )

Zum Abschluss des Kapitels verweisen wir auf zwei Lehrb


ucher, in denen stochastische Prozesse in gut lesbarer Weise dargestellt sind:
M. Fisz, Wahrscheinlichkeitsrechnung und Mathematische Statistik, Berlin 1970.
R.G. Gallager, Discrete Stochastic Processes, Boston 1996.

Kapitel 14
Wiener-Prozesse
Brownsche Bewegung und allgemeiner WienerProzess
14.1

Definition der Brownschen Bewegung

Wie wir in Abschnitt 13.3 gesehen haben, ist ein Random Walk in diskreter Zeit
ein stochastischer Prozess mit unabhangigen, identisch verteilten Zuwachsen, der
im Nullpunkt startet,
St =

S0 +
|{z}
=0 f.s.

t
X
i=1

(Si Si1 ),
| {z }
Xi i.i.d.

wobei E(Xi ) = 0 und E(Xi2 ) = 2 < vorausgesetzt wird. Es folgt:


St+r St ist verteilt wie Ss+r Ss f
ur alle r, s, t IN.
Man sagt in diesem Fall auch, dass der Prozess (St )tIN homogene Zuwachse besitzt.
Wir definieren nun das Analogon eines Random Walks, wenn die Zeit als stetige
Variable gemessen wird. Sei (St )t0 ein Prozess in stetiger Zeit. F
ur jedes gegebene
Elementarereignis wird die Abbildung
t
7 St ()
[0, [ IR

(1)

als ein Pfad des Prozesses bezeichnet. Ihr Graph lasst sich in der Ebene zeichnen.
F
ur festes t ist die Abbildung

7 St ()
IR
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

(2)
Oktober 2013

100

KAPITEL 14. WIENER-PROZESSE

eine Zufallsvariable.
F
ur k aufeinander folgende Zeitpunkte, 0 t0 < t1 < . . . tk , lasst sich Stk offenbar
so schreiben:
Stk = St0 + (St1 St0 ) + (St2 St1 ) + . . . + (Stk Stk1 )
= St0 +

k
X
i=1

(Sti Sti1 ) .
{z
}
|
i-ter Zuwachs

Definition (Brownsche Bewegung, Standard-Wiener-Prozess) Ein stochastischer Prozess (Zt )t0 heit Brownsche Bewegung oder Standard-WienerProzess, wenn folgendes gilt:
(i) Z0 = 0 fast sicher,
(ii) Zt N(0, t), t 0,
(iii) die Zuwachse sind unabhangig.
Der Name Brownsche Bewegung geht auf den Biologen Robert Brown zur
uck,

der die Bewegung eines Molek


uls in einer Fl
ussigkeit (bezogen auf eine Dimension) durch einen solchen stochastischen Prozess beschrieben hat. L. Bachelier (1900) hat erstmals die Brownsche Bewegung verwendet, um die zeitliche
Veranderung von spekulativen Preisen zu modellieren. Albert Einstein (1905)
und Norbert Wiener (1923) haben dann die mathematischen Eigenschaften der
Brownschen Bewegung hergeleitet.
F
ur eine Brownsche Bewegung gilt:
1) Die Zuw
achse sind homogen und normalverteilt. Da f
ur beliebige
r, t 0 sowohl Zt wie Zt+r normalverteilt sind, gilt dies auch f
ur deren
Differenz,
Zt+r =

Zt +
|{z}

N (0,t)

(Z Z )
| t+r{z t}

N(0, t + r) .

unabh
angig von Zt , normalverteilt

Da der Zuwachs Zt+r Zt stochastisch unabhangig von Zt = Zt Z0 ist,


folgt f
ur seinen Erwartungswert und seine Varianz
E(Zt+r Zt ) = 0 und var(Zt+r Zt ) = r .
Daher ist
Zt+r Zt N(0, r) .

Da die Verteilung des Zuwachses im Intervall ]t, t + r] nicht von t abhangt,


besitzt die Brownsche Bewegung homogene, normalverteilte Zuwachse.

BROWNSCHE BEWEGUNG UND ALLGEMEINER WIENER-PROZESS 101


2) Markoff-Eigenschaft F
ur 0 = t0 < t1 < . . . < tk ist
P (Ztk ak |Ztk1 = ak1 , . . . , Zt1 = a1 )
= P (Ztk Ztk1 ak ak1 | Ztk1 Ztk2 = ak1 ak2 , . . . , Zt1 Zt0 = a1 )
= P (Ztk Ztk1 ak ak1 )
= P (Ztk Ztk1 ak ak1 | Ztk1 Zt0 = ak1 )
= P (Ztk ak | Ztk1 = ak1 ) .
Die drei letzten Gleichheitszeichen ergeben sich aus der Unabhangigkeit der
Zuwachse. Die Tatsache, dass f
ur jede u
ber mehrere Zeitpunkte t1 , . . . , tk
der Vergangenheit bedingte Wahrscheinlichkeit die Gleichung
P (Ztk ak |Ztk1 = ak1 , . . . , Zt1 = a1 ) = P (Ztk ak | Ztk1 = ak1 ) (3)
gilt, sie also nur durch die unmittelbare Vergangenheit tk bedingt wird, wird
als Markoff-Eigenschaft bezeichnet.

Die folgende Abbildung zeigt einen typischen Pfad eines Standard-WienerProzesses.


Zt 6
1.5

1.0

0.5

0.0

0.5
1.0
1.5

.
...
.....
.... ...
.....
.......... .
.............. .. ....
........... .......
.. ....
......................... .......... .... ..............
..... ...... ..... .....
.
.
................ ... . ... ....
.. ...... ...... .... ....
.......
... ...............
.. ..
.
....... .......... ..
...
...... .
.. . .......
....
.............
......
.............. ...
....
..
........ ...............
.....
..... .....
.... ............ ....
....... ... ..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.... ... .. ... .....
..... ....
..... . ....
..... ...... ..
... ..
... ...... .....
..... ..... ... .
......
............
.... ............. .
.. ..... .
...
.
.
.........................
....
............. ......
.
.
.
.
..
.. . .
.......................................................................................................................................................................................................................................................................................................................................................................................................................................
.
....... ........... ......... .......
.. ....
.
.
......
. ......... .. .
.......
... ..
.
.
.
.
.......... ......
............. ..... .. ....
.. ....
.......... ... .... .. ..
...... ........
.... .....
.. ...... ..... .......
...... .....
....
......... ............
.... ....... ....
.....
..... ..........
...
...... ..............
....
. .... ...
..................
..
.
..
..........
... ...
...... . ....
............ .. .......... ....
........
..... ...............
...........
............. ........
..... .
... ..
..... ......
.
................
. ............
...
...
..
........
...
..........
...
... ... .
.......
........ ..... .......
.
.
..
... . .
..
..... ............. .....
..... ..
...
.. ...
... ....... .....
.............
.. ..............
... .. .... ...
.
.
.. .. .
.. ....
...........
......
..

0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1.0

102

KAPITEL 14. WIENER-PROZESSE

Anwendungen:
Zt sei die Abweichung des Cash-Flow einer Firma von einem bestimmten
Niveau. (Ein negativer Cash-Flow entspricht einer Kreditaufnahme.)
Zt sei die Abweichung des Goldpreises vom langjahrigen Mittelwert.
14.2

Allgemeiner Wiener-Prozess

Definition (Allgemeiner Wiener-Prozess) Sei > 0, IR, (Zt )t0 ein


Standard-Wiener-Prozess. Der stochastische Prozess
St = + Zt ,

t 0,

heit (allgemeiner) Wiener-Prozess. Er ist charakterisiert durch (iii) und


(i) S0 = fast sicher,
(ii) St N(, 2 t).
Ferner gilt
St+r St N(0, 2 r),

f
ur alle r, t 0,

also auch f
ur kleine Zuwachse r = t, St = St+t St :

St N(0, 2 t)

St
N(0, 1).
St = t mit =
t
Wir betrachten die Irrfahrt auf der Zahlengeraden mit Start in 0: In jedem kleinen
Intervall t bewegt sich ein Teilchen um einen gewissen Betrag x nach rechts
oder links, und zwar jeweils mit der Wahrscheinlichkeit 1/2. Sei Xt der Ort des
Teilchens zur Zeit t. Wenn wir die Zeit von 0 bis t in n gleichgroe Abschnitte
t = nt unterteilen, so ist
Xt = x (Y1 + Y2 + . . . Yn ) ,
wobei Y1 , Y2 , . . . i.i.d. sind mit P (Yi = 1) = P (Yi = 1) =
Wegen EYi = 0 und varYi = E(Yi2 ) = 1 gilt
EXt = 0 und varXt = (x)2 n = (x)2

1
2

f
ur alle i IN.

t
.
t

Wir machen nun eine Annahme u


ber die Groe von x: Der im kleinen Zeitintervall
uckgelegte Weg soll proportional der Wurzel der Zeitspanne sein,
zur
x = t. Es folgt
varXt = 2 t .

BROWNSCHE BEWEGUNG UND ALLGEMEINER WIENER-PROZESS 103


t
. Nach dem Zentralen Grenzwertsatz erhalten wir
F
ur t 0 geht t
somit, dass Xt normalverteilt ist:

Xt N(0, 2 t) .
Beispiel: Der Goldpreis am 12.1.98 in London betragt 278.90$ pro Feinunze.
Wir nehmen an, dass der Goldpreis einen Wiener-Prozess mit = 1.5 bildet. Die
Zeiteinheit sei hierbei ein Tag. Gesucht ist die Wahrscheinlichkeit, dass der Preis
nach 30 Tagen (bzw. 60 Tagen)
a) den Wert 290 u
berschreitet,
b) den Wert 265 unterschreitet.
L
osung: Sei St der Goldpreis nach t Tagen. Dann ist
St N(, 2 t) mit = 278.9 und = 1.5.
Insbesondere lauten die Verteilungen nach 30 und 60 Tagen
S30 N(278.9, 2.25 30) bzw. S60 N(278.9, 2.25 60).
Die gesuchten Wahrscheinlichkeiten betragen


290 278.9

P (S30 > 290) = 1


= 1 (1.3510) = 1 0.9117 = 0.0883
1.5 30


265 278.9

= (1.1963) = 0.1158 .
P (S60 < 265) =
1.5 60
14.3

Wiener-Prozess mit Drift

Definition (Wiener-Prozess mit Drift) Seien , IR, > 0 und (Zt )t0
ein Standard-Wiener-Prozess. Der stochastische Prozess
St = + t + Zt ,

t0

heit Wiener-Prozess mit Drift. Die Driftrate ist , die Varianzrate 2 , und der
Startwert . Man schreibt k
urzer: (St )t0 W (, , ) oder S W (, , ).
F
ur einen solchen Prozess gilt
St N( + t, 2 t),

St+r St N(r, 2 r)

und seine Zuwachse sind homogen und unabhangig,

St = t + Zt = t + t
mit N(0, 1) ,
2
St N(t, t) .

(1)

(2)

104

KAPITEL 14. WIENER-PROZESSE

Satz: F
ur fast alle Pfade eines Wiener-Prozesses (St )t0 W (, , ) mit 6= 0
gilt: Die Funktion t 7 St () ist stetig, aber f
ur kein t differenzierbar.
Die folgende Abbildung zeigt einen Pfad eines Wiener-Prozesses mit Driftrate
= 1, Varianzrate 2 = 1 und Startwert = 0.

St 6
2.0

1.5

1.0

0.5

0.0

0.5

.. ...
..... ..
......
........ ...
.....
.... .......
.............
..
.. ....
.. ..
... .......
.. ... .
... ......
.... ... .....
....... ........... . .... ..
. ..
.. ...
...... .. ..... . ..
.............. ................. ..............
.
......... ....
.....
.........
........
.......
.........
.
......
...
...
....... ..
........
..
. ..............
.
..... .. ..........
...
... . ...
................ .........
.
......................... ....... ....
......... ......... .... ...
... .................. ...........
......... ..... .............. .
.... . ....... .....
.. .... . ......
. .. .....
. .. . ..............
........ ...
....... .
............
.
........... .........
........... ..................
...... ....... .......... ......
.......................
.. ............ ...... ..
.. ........ ...
.............. .
..... ....... ..
.....
... .....
.....
....... ....
...
.
..........
.
.........
............
......... ...
... ...
.. ........ .... ...
... .......... ........ ...
... ....... .. ........
..
.......
.... ................. ...........
.......
.. ......... ...
......
.......
... .. .... ...
.......
.
.
.
.
.
.
....
.
.
.......
..
.......
..
.......
.......
...
.......
.
.
.
.
.
....
.
..
.......
..
.......
...
.......
........
...
......
.
.
.
.
.
....
.
..
........
..
.
.......
....................... ....
.......
................... ... .......... .........
.......................... ....................
.
.....
......... ............
.. ......... .....
.....
.......
.........................
.
.
.
.
.
.
.
.
.
.
.
.
........ . .... .. .
....... .... .........................
.......
..
.......
... ... ......
....... .
.
.
.
.
.
.......... ... ......
.
..
............ ....
.......
.......
..... .......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.. ......
..
.......
.......
............. .... ... ....
.......
. .. .
.......
............. .......... ................
...
.......
.
.
.
.
.
.
.
....... ...... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. ... . .
.......
... .... ..
.... ....... .........
..... .......... ...... .........
... ........ .....
...... ......... ..............
..
.
.
....... ... .... ..............
...
.......
.......... ................................ .........
....
.
.
.
.
.... ..... ....
.. ............ .. .... .
..
..
...............................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
......
....
..
. ..
.. .
.....
.... .. ... ........... ...
..
....
..... .....
...
...... .......... .................. .....
....
........ ... ............ ... ........ ....
.
.
....... ...... ...... ... .. ...
............ .... ............... ..........
........ .. ... ..
....
......
... ....... ........ .. .....
.... ... ... ...
... .... ... .... ....
.....
.... .. ... ..
.......
....... ........
.
.......
.. ..
.
.
.
.
........
. .
..
...
........
....
.... ......
...
......
...
...
... ..
.
.. .....
.. .
.. ..
... ..
... ...
... ...... ...
..................
........ ......
.... .

0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1.0

Stochastische Differentialgleichungen
Ein Wiener-Prozess mit Drift, St W (, , ) erf
ullt die Differenzengleichung
S = t + Z
und, nach Division durch t,

STOCHASTISCHE DIFFERENTIALGLEICHUNGEN

105

S
Z
= +
.
t
t
F
ur kleine Zuwachse schreibt man symbolisch

dS = dt + dZ
bzw.

dZ
dS
= + .
dt
dt

ist hier keineswegs im gewohnlichen Sinne als AbBemerkung: Das Symbol dZ


dt
leitung der Funktion t 7 St () bei gegebenem zu verstehen. Der vorhergehende
Satz sagt ja gerade, dass ein Pfad eines Wiener-Prozesses (bis auf Ausnahmen,
die mit Wahrscheinlichkeit 0 auftreten) an keiner Stelle differenzierbar ist.
Nur falls = 0 ist, erhalt man f
ur jeden Pfad, d.h. f
ur jedes , eine gewohnliche
Differentialgleichung:
dS
=
dt
Deren Losung ist St = t + f
ur alle .
14.4

It
o-Differentialgleichung

Allgemeiner lasst man zu, dass und noch vom Zustand des Prozesses S und
der Zeit t abhangen, d.h.
= (S, t) ,

= (S, t).

Die stochastische Differentialgleichung


dS = (S, t)dt + (S, t)dZ

(1)

bezeichnet man auch als Ito-Differentialgleichung. Im Falle (S, t) = 0 vereinfacht


sich die stochastische Differentialgleichung zu einer gewohnlichen Differentialgleichung.
Kurs einer Aktie: Es sei St , t 0, der Kurs einer Aktie, auf die keine Dividenden gezahlt werden. Haufig nimmt man an, dass ein solcher Aktienkurs die
stochastische Differentialgleichung
dS
dZ
= (S, t) + (S, t)
dt
dt
erf
ullt. Hierbei bezeichnet dS
den absoluten Ertrag der Aktie pro Zeiteinheit,
dt
(S, t) dessen Erwartungswert (auch Driftrate genannt) und (S, t) dZ
einen
dt
Storterm. Speziell machen wir die folgenden Annahmen:

106

KAPITEL 14. WIENER-PROZESSE

Annahme 1: (S, t) = S. Der erwartete relative Ertrag ist konstant.


Annahme 2: (S, t) = S. Die Standardabweichungsrate ist proportional zur
Hohe des Kurses, d.h. die Streuungsrate ist skalenaquivariant. heisst Volatilitat.
Die Ito-Differentialgleichung vereinfacht sich dann zu
dZ
dS
= S + S
dt
dt
dS
dt

= +

(2)

dZ
.
dt

Ihre Losung lautet






1 2
S = exp + t + Z .
2

(3)

Um diese Losung herzuleiten, benotigen wir eine Formel, die unter dem Namen
ItoLemma bekannt ist; siehe Abschnitt 14.6.
14.5

Geometrische Brownsche Bewegung

Definition (Geometrische Brownsche Bewegung) Seien , IR, > 0


und (Zt )t0 ein Standard-Wiener-Prozess. Der stochastische Prozess




1 2
St = exp + t + Zt , t 0 ,
(1)
2
heit geometrische Brownsche Bewegung.
Ein typischer Pfad einer geometrischen Brownschen Bewegung ist in der nachfolgenden Abbildung dargestellt.

107

STOCHASTISCHE DIFFERENTIALGLEICHUNGEN

St 6
2.5

2.0

1.5

1.0

0.5

..
........
.............
.....................
.......... .....
....... ......
.... ....
.... ....
.. ..
....
..... ...
....... ....
.. ......
....
..................... ........
...
......... .. .. ....
....
.. .... ....... .... ..... ...
...
...... ... ..... ............... ....
...
............... . . .... ...
....
.. ...
............
... ..
...
............
... ...
...
............
.... ...
...
.........
.....
......
....
...........
... ..
........
... ...
.. .........
...
...........
....
..... ...
.....
..... ...
......
.... ......
.. ..
......
...
.
.....
...
..
..... ..
.......... ..
.
............... ............................... ..
.
.
.
. ..
..................
......
.... ..... ............ ....... .....
.
.
................. .............................
.
.
.
. ...
.. ...... . .......................
.. ..........
....... .. .............
.......
...................................................................................................................................................................................................................................................................................................................................................................................................................................
.
........
.. ......
. .. .... .... .
.. .....
.........
.
... ....
...
.. ..... ....
.......... .....
.. ...... ......
.... .........
........... .......
....... ....... .......
........ ...
........ ...
...... .............. .....
...
..... ...
.
...... .. ..
. ..... .....
......
...
.
.
.
.. ..
. ... .........
..
......
...
.
.
.
.
.. ....... ....
.
.....
.....
.
..
.
.. ....... ...
.
.
.
.
.
.
.
.
.
.
.
.
.... ... ............
..... ...
......
............. .. ... ....... ...
.
.
.
...
.
....... .. .. ... ... .
.
.
.
.
.
.
.
.
.
.
.
.
.......... ............... ... ..... ... .... .....
............. ................ .....
.
. . ..... ..... .
...... ....... .......... . .......
.
.... .
.
.......... ... .... ... ....... ....
..
.
...... ........ ......... .... . .. . ......................... ........
.. ........ ..................... . ..... .
....... ........ .. ...
.... ...

0.0
0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1.0

Preis einer Aktie (Fortsetzung): Der Preis St einer Aktie werde durch eine

geometrische Brownsche Bewegung beschrieben. Aquivalent


zu (1) ist:







1 2
1 2
(ln St )t0 = + t + Zt
W , ,
.
(2)
2
2
t0
Dann gilt f
ur den Bruttoertrag St+t
der Aktie
St


St+t
= ln(St+t ) ln(St ) .
ln
St

Die logarithmierten Preise folgen also einem Wiener-Prozess, dessen Zuwachse


die logarithmierten Ertrage sind. Dieser Befund wird auch durch empirische Untersuchungen gest
utzt.
Die Verteilungen der Aktienkurse sowie der Bruttoertrage sind dann jeweils
lognormal-verteilt:




1 2
2
St LN + t, t ,
2



St+t
1 2
2
(3)
LN
t, t .
St
2

108

KAPITEL 14. WIENER-PROZESSE

Ferner gilt

St+t St
S
St+t
=
+1=
+1.
St
St
S

Problem (Preis eines Derivats): Ein Forward -Kontrakt ist ein Vertrag zwischen zwei Individuen am Markt, der den Verkauf einer Aktie zu einem bestimmten Termin betrifft und auch ausge
ubt wird. Sei r der zuk
unftige Termin, St der
Preis der Aktie zur Zeit t, Ft der Preis des Forward-Kontraktes zur Zeit t und p
der risikofreie Zinssatz. Dann muss
Ft = St ep(rt)

(4)

gelten, da sonst die risikolose Anlage f


ur einen der beiden g
unstiger ware.
Allgemeiner betrachten wir ein Derivat, dessen Preis Gt eine beliebige, zweimal
differenzierbare Funktion des Preises der zugrundeliegenden Aktie, St , und der
Zeit t ist,
Gt = g(St , t) .
Der Prozess St erf
ulle die Ito-Differentialgleichung. Wie lautet dann die Ableitung
des Prozesses (G(t))t0 nach der Zeit?
Die gewohnliche Ableitung der Funktion t 7 g(s(t), t) nach der Zeit t ist
g
ds(t) g
dg
(s(t), t) =
(s(t), t)
+ (s(t), t).
dt
s
dt
t
14.6

It
o Lemma

Gegeben sei ein Ito-Prozess (St )t0 , d.h. der Prozess erf
ulle die stochastische
Differentialgleichung
dS
dZ
= (S, t) + (S, t)
,
dt
dt
und eine zweimal differenzierbare Funktion g : (s, t) 7 g(s, t). F
ur den Prozess
(Gt )t0 ,

Gt = g(St , t) ,

gilt:
g(S, t)
dG
=
dt
s



dZ
g(S, t) 1 2 g(S, t) 2
(S, t) + (S, t)
+
+
(S, t) .
dt
t
2 s2

Umgeordnet und in k
urzerer Schreibweise:


g dZ
g
g 1 2 g 2
dG
=
+
+
+
.
2
dt
s
t 2 s
s dt

(1)

109

STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Also ist (Gt )t0 ebenfalls ein Ito-Prozess. Er besitzt die Varianzrate
2

g

s
und die Driftrate

g
g 1 2 g 2
+
+
.
s
t 2 s2
Auerdem, und das ist das Wichtigste, ist der Storprozess (Zt )t0 des Derivats
identisch mit dem Storprozess (Zt )t0 der Aktie. Dies erlaubt es, eine Aktie mit
ihrem Derivat zu hedgen, d.h. durch Kombination in einem Portefeuille das

Risiko grundsatzlich auszuschlieen.


Eine heuristische Herleitung von Itos Lemma sowie weitere Literatur findet sich
in John C. Hull (1997), Options, Futures and other Derivatives, Seite 225ff.
Anwendung von It
os Lemma Es sei nun wie oben speziell (S, t) = S und
(S, t) = S gesetzt. Es gilt also
dZ
dS
= S + S .
dt
dt

Dann ist

dG
g
g 1 2 g 2 2 g dZ
=
S +
+
S + S
.
dt
s
t 2 s2
s
dt

(2)

Wir betrachten zwei wichtige Transformationsfunktionen g und wenden auf sie


Itos Lemma an.
1) Logarithmierte Kurse: Wir wenden das Lemma von Ito auf die Transformation g(s, t) = ln s an. F
ur die Ableitungen von g gilt:
g
1
= ,
s
s

2g
1
= 2
2
s
s

und

g
= 0.
t

Dann folgt aus dem Lemma


dG
1
1 1 2 2 1
dZ
=
S + 0
S + S
2
dt
S
2S
S
dt
=

2
dZ
+
.
2
dt
2

Also ist G = ln S ein (allgemeiner) Wiener-Prozess mit , = 2 und


= . S = exp G ist demnach eine geometrische Brownsche Bewegung; es
gilt


2
.
ln S W , ,
2

110

KAPITEL 14. WIENER-PROZESSE

2) Forward-Kontrakt: Sei Ft der Preis eines Forward-Kontraktes, also Ft =


g(St , t) = St ep(rt) . F
ur g(s, t) = sep(rt) erhalt man die partiellen Ableitungen
g
= ep(rt) ,
s

2g
= 0 und
s2

g
= psep(rt) .
t

Der Prozess (Ft )t0 erf


ullt also die stochastische Differentialgleichung
dF
dt

14.7

dZ
= ep(rt) S pSep(rt) + ep(rt) S
dt


dZ
= Sep(rt) p +
dt


dZ
= F p+
dt

Brownsche Bru
cke

Auch in der statistischen Inferenz haben die Brownsche Bewegung und die mit
ihr zusammenhangenden Prozesse wichtige Anwendungen. Die Brownsche Brucke
ist ein stochastischer Prozess, der zur Zeit 0 im Nullpunkt startet und zur Zeit
1 dort wieder endet. Man kann sie als bedingte Standard-Brownsche Bewegung
auffassen, unter der Bedingung, dass sie f
ur t = 1 fast sicher den Wert 0 annimmt.
Eine einfache Definition ist die folgende:
Definition (Brownsche Bru
cke) Sei (Zt )t0 eine Standard-BrownscheBewegung. Der stochastische Prozess

Bt := Zt tZ1 ,

0 t 1,

heit Brownsche Brucke.


Die folgende Abbildung zeigt einen typischen Pfad einer Brownschen Br
ucke:

111

STOCHASTISCHE DIFFERENTIALGLEICHUNGEN

Bt 6
1.0
0.8
0.6
0.4
0.2
0.0
0.2
0.4

.... ....
..................
... .. ..
..... ... .....
.
.
...... ..... .... .........
............................ ...........
. . .
.................... ..... ......
........................ .......
...
....
... .... .
....
.... ....
....
....
...
..
..
.
...
....
..........
..... .
.....
....
.
. .......
........................
.
.
.
.
.
.
.
.
.
....
.... ...
.. ...........
.
.........
.....
...... ...
.. .... ......
...
............... ....................
.......
... .... .....
.
..... ... .... ..
........ .
..
.......
............................... ......... ...........
.. ....
........ ...............
........... .................. .... .....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
...... .... ...
....
.. .. .. ..
....... ...
..
. .... .. ... .....
.... ..
............. ....
........
..........
...
.. .... ..
.... ... .. ...... ................ .....
...................
..... ..
... ...........
........ ........... ............ ... ....... .......... ... .... ..
... ..........
...
.... ...........
.....
..............
...... .... ...... .................... .... ...... . .... .... .... .........
.... ..... ..
....
........
... ...
......
...
..... .. .... ..
. .......... .
.
.
.. ..
.
.
.
.... .... ....... ........ ......
.
.
..
....
. ...........
.
..... ... .... ...
.
.
.
... ... .... ...... .......
...
......
.
.
.
.
.
..
. .. .
.
............................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
.
.
.
...... ...
.
........
.
.
.
.
.
.
.
.
.
.
.
...
.
..
.....
.. .. .... . .. . .
...
......
....
...
............
......
....... .. ................................................................ .......... ....
......
..........
...
..........
...... ..... .. .............. ............ ... .......... ..
......
........
.. ...
... ..... ............... .....
.......................... ............ .......... ..... ........
.........
.........
...
.... .......................
.... .........
................... .... ..... ...... .............
... ......................
.
... .. ..........
..... .........
... .... .........
...... ... ..
. ....
.. .... ..
.... ....... .................
...... .. .
..... ...
.... .... . ....
.... ...... .............. . ....... ...................
... ...
... ....
.......... .. ............
... ...
....... .... . ..
.. ..
.. ........
... ..
............ ......
........
... ..
............ ....
......
. ...............
...
........
.....
........
.

0.6
0.8
-

1.0

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 t
Wie sich leicht nachrechnen lasst, gilt f
ur die Brownsche Br
ucke:
B0
B1
E(Bt )
var(Bt )
cov(Br , Bt )
Bt

=
=
=
=
=

0 fast sicher,
0 fast sicher,
0 , falls 0 < t < 1,
t(1 t) , falls 0 < t < 1.
r(1 t) , falls 0 < r < t < 1,
N(0, t(1 t)) , falls 0 < t < 1.

Viele Verfahren der schlieenden Statistik basieren auf der empirischen Verteilungsfunktion einer Stichprobe X1 , . . . , Xn ; vgl Statistik IV 2.3 und 8.12. Die empirische Verteilungsfunktion ist ein stochastischer Prozess (Fxn )xIR , Fxn = F n (x),
da sie auer vom Argument x und der Lange n der Stichprobe auch von der
speziellen Realisation der Stichprobe, d.h. von (= Zufall) abhangt.

Mit der empirischen Verteilungsfunktion kann man die wahre Verteilungsfunktion


der Stichprobe schatzen und sogar gleichmaig approximieren (Statistik IV 2.3).
Die Abweichung der empirischen Verteilungsfunktion von der wahren Verteilungsfunktion lasst sich durch die Brownsche Br
ucke beschreiben.

112

KAPITEL 14. WIENER-PROZESSE

Sei X1 , . . . , Xn eine Stichprobe aus einer U(0, 1)-Verteilung, und sei F n die empirische Verteilungsfunktion. Die wahre Verteilungsfunktion der Xi ist dann durch
F (x) = x f
ur 0 x 1 und F (x) = 0 sonst gegeben, und es gilt
Fn (x) F (x) fast sicher
sup |Fn (x) F (x)| 0 fast sicher
0x1

n(Fn (x) F (x)) (Bx ) fast sicher, wenn 0 < x < 1.


14.8

(1)
(2)
(3)

Gau-Prozesse

Allgemeiner Wiener-Prozess und Brownsche Br


ucke gehoren zur groen Klasse
der Gauschen Prozesse. Sie ist wie folgt definiert.
Definition (Gauscher Prozess) Ein stochastischer Prozess (St )t0 heit
Gauscher Prozess, wenn jede Zufallsvariable St und auch alle endlichdimensionalen Verteilungen normalverteilt sind.
Als weiterf
uhrende Literatur zu diesem Kapitels sei beispielsweise genannt:
H. Follmer und A. Schied, Stochastic Finance: An Introduction in Discrete Time,
2. Auflage, Berlin 2004.
A. Etheridge, A Course in Financial Calculus, Cambridge 2002.

Kapitel 15
Markoff-Ketten
Definition und Anwendungsbeispiele
Viele Anwendungsprobleme lassen sich mit stochastischen Prozessen modellieren,
deren zuk
unftige Wahrscheinlichkeiten nur von ihrer gegenwartigen Realisati

on abhangen. Angenommen ein Prozess (Sn )nIN0 w


urde bis zur Zeit n beobachtet,
d.h. man kennt die Realisationen der Zufallsvariablen S0 , S1 , ..., Sn . Wenn nun die
Wahrscheinlichkeitsverteilung der nachsten Zufallsvariablen Sn+1 , gegeben diese
Realisationen, nur von der Realisation von Sn , aber nicht von den vorigen Realisationen abhangt, nennt man (Sn )nIN0 einen Markoff-Prozess. Beispiele sind
der Ankunftszeitprozess eines Poisson-Prozesses (vgl. 13.6) und jeder Random
Walk (vgl. 13.2). In diesem Paragraphen betrachten wir Markoff-Prozesse, deren
Zustandsraum endlich oder abzahlbar unendlich (meist gleich den nat
urlichen
Zahlen) ist. Sie heien Markoff-Ketten und lassen sich in einfacher Weise durch
Matrizen beschreiben.
15.1

Beispiel: Kraftfahrzeughaftpflichtversicherung

In der Kraftfahrzeughaftpflichtversicherung wird ein Versicherungsvertrag jedes


Jahr in eine von derzeit 19 Schadensfreiheitsklassen (SFK) eingestuft. Wenn in einem Jahr kein Schaden eintritt, r
uckt der Vertrag im folgenden Jahr in die nachste
SFK auf, bis er die hochste SFK erreicht. Wird einer oder mehrer Schaden gemeldet, bleibt der Vertrag in der SFK oder wird zur
uckgestuft. Ein vereinfachtes
Modell mit nur drei Klassen lasst sich graphisch so darstellen:
0.8- 
0.9- 




0.1


Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013




0.08



0.02

Oktober 2013

114

KAPITEL 15. MARKOFF-KETTEN

Die Pfeile bedeuten mogliche Uberg


ange zwischen den Klassen von einem Jahr
zum nachsten und die Zahlen die zugehorigen Wahrscheinlichkeiten. Es ergibt
sich demnach, dass ein zufallig ausgewahlter Vertrag, der sich in Klasse 1
befindet, im nachsten Jahr mit Wahrscheinlichkeit 0.8 in Klasse 2 u
bergeht und
mit der verbleibenden Wahrscheinlichkeit von 0.2 in Klasse 1 bleibt.

Ahnlich
lassen sich
der Erwerbsstand einer Person,
der Bearbeitungsstand einer Steuererklarung,
die Zahl der Wartenden in einem Bedienungssystem
modellieren.
15.2

Markoff-Kette

Beispiel
P Sei Sn die Zahl der Erfolge bei einem
Sn = nm=1 Bm . Dann ist E = IN0 und

,
1
P (Sn+1 = j|Sn = i) =

Bernoulli-Prozess (Bn )nIN0 , also


falls j = i + 1,
falls j = i,
sonst .

Die bedingte Wahrscheinlichkeit P (Sn+1 = j|Sn = i) andert sich also nicht mit
n; auerdem ist f
ur beliebige Werte 0 k0 k1 ... kn1 i j n + 1
P (Sn+1 = j|Sn = i) = P (Sn+1 = j|Sn = i, Sn1 = kn1 , ..., S1 = k1 , S0 = k0 ).

Definition Sei E = IN0 oder E = {0, 1, 2, ..., N}, (Sn )nIN0 ein stochastischer
Prozess mit Zustandsraum E. Wenn f
ur alle i und j gilt:
(i) P (Sn+1 = j|Sn = i, Sn1 = kn1 , ..., S0 = k0 ) = P (Sn+1 = j|Sn = i) f
ur
beliebige n, kn1, ..., k0 ,
(ii) P (Sn+1 = j|Sn = i) andert sich nicht mit n,
dann heit (Sn ) Markoff-Kette, genauer: homogene Markoff-Kette.
Offenbar sind (i) und (ii) erf
ullt, wenn die Folge S0 , S1 , ... unabhangig und identisch verteilt ist. Dann sind namlich die bedingten Wahrscheinlichkeiten in (i)
und (ii) gleich der unbedingten Wahrscheinlickeit P (Sn+1 = j), und diese ist f
ur
alle n die gleiche. Im einleitenden Beispiel sind die Sn nicht unabhangig.
Eine Markoff-Kette ist ein Prozess in diskreter Zeit, also eine zufallige Folge. Zu
jedem gehort als Realisation eine konkrete Folge (S0 (), S1 (), . . .) in
Ej . Sie wird Pfad des stochastischen Prozesses genannt. Aus der Definition einer
Markoff-Kette folgt eine Beziehung, die allgemeiner ist als (i):

DEFINITION UND ANWENDUNGSBEISPIELE

115

ur
(i) P (Sln+1 = j|Sln = i, Sln1 = kn1 , ..., S0 = k0 ) = P (Sln+1 = j|Sln = i) f
beliebige n, kn1, ..., k0 und ln+1 > ln > ln1 > > 0 .
15.3

Ubergangsmatrix,
Anfangsverteilung

F
ur eine gegebene Markoff-Kette (Sn ) f
uhren wir die Kurzbezeichnung
P (i, j) = P (Sn+1 = j| Sn = i),
p0 (i) = P (S0 = i).

ein. P (i, j) ist die Ubergangswahrscheinlichkeit


von i nach j, und P0 (i) die Startwahrscheinlichkeit des Zustands i. Wenn der Zustandsraum endlich ist, etwa

E = {1, . . . , N}, bilden wir die Ubergangsmatrix

P (1, 1) P (1, 2) P (1, N)


P (2, 1) P (2, 2) P (2, N)

P =

..
..
..
.
.

.
.
.
.
P (N, 1) P (N, 2) P (N, N)
und den Startvektor p0 = (p0 (1), . . . p0 (N)) .
Beispiele

0.2 0.8 0
1. Im Beispiel 15.1 haben wir N = 3 und P = 0.1
0 0.9
0.02 0.08 0.9

2. Wenn (Sn )n=0,...,N die Zahl der Erfolge bei einem endlichen N-stufigen
Bernoulli-Prozess mit = 0.2 ist, erhalten wir E = {0, 1, . . . , N}, p0 =
(1, 0, . . . , 0),

0.8 0.2 0 0 0
0
0 0.8 0.2 0 0
0

..

.
.
.
.
.
.
.
.
.
.
P = .

.
.
.
.
.

0
0
0 0 0.8 0.2
0
0
0 0 0
1

Dies ist ein Zahlprozess, d.h. ein Prozess mit |Sn+1 Sn | 1 f.s. Ein Zahlproze, der wie in diesem Beispiel monoton wachst, heit auch Geburtsprozess.

1 0 0

3. F
ur E = {1, 2, 3} stellt P = 0 1 0 die Ubergangsmatrix
einer
0 0 1

Markoff-Kette ohne Uberg


ange dar, d.h. der Anfangszustand bleibt mit
Wahrscheinlichkeit 1 unverandert.

116

KAPITEL 15. MARKOFF-KETTEN

F
ur jede Ubergangsmatrix
gilt,
Pdass ihre Komponenten P (i, j) nichtnegativ sind
und dass alle Zeilensummen j P (i, j) gleich 1 sind. Umgekehrt definiert jede
solche Matrix P zusammen mit einem Vektor p0 von Startwahrscheinlichkeiten
eine Markoff-Kette.

15.4

Berechnung von Wahrscheinlichkeiten

Aus den Startwahrscheinlichkeiten p0 (i) und den Ubergangswahrscheinlichkeiten


P (i, j) kann man die gemeinsamen Wahrscheinlichkeiten von je endlich vielen der
Sn mit und ohne Bedingungen ausrechnen. Zum Beispiel gilt
P (S4 = k, S3 = j| S2 = i)

=
15.2(i)

=
=

P (S2 = i) =

X
l

=
=

XX
l

P (S3 = j| S2 = i) P (S4 = k| S3 = j)
P (i, j) P (j, k),

P (S1 = l) P (S2 = i| S1 = l)

XX
l

P (S3 = j| S2 = i) P (S4 = k| S3 = j, S2 = i)

P (S0 = m) P (S1 = l| S0 = m) P (S2 = i| S1 = l)


p0 (m)P (m, l)P (l, i).

Ahnlich
beweist man die folgenden allgemeinen Formeln (f
ur m 0):
(1) P (Sn+m+1 = k, Sn+m = jm , , Sn+1 = j1 | Sn = i)

= P (i, j1 ) P (j1 , j2 ) . . . P (jm , k),


P
P
(2) P (Sn+m+1 = k| Sn = i) = jm . . . j1 P (i, j1 ) P (j1 , j2 ) . . . P (jm , k),

(3) P (Sn = kn , Sn1 = kn1, . . . , S0 = k0 ) = p0 (k0 ) P (k0 , k1 ) P (k1 , k2 ) . . .


P (kn1, kn ).

Formel (2) lasst sich auch k


urzer in Matrizenschreibweise notieren. Bezeichne
n

P = P . . . P die n-te Potenz der Ubergangsmatrix,


also P 1 = P, P 2 = P P,
usw.. Dann stellt die rechte Seite von (2) das Element der i-ten Zeile und k-ten
Spalte der Matrix P m+1 dar, also
(2) P (Sn+m+1 = k| Sn = i) = P m+1 (i, k).

DEFINITION UND ANWENDUNGSBEISPIELE

117

Daraus erhalten wir weiter (mit n=0) die unbedingte Wahrscheinlichkeit


(4) P (Sm+1 = k) =

p0 (i)P m+1 (i, k).

Anwendung: Kraftfahrzeughaftpflichtversicherung
Im Beispiel 15.1 sei ein Vertrag im Versicherungsjahr 1996 in SFK 1. Wie gro ist
die Wahrscheinlichkeit, dass er sich im Versicherungsjahr 1999 in SFK 3 befindet?
Wegen (2) haben wir P 3 (1, 3) zu berechnen.

0.2 0.8 0
0 0.9
P = 0.1
0.02 0.08 0.9

0.120 0.160 0.720


P 2 = P P = 0.038 0.152 0.810
0.030 0.088 0.882

0.0544 0.1536 0.7920


P 3 = P P 2 = 0.0390 0.0952 0.8658
0.03244 0.09456 0.8730

Die gesuchte Wahrscheinlichkeit betragt 0.792.

Angenommen, im Jahre 1996 verteilen sich die Vertrage zu 25%, 20% und 55%
auf die SFK 1,2 und 3. Wie wird die Verteilung im Jahre 1999 sein, wenn keine
weiteren neuen Vertrage hinzukommen (geschlossenes Kollektiv)? Die Verteilung
in 1999 wird gema (4) durch den Wahrscheinlichkeitsvektor p0 P 3 beschrieben.
Hier ist p0 = (0.25, 0.20, 0.55) und p0 P 3 = (0.039242, 0.109448, 0.85131).
15.5

Unendlicher Zustandsraum

Auch wenn der Zustandsraum E unendlich ist, gelten die Formeln 15.4(1) bis (4).

Die Ubergangsmatrix
P hat dann unendlich viele Zeilen und Spalten. Zum Beispiel sei Sn , n IN, die Zahl der Erfolge in einem (unendlichstufigen) BernoulliProzess mit Parameter . Dann ist E = {0, 1, 2, ...}

0
0 0
0
1

0 0

P =
0
0
1 0
..............................

(1 )2 2(1 )
2
0
0

0
(1 )2 2(1 )
2
0

P2 =

0
0
(1 )2 2(1 ) 2
...................................................

118

KAPITEL 15. MARKOFF-KETTEN

und so weiter. Es gilt p0 = (1, 0, 0, ...) und p0 P m ist der Vektor mit der i-ten
Komponente
 m
(1 )mi i f
ur i = 0, 1, ..., m,
m 0
i
(p0 P ) (i) =
0
f
ur i = m + 1, m + 2, ...
= P (Sm = i).
15.6

Anwendung: Lagerhaltung

Ein Lagerbestand wird laufend verbraucht und zu festen Zeitpunkten t1 , t2 , ...,


gegebenenfalls wieder aufgestockt. Sei Sn der Bestand unmittelbar vor dem Zeitpunkt tn und Vn der Verbrauch im Zeitraum [tn1 , tn [. Die Aufstockung geschehe
nach der sogenannten (s, S)-Regel: Wenn Sn die untere Bestellschranke s unterschreitet, wird der Bestand unverz
uglich (zur Zeit tn ) auf die obere Bestellschranke S erhoht. Dann ist, bei gegebenen Konstanten s < S,

Sn Vn+1 , falls s < Sn S und Vn+1 Sn ,


S Vn+1 ,
falls Sn s, Vn+1 S,
Sn+1 =

0
sonst

(Sn )nIN0 ist genau dann eine Markoff-Kette, wenn

P (Sn+1 = j|Sn , . . . , S0 ) = P (Sn+1 = j|Sn ),


und letzteres ist aquivalent dazu, dass
P (Vn+1 = k|Sn , . . . , S0 ) = P (Vn+1 = k|Sn )
gilt, d.h. der Verbrauch in der (n + 1)-ten Periode, wenn der n-te Lagerbestand
gegeben ist, nicht auch noch von den fr
uheren Lagerbestanden abhangt.
15.7

Anwendung: Restlebensdauer eines Bauteils

Ein Bauteil in einer Maschine kann zu den Zeiten n = 1, 2, . . . ausfallen; es wird


dann sofort durch ein neues gleichartiges ersetzt. Die Lebensdauer eines Bauteils,
das zur Zeit n neu eingesetzt wird, betrage Zn , wobei die Z0 , Z1 , Z2 , . . . stochastisch unabhangige, identisch verteilte Zufallsvariablen mit Werten in IN seien.
Untersucht wird die restliche Lebensdauer Sn des Bauteils in der Maschine sei
es erneuert oder nicht zur Zeit n. Wenn das Teil zur Zeit n gerade erneuert
wird, betragt die Restlebensdauer Zn , sonst Sn1 1,
Sn =

Sn1 1,
Zn ,

falls Sn1 2,
falls Sn1 = 1.

EIGENSCHAFTEN VON MARKOFF-KETTEN

119

Offenbar ist S0 = Z0 . Wir berechnen die bedingten Wahrscheinlichkeiten P (Sn =


j|Sn1 = i) f
ur i, j E = {1, 2, 3, . . .}. Im Fall i 2 erhalten wir

1, falls j = i 1,
P (Sn = j|Sn1 = i) =
0, sonst ,
und im Fall i = 1
P (Sn = j|Sn1 = i) = P (Zn = j|Sn1 = i) = P (Zn = j) = P (Z0 = j) =: qj .
Zn ist namlich unabhangig von Zn1 , . . . , Z0 , also auch von Sn1 , und Zn ist verteilt wie Z0 . In beiden Fallen hangt diese bedingte Wahrscheinlichkeit weder von
den Werten der Variablen S0 , . . . , Sn2 noch von n ab, d.h. (Sn ) ist eine Markoff
Kette. Startvektor ist p0 = (q1 , q2 , q3 , . . .), und die Ubergangsmatrix
lautet

q1 q2 q3 q4 . . .
1 0 0 0 ...

0 1 0 0 ...

P = 0 0 1 0 ...

0 0 0 1 ...

.. .. .. .. . .
.
. . . .
Man sieht daran z.B., dass P (S1 = 1) = p0 P = q12 + q2 ist.

Eigenschaften von Markoff-Ketten


15.8

Unabh
angigkeit von Vergangenheit und Zukunft

Bezeichnet man den Zeitpunkt n als Gegenwart und die Zeiten vorher und

nachher als Vergangenheit bzw. Zukunft, so besagt 15.2 (i), dass die unmit

telbare Zukunft n + 1 einer Markoff-Kette (Sn )nIN0 nur von der Gegenwart aber
nicht zusatzlich von der Vergangenheit abhangt. Dies gilt auch f
ur Erwartungen,
die sich auf die gesamte Zukunft beziehen: F
ur n IN0 betrachten wir die Zufallsvariable Zn = f (Sn , Sn+1 , Sn+2 , . . .), wobei f eine beschrankte Funktion sei, d.h.
es gebe eine Zahl k, so dass |f (sn , sn+1 , sn+2 , . . .)| k f
ur alle sn , sn+1 , sn+2 , . . ..
Dann gilt:
Satz
(i) E(Zn |Sn , . . . , S0 ) = E(Zn |Sn )
(ii) E(Zn |Sn = i) = E(Z0 |S0 = i)
Zusammen folgt daraus

120

KAPITEL 15. MARKOFF-KETTEN

(iii) E(Zn |Sn , . . . , S0 ) = g(Sn ), wobei g(i) = E(Z0 |S0 = i).


Im Lagerhaltungsbeispiel folgt aus (iii) etwa, dass die in Zukunft f
ur das Lager
zu erwartenden Kosten von keiner anderen Groe als dem gegenwartigen Lagerbestand abhangen.
15.9

Erreichbarkeit von Zust


anden, Periodizit
at

Angenommen, im Beispiel 15.1 der Schadensfreiheitsklassen kommt eine weitere Klasse 0 hinzu, in die nur Vertrage im ersten Jahr eingestuft werden.

Die Ubergangswahrscheinlichkeiten
seien P (0, 1) = 0.1, P (0, 2) = 0.9, ansonsten

P (0, j) = 0 und P (i, 0) = 0. Die neue Ubergangsmatrix


lautet

0 0.1 0.9 0
0 0.2 0.8 0

P =
0 0.1
0 0.9
0 0.02 0.08 0.9

Dann ist der Zustand 0 offenbar von keinem anderen Zustand aus erreichbar.

Definition Sei (Sn )nIN0 eine Markoff-Kette, j, i E. j heit von i erreichbar,


wenn P (Sn = j|S0 = i) > 0 ist f
ur mindestens ein n IN0 . Insbesondere ist (mit
n = 0) jedes j E von sich selbst erreichbar. Falls jedes j von jedem i erreichbar
ist, heit die Markoff-Kette irreduzibel. Im Beispiel der Schadensfreiheitsklassen
ist die Kette mit P irreduzibel, die mit P aber nicht.
Desweiteren interessiert, ob ein Punkt j auf die Dauer in beliebigen, unregelmaigen Abstanden erreicht wird oder nur mit einer bestimmten Periodizitat. Zum

Beispiel wird in dem Ubergangsgraphen




1 






der Zustand 1 regelmaig mit der Periode 2 angenommen, das gleiche gilt f
ur den
Zustand 2.

Im Ubergangsgraphen






0.5








0.2
-

0.3








3

0.7

0.5

0.8

121

EIGENSCHAFTEN VON MARKOFF-KETTEN

hat jeder der Zustande 1, 2, 3 und 4 die Periode 3.


Definition Ein Zustand j heit periodisch mit Periode , wenn der grote Teiler
der Menge {n IN|P n (j, j) > 0} ist und 2.
15.10

Invariante Verteilung

Satz Sei (Sn )nIN0 eine irreduzible Markoff-Kette ohne periodische Zustande, und
sei E = {1, 2, . . . , N}.
(i) Es gibt dann eine Verteilung auf E, gegen die die Verteilungen der Sn
konvergieren,
(j) = lim P n (i, j) f
ur alle i, j E.
n

(ii) (1), . . . , (N) ist die eindeutige Losung der linearen Gleichungen
(j) =

N
X

(i)P (i, j),

j = 1, . . . , N ,

(1)

i=1

N
X

(j) = 1 .

(2)

j=1

(iii) Es gilt (j) > 0 f


ur j = 1, . . . , N.
Man beachte, dass P n (i, j) = P (Sn = j|S0 = i) die Wahrscheinlichkeit ist, in
n Schritten von i nach j zu kommen, und dass der Limes (j) dieser Wahrscheinlichkeit nicht mehr vom Startzustand i abhangt. Eine Verteilung, die (1)
und (2) erf
ullt, nennt man invariante (oder stationare) Verteilung. Die Grenzverteilung = ((1), . . . , (N)) ist wegen (ii) die einzige invariante Verteilung
der Markoff-Kette: Startet man die Markoff-Kette mit P (S0 = j) = (j), so haben alle folgenden Sn die gleiche Verteilung, P (Sn = j) = (j) f
ur n IN. Das
Gleichungssystem in (ii) schreibt man k
urzer
P = ,

1 = 1,

wobei 1 den Spaltenvektor aus N Einsen bezeichnet. Mit anderen Worten, ist

normierter Eigenvektor der Ubergangsmatrix


P zum Eigenwert 1.
Die Grenzverteilung ist die Verteilung, die sich auf lange Sicht und unabhangig
von der Startverteilung einstellt. Es folgen weitere wichtige Eigenschaften, die es
u.a. erlauben, die (j) zu schatzen, wenn man die Realisation der Markoff-Kette
bis zu einem endlichen Zeitpunkt beobachtet hat.

122

KAPITEL 15. MARKOFF-KETTEN

15.11

Ergodens
atze

Sei wiederum (Sn )nIN0 irreduzibel und ohne periodische Zustande, E =


{1, 2, . . . , N}. F
ur jedes betrachten wir den Pfad (S0 (), S1(), S2 (), . . .).
Hn (j, ) sei die relative Haufigkeit des Erreichens von j auf diesem Pfad bis
zur Zeit n, also
1
#{m|Sm () = j, 0 m n}.
Hn (j, ) = n+1
Satz



(i) P lim Hn (j, ) = (j) = 1.
n

(ii) F
ur jede Funktion i 7 f (i) gilt
P
und

f
ur alle i.

n
N
X
1 X
f (Sm ()) =
(j)f (j)
n n + 1
m=0
j=1



lim

=1

n
N
X
1 X
E(f (Sm )|S0 = i) =
(j)f (j)
lim
n n + 1
m=0
j=1

Teil (i) des Satzes besagt, dass man die Grenzwahrscheinlichkeit von j durch die
realisierten Haufigkeiten des Erreichens von j schatzen kann. Teil (ii) verallgemeinert dieses Ergebnis auf den Erwartungswert einer beliebigen Funktion f der
Zustande; er besagt, dass man diesen Erwartungswert sowohl durch den Durchschnitt der u
ber einem Pfad realisierten Funktionswerte approximieren kann als
auch durch einen Durchschnitt von bedingten Erwartungswerten bez
uglich eines
beliebigen Anfangszustands.
15.12

Anwendung: L
ange einer Warteschlange

In einem Bedienungssystem werden Kunden in der Reihenfolge ihrer Ankunft bedient. Die Ank
unfte mogen einem Poisson-Prozess (Nt )tIR+ (vgl. 13.6) mit Rate
folgen, die Bedienungszeiten Z1 , Z2 , . . . seien unabhangig und identisch verteilt
mit Dichte fZ und auch unabhangig vom Prozess (Nt ). Um die Leistungsfahigkeit
des Bedienungssystems zu beurteilen, ist vor allem interessant, ob sich im Laufe
der Zeit eine Warteschlange entwickelt und welche Lange sie erreichen wird. Sei
(Xn )nIN0 die Zahl der zu dem Zeitpunkt noch wartenden Kunden, zu dem die
Bedienung des n-ten Kunden gerade beendet und ggf. die des nachsten Kunden
begonnen ist. Dann kann man zeigen, dass (Xn ) eine Markoff-Kette ist mit Zustandsraum E = IN0 und Startverteilung P (X0 = 0) = 1. Die Wahrscheinlichkeit,

123

EIGENSCHAFTEN VON MARKOFF-KETTEN

dass in der Zeitspanne Zn , also wahrend der Bedienung des n-ten Kunden, gerade
k neue Kunden eintreffen, betragt dann
rk =

et

(t)k
fZ (t)dt.
k!

(Im Grenzfall, bei dem alle Bedienungszeiten konstant gleich t0 sind, erhaltenk
haben wir rk = et0 (tk!0 ) , das ist die Poisson-Wahrscheinlichkeit, dass in einer

Zeitspanne der Lange t0 genau k neue Kunden ankommen.) Bei den Ubergangswahrscheinlichkeiten P (i, j) muss man im wesentlichen zwei Falle unterscheiden,
dass namlich die Warteschlange zu beiden Zeitpunkten i und j leer ist bzw., dass
sie es nicht ist. Es gilt

r0 + r1 , falls i = j = 0,
P (i, j) = P (Xn+1 = j|Xn = i) =
rj+1i , falls j i 1 und nicht i = j = 0,

0,
sonst ,
Wir fassen diese Wahrscheinlichkeiten

r0 + r1
r0

P =
0

..
.

in der Ubergangsmatrix
P zusammen:

r2 r3 r4 . . .
r1 r2 r3 . . .

r0 r1 r2 . . .

.. .. .. . .
.
. . .

Von besonderem Interesse ist die Frage, unter welchen Umstanden die Warteschlange im Verlauf des Prozesses jemals wieder abgebaut wird, d.h. die Lange 0
erreicht. Sie wird durch den folgenden Satz beantwortet.
Satz P (Es gibt ein n 1 mit Xn = 0) = 1

E(Zn )

Die Warteschlange wird also genau dann fast sicher irgendwann abgebaut sein,
wenn die mittlere Bedienungszeit E(Zn ) nicht groer ist als die mittlere Zeit 1
bis zur Ankunft des jeweils nachsten Kunden.
Beweise zu den Satzen dieses Paragraphen und weitere Beispiele finden sich u.a.
in:
E.C
inlar, Introduction to Stochastic Processes, Englewood Cliffs, NJ, 1975.
K.L. Chung, Markov Chains with Stationary Transition Probabilities, Berlin
1967.
W. Feller, An Introduction to Probability Theory and its Applications, I und
II, New York 1967 bzw. 1971.

124

KAPITEL 15. MARKOFF-KETTEN

Kapitel 16
Station
are Prozesse
F
ur viele Anwendungen, insbesondere die Modellierung von okonomischen Zeitreihen, sind stochastische Prozesse (Xn )nM interessant, deren Abhangigkeitsstruk
tur sich u
ber die Zeit nicht andert. Wenn auerdem der Erwartungswert zu jeder
Zeit konstant ist, spricht man von einem stationaren Prozess. Wir betrachten hier
Prozesse in diskreter Zeit, deren Zeitindex eine Teilmenge M der ganzen Zahlen
ZZ durchlauft.
Im folgenden werden nach einer kurzen Einf
uhrung die Definitionen der wichtigsten stationaren Prozesse, autoregressive Prozesse und gleitende Durchschnitte, dargestellt und kurz erlautert. Ihre weiteren Eigenschaften und Anwendungen sind Gegenstand der Vorlesung Zeitreihenanalyse. Gute Einf
uhrungen bie
ten die Lehrb
ucher von Schlittgen und Streitberg (Zeitreihenanalyse, 8. Auflage 1999), Schlittgen (Angewandte Zeitreihenanalyse, 2001), Rinne und Specht
(Zeitreihen, 2002) sowie das von Harvey (Time Series Analysis, 1981).

Stationarit
at
16.1

Einfu
hrende Beispiele

Beispiel 1 (Sinusschwingung)
Ein einfaches Beispiel einer Zeitreihe ist die Sinusschwingung
Xn = Y sin(n),

n ZZ,

wobei Y eine nichtnegative Zufallsvariable und > 0 sei. Die Realisation Y ()


ist die Amplitude der Sinusschwingung. Die Punkte in der folgenden Zeichnung
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013


KAPITEL 16. STATIONARE
PROZESSE

126

stellen f
ur eine spezielle Realisation Y () den sogenannten Pfad der Zeitreihe
dar; dabei ist = 41 gewahlt.
Xn
Y ()
.....s
.
.....s
.
......... .............
......... .............
.....
.
.....
.
s

....
.....
....
....
...
.
.
.
....
...
...
...
...
.
.
.
...
...
...
...
...
...
...
...
.
.
...
..
....
...
....
....
....
....
....
...
.
.
.
....
..
.....
....
....
....
....
....
......
....
......................

2
s

Y ()

....
...
.....
.....
....
....
....
....
...
...
.
....
.
.
.
...
....
...
...
...
...
...
...
...
...
...
.
.
...
...
...
...
...
...
...
...
...
.
.
...
..
...
...
....
....
....
....
....
...
.
.
.
....
...
....
....
.....
.....
....
....
.....
..........................

....
.....
....
....
....
...
....
...
...
...
...
...
...
...
..

10

Beispiel 2 (Kontrolle der Geldmenge)


Bezeichne Mn die Geldmenge im Monat n und MnZiel das Geldmengenziel der
Notenbank im Monat n. Man nehme an, da die Zuwachsrate f
ur das Geldmengenziel der Notenbank konstant sei, d.h. es gelte
Ziel
MnZiel Mn1
MnZiel

1
=
=w
Ziel
Ziel
Mn1
Mn1

f
ur n = 1, 2, 3, . . . ,

also
MnZiel = (1 + w)n M0Ziel .
Die Abhangigkeit der tatsachlichen Geldmenge Mn zur Zeit n von der bisherigen Geldmenge Mn und dem Geldmengenziel MnZiel modelliert man durch die
Gleichung
Mn = Mn1 + (MnZiel Mn1 ) + Un

mit stochastisch unabhangigen Zufallsvariablen Un (0, 2 ). Dabei stellt der


Term (MnZiel Mn1 ) das zusatzliche Angebot (evtl. negativ) der Notenbank
dar. Es folgt
Mn = (1 + w)n M0Ziel + (1 )Mn1 + Un .
Mit a0 (n) = (1 + w)n M0Ziel und a1 = 1 erhalt man
Mn = a0 (n) + a1 Mn1 + Un

Bevor wir nun den Begriff Stationaritat genau spezifizieren konnen, definieren

wir einige Funktionen, um die Struktur von stochastischen Prozessen zu beschreiben.


Definition F
ur einen stochastischen Prozess (Xn )nM heit
: M IR,

(n) = E(Xn ) Mittelwertfunktion,


STATIONARITAT
2 : M IR,

127
2 (n) = var(Xn ) Varianzfunktion,

: M M IR,

(n, m) = cov(Xn , Xm ) (Auto-)Kovarianzfunktion und

: M M IR,

(n, m) =

cov(Xn ,Xm )
(n)(m)

(Auto-)Korrelationsfunktion.

Beispiele
1. F
ur einen White-Noise-Prozess Xn := Un (0, 2 ) mit paarweise unkorrelierten Un erhalt man
 2

f
ur n = m,
1 f
ur n = m,
(n) = 0, (n, m) =
(n, m) =
0
sonst,
0
sonst.
2. Ein Spezialfall des White-Noise-Prozesses ist der Standard-Storprozess
Xn := Un i.i.d. N(0, 2 ) aus Abschnitt 13.1. Er besitzt daher dieselbe
Mittelwert-, (Auto-)Kovarianz- und (Auto-)Korrelationsfunktion wie der
allgemeine White-Noise-Prozess aus dem vorigen Beispiel 1.
3. Sei Xn ein Random Walk mit Drift, d.h. sei Xn :=

n
P

Yi, wobei die Zuwachse

i=1

Yi unabhangig und identisch verteilt sind, Yi (, 2 ); vgl. Abschnitt 13.1.


Es folgt
(n) = n,
(n, m) = cov

n
X

Yi ,

i=1

= E

m
X

Yi

i=1

n
m
X
X
(Yi )
(Yi )
i=1

i=1

= min{n, m}E (Yi )2


= min{n, m} 2 ,
2 (n) = (n, n) = n 2
und
(n, m) =

min{n, m}

nm

4. F
ur die Sinusschwingung aus Beispiel 1 erhalt man
(n) = E(Y ) sin(n),
(n, m) = E ((Xn (n))(Xm (m)) = var(Y ) sin(n) sin(m) .


KAPITEL 16. STATIONARE
PROZESSE

128

5. Setzt man in Beispiel 2 f


ur den Geldmengen-Prozess 0 < < 2 voraus, so
ergibt sich
2
a0 (n)
,
, 2 (n) =
1 a1
1 a21
( 2 nm
 nm
a1
a1
f
ur n m,
f
ur n m,
2
1a
(n, m) =
(n, m) =
1
(m, n)
sonst.
(m, n)
sonst,
(n) =

6. Als letztes Beispiel betrachten wir den Kosinoid-Prozess


Xn = Y sin(n) + Z cos(n),
wobei Y und Z reellwertige stochastisch unabhangige Zufallsvariable seien
und > 0 sei. Es folgt
(n) = E(Y ) sin(n) + E(Z) cos(n) ,
(n, m) = E [(Xn (n))(Xm (m))]
= E([(Y E(Y )) sin(n) + (Z E(Z)) cos(n)]
[(Y E(Y )) sin(m) + (Z E(Z)) cos(m)])
= var(Y ) sin(n) sin(m) + var(Z) cos(n) cos(m) .
Speziell gilt:
E(Y ) = E(Z) = 0 (n) = konstant = 0
var(Y ) = var(Z) (n, m) = var(Y ) [sin(n) sin(m) + cos(n) cos(m)]
var(Y ) [cos((n m))]
16.2

Stationarit
at

Definition Ein Prozess (Xn )nM in diskreter Zeit heit stationar, falls
(i) (n) nicht von n abhangt (Mittelwertstationaritat) und
(ii) (n, m) nur von n m abhangig ist (Kovarianzstationaritat).
F
ur stationare Prozesse heit (k) := (n, n k) Kovarianzfunktion und
(k) := (n, n k) Korrelationsfunktion.
Insbesondere andert sich also auer dem Erwartungswert E(Xn ) auch die Varianz var(Xn ) = cov(Xn , Xn ) = (n, n) = (0) nicht mit der Zeit. Bedingung
(ii) bedeutet, dass die Abhangigkeitsstruktur, soweit sie durch die Kovarianzen
beschrieben wird, u
ber die Zeit gleich bleibt; z.B. hangt X10 von X6 ab wie X8
von X4 .


STATIONARITAT

129

Beispiele
1) White-Noise-Prozesse und Standard-Storprozesse sind stationar.
2) Ein Kosinoid-Prozess ist stationar gdw. E(Y ) = E(Z) = 0 und var(Y ) =
var(Z).
2) Ein Random Walk mit Drift ist nicht stationar, da er nicht kovarianzstationar ist. Auerdem ist er nur dann mittelwertstationar, wenn die Konstante
gleich Null ist.
Folgerungen F
ur einen kovarianzstationaren Prozess (Xn )nZZ gilt:
(i) (0) = var(Xn )

f
ur alle n,

(ii) (0) = 1,
(iii) (k) =

(k)
(0)

f
ur alle k,

(iv) (0) (k) (0),


(v) (k) = (k),

1 (k) 1

(k) = (k)

f
ur alle k,

f
ur alle k.

Bemerkungen
(1) Viele Zeitreihen besitzen einen Trend, sind also nicht Realisation eines mittelwertstationaren Prozesses. Man schatzt geeignet den Trend (z. B. linear
oder exponentiell) und bereinigt so, da (n) = 0 gilt.
(2) Stationaritat ist eine nat
urliche Annahme f
ur die Zeitreihenanalyse: Kon
stanz der stochastischen Struktur (beschrieben durch die ersten beiden Momente) u
ur die Analyse einer Zeitreiber die Zeit. Allgemein benotigt man f
he jedenfalls ein Bildungs- oder Fortpflanzungsgesetz ihrer stochastischen
Struktur.
(3) Bei einem stationaren Proze sind der Erwartungswert und die Kovarianzmatrix von je endlich vielen Xn1 , .., Xnl invariant gegen
uber Verschiebungen
der Zeitachse. Gilt dies f
ur die gesamte gemeinsame Verteilung von je endlich vielen Xn1 , .., Xnl , so nennt man den Prozess Xn stark stationar.
(4) F
ur Gau-Prozesse Xn gilt: Xn ist stationar gdw. Xn stark stationar ist.
(5) Zu jedem stationaren Prozess gibt es einen stark stationaren Gau-Prozess
mit denselben und . So existiert z.B. (vgl. Beispiele) zu jedem WhiteNoise-Prozess ein Standard-Stor-Prozess.


KAPITEL 16. STATIONARE
PROZESSE

130

Wichtige station
are Prozesse
16.3

Autoregressive Prozesse

In vielen okonomischen Modellen wird die zeitliche Entwicklung einer zufalligen


Groe betrachtet, deren Realisation sich zu jeder Zeit aus vergangenen Realisationen plus einer Storung ergibt, z.B. Sn = 0.5Sn1 + Un . Allgemein hat ein
solcher stochastischer Prozess die folgende Form:
Definition Falls es Zahlen a1 , . . . , ap IR gibt, so dass f
ur alle n
Sn =

p
X

ak Snk + Un

k=1

gilt, wobei ap 6= 0 und (Un ) weies Rauschen ist, heit (Sn ) autoregressiver
Prozess der Ordnung p, kurz: (Sn ) ist ein AR(p)-Prozess.
Beispiele
Speziell f
ur p = 1 erhalten wir Sn = a1 Sn1 + Un , d.h. der Wert Sn der Zeitreihe
zur Zeit n ist ein konstantes Vielfaches des Werts zuvor plus einer Storung Un .
Bei p > 1 ist Sn eine Linearkombination von Werten der Vergangenheit plus eine
Storung, f
ur p = 2 ergibt sich die Modellgleichung Sn = a1 Sn1 + a2 Sn2 + Un .
16.4

Gleitende Durchschnitte

Eine zufallige Groe moge zu jedem Zeitpunkt durch eine Anzahl von
Schocks aus der Vergangenheit plus einer aktuellen Storung bestimmt sein,

und zwar additiv, z.B. Sn = Un + 0.3Un2 . Ein solcher stochastischer Prozess hat
die folgende allgemeine Form:
Definition Falls es Zahlen b1 , . . . , bq IR gibt, so dass f
ur alle n q
Sn = Un +

q
X

bk Unk

k=1

gilt, wobei bq 6= 0 und (Un ) weies Rauschen ist, heit (Sn ) Prozess der gleitenden Durchschnitte (Moving-Average-Prozess) der Ordnung q, kurz: (Sn ) ist ein
MA(q)-Prozess.
Hier ist Sn eine Linearkombination, also bis auf einen Faktor ein gewogener
Durchschnitt, der vergangenen q Werte eines weien Rauschens plus einem
Storterm zur Zeit n. Der Durchschnitt gleitet mit wachsendem n u
ber die

Zeitachse. Es gilt der folgende Satz.


Satz Jeder MA(q)-Prozess ist stationar.


WICHTIGE STATIONARE
PROZESSE

131

Beweis
i) Sn ist mittelwertstationar, da wegen E(Un ) = 0 folgt
!
q
X
bk Unk = 0.
E(Sn ) = E Un +
k=1

ii) Sn ist kovarianzstationar, da wegen der Unkorreliertheit der Storterme


E(Un Un+k ) = 0 gilt f
ur k 6= 0. Sei b0 := 1 und 0 r q (die anderen
Falle sind dann trivial), so folgt namlich
(n, n + r) = cov(Sn , Sn+r ) = E(Sn Sn+r )
!!
!
q
q
X
X
bk0 Un+rk0
,
bk Unk
= E
k 0 =0

k=0
qr

= E

2
bk bk+r Unk

k=0
qr

= 2

wobei k 0 = r + k

bk bk+r

k=0

Insgesamt erhalt man:


(r) = (n, n + r) =

f
ur r > q,
qr
P

k=0

bk bk+r f
ur r q.

Zahlenbeispiel Der MA(2)-Prozess Sn = Un + 0.3 Un2 besitzt die Mittelwertfunktion (n) = 0, die Varianzfunktion 2 (n) = 1.09 2 und die Kovarianzfunktion

ur r = 0,
1.09 2 f
2
0.3
f
ur r = 2,
(r) =

0
sonst.

(Beweis als Ubung


!)
16.5

ARMA-Prozesse

Falls es Zahlen a1 , . . . , ap , b1 , . . . , bq IR gibt, so dass f


ur alle n
Sn =

p
X
k=1

ak Snk + Un +

q
X
k=1

bk Unk


KAPITEL 16. STATIONARE
PROZESSE

132

gilt, wobei ap 6= 0, bq 6= 0 sind und (Un ) ein White-Noise-Prozess ist, heit (Sn )
autoregressiver Moving-Average-Prozess, kurz: ARMA(p,q)-Prozess.
Beispiel Der durch die Modellgleichung
Sn = 1.6Sn1 0.9Sn2 + Un + Un1
beschriebene Prozess ist ein ARMA(2,1)-Prozess.
Die Definition schliet die reinen autoregressiven und reinen Moving-Average
Prozesse ein, wenn man p bzw. q gleich Null setzt. Uber
die Stationaritat von
ARMA-Prozessen und AR-Prozessen gibt folgender Satz Auskunft.
Satz Ein AR(p)-Prozess oder ARMA(p,q)-Prozess (Sn ) ist genau dann stationar,
wenn jede der p Losungen der Gleichung
z p a1 z p1 . . . ap1 z ap = 0
(in komplexen Zahlen z C
I ) im Innern des Einheitskreises der komplexen Ebene
C
I liegt, d.h. f
ur jede (komplexe) Losung z gilt |z| < 1.

Beispiel F
ur den AR(2)-Prozess Sn 41 Sn2 = Un , (d.h. mit a1 = 0, a2 = 41 )
erhalt man die Gleichung
z2

1
=0
4

1
z1,2 = ,
2

also ist der Poisson-Prozess stationar. Offenbar kommt es im Satz nur auf den
autoregressiven Teil des ARMA-Prozesses an. Die Bedingung, dass keine Losung
z auf dem Einheitskreis liegt, kann anhand von Beobachtungsdaten u
uft
berpr

werden; solche Tests heien in der Okonometrie und in der Zeitreihenanalyse


Unit-Root-Tests.

Lineare Filter
16.6

Lineare Filter

Abschlieend beschaftigen wir uns mit linearen Filtern. Lineare Filter beschrei
ben den Ubergang
von einem stochastischen Prozess ( Input) zu einem anderen

Prozess( Output). Viele Eigenschaften stochastischer Prozesse lassen sich aus

den Eigenschaften linearer Filter ableiten, so zum Beispiel der Satz zur Stationaritat von ARMA-Prozessen in Abschnitt 16.5.
Sei (Zn )nZZ ein Prozess ( Input) und ak IR f
ur alle k ZZ, dann nennt man

den Prozess
X
Xn :=
ak Znk
kZZ

133

LINEARE FILTER
den gefilterten Prozess ( Output) mit Filter (ak )kZZ .

Speziell

(1) Wahlt man als Input-Prozess einen White-Noise-Prozess Zn = Un , so erhalt


man als Output-Prozess einen linearen Prozess
X
Xn =
ak Unk .
kZZ

(2) Ist zusatzlich zu (1) der Filter kausal ( d.h. ak = 0 f


ur k < 0) und gilt
auerdem ak = 0 f
ur k > q und a0 = 1, so ist der Output-Prozess ein
MA(q)-Prozess:
q
X
ak Unk .
Xn = Un +
k=1

(3) Auch die aus der elementaren Zeitreihenanalyse bekannten gleitenden

Durchschnitte lassen sich als gefilterte Prozesse darstellen (Ubung


!).
Satz Sei (Zn )nZZ ein stationarer Prozess und (ak )kZZ ein Filter. Dann ist der
gefilterte Prozess (Xn ) stationar mit
XX
X
ak und X (k) =
al am Z (k + l m) ,
X (n) = Z (n)
kZZ

lZZ mZZ

falls diese Summe konvergiert.


Beweis vgl. Schlittgen und Streitberg (1999).

134

KAPITEL 16. STATIONARE


PROZESSE

Anhang A
Erg
anzende Beispiele
A.1

Beispiel

k Personen werden zufallig auf n St


uhle gesetzt.
a) Wie gro ist die Wahrscheinlichkeit, dass zwei bestimmte Personen nebeneinander sitzen, wenn n = k St
uhle in einer Reihe stehen?
b) Wie gro ist die Wahrscheinlichkeit, dass k benachbarte St
uhle besetzt werden, wenn k < n ist und die St
uhle wieder in einer Reihe stehen?
c) Wie gro ist die Wahrscheinlichkeit, dass k benachbarte St
uhle besetzt werden, wenn k < n ist und die St
uhle im Kreis stehen?
L
osung zu Beispiel A.1
a) Es gibt n(n 1) Moglichkeiten die betreffenden Personen zu setzen. Es gibt
(n 1) Moglichkeiten, benachbarte St
uhle auszuwahlen und 2 Moglichkeiten, die beiden Personen darauf zu verteilen.

P =

2(n 1)
2
= .
n(n 1)
n


b) Es gibt nk Moglichkeiten, die besetzten St
uhle auszuwahlen. Es gibt n
k + 1 Moglichkeiten, benachbarte St
uhle auszuwahlen.

P =

nk+1
k!(n k + 1)!

=
.
n
n!
k

c) Jetzt gibt es n Moglichkeiten, die benachbarten St


uhle auszuwahlen.

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

P =

k!(n k)!
n

.
n =
(n 1)!
k
Oktober 2013


ANHANG A. ERGANZENDE
BEISPIELE

136
A.2

Beispiel

Eine Schulklasse besteht aus 15 Sch


ulern. Wie gro ist die Wahrscheinlichkeit,
dass mindestens zwei Sch
uler am gleichen Tag Geburtstag haben ?
Nehmen Sie naherungsweise an, dass jeder Tag des Jahres mit gleicher Wahrscheinlichkeit als Geburtstag auftritt, und vernachlassigen Sie das Auftreten von
Schaltjahren.
L
osung zu Beispiel A.2 Wir wahlen als Wahrscheinlichkeitsraum (, A, P )
mit
n
o
=
(1 , . . . , 15 ) | i {1, . . . , 365}, i = 1, . . . , 15 ,
A = P() ,

P (A) =

|A|
.
||

Dabei beschreibt = (1 , . . . , 15 ) das Ergebnis Sch


uler 1 hat am 1 -ten

Tag Geburtstag,. . . , Sch


uler 15 hat am 15 -ten Tag Geburtstag. Es ist || =
36515 .
Sei A das Ereignis Zwei Sch
uler haben am gleichen Tag Geburtstag. Wir be
rechnen zunachst die Wahrscheinlichkeit f
ur das Gegenereignis A: Alle Sch
uler

haben an verschiedenen Tagen Geburtstag.


A ist also die Menge aller Folgen (1 , . . . , 15 ), bei denen alle i verschieden sind.
365!
Nach Abschnitt 3.4 (Ziehen ohne Zur
ucklegen) gibt es (36515)!
solche Folgen. Also
ist
365!
365 364
351
P (A) = 350!15 =

= 0.7471 .
365
365 365
365
F
ur die gesuchte Wahrscheinlichkeit erhalt man daher
P (A) = 1 P (A) = 0.2529 .
A.3

Beispiel

Zur Bearbeitung eines bestimmten Bauteils werden vier Maschinen M1 , . . . , M4


benotigt. Das Bauteil kann also nur dann bearbeitet werden, wenn alle vier Maschinen intakt sind. Sei pi die Wahrscheinlichkeit, dass die Maschine Mi intakt
ist, i = 1, . . . , 4. Dabei seien p1 = 0.96, p2 = 0.94, p3 = 0.955 und p4 = 0.9.
a) Berechnen Sie mit der Ungleichung von Bonferroni eine obere und eine untere Schranke f
ur die Wahrscheinlichkeit, dass ein Bauteil bearbeitet werden
kann.
b) Weiterhin sei bekannt, dass f
ur je zwei Maschinen die Wahrscheinlichkeit, dass sie gleichzeitig defekt sind, gleich 0.005 ist. Geben Sie mit der
Inklusions-Exklusions-Methode eine obere Schranke f
ur die Wahrscheinlichkeit, dass ein Bauteil bearbeitet werden kann, an.


ANHANG A. ERGANZENDE
BEISPIELE

137

L
osung zu Beispiel A.3
a) Ai : Maschine Mi intakt

Gesucht ist P (A1 A2 A3 A4 )


Bonferroni:
1
1

4
X

i=1
4
X
i=1

P (Ai) P (A1 . . . A4 ) min P (Ai )


i

(1 pi ) P (A1 . . . A4 ) min pi
i

0.755 P (A1 . . . A4 ) 0.9

b)
P (A1 . . . A4 ) = 1 P (A1 . . . A4 )
= 1 P (A1 . . . A4 )
Um eine obere Schranke f
ur P (A1 . . . A4 ) zu erhalten, suchen wir eine
untere Schranke f
ur P (A1 . . . A4 . Mit der Inklusions-Exklusions-Methode
erhalt man:
P (A1 . . . A4 )

4
X

i=1
n
X

P (Ai)

X
i<j

P (Ai Aj )

 
4
0.0005
=
(1 pi )
2
i=1

= 0.245 6 0.005 = 0.215


Also: P (A1 . . . A4 ) 1 0.215 = 0.785
Dies ist eine deutlich bessere Schranke als 0.9 (s.o).
A.4

Beispiel

Eine Urne enthalt 4 Kugeln. Jede Kugel ist entweder schwarz oder wei. Der
Anteil der weien Kugeln ist unbekannt. Jede der 5 Moglichkeiten f
ur die
Anzahl der weien Kugeln soll zunachst gleichwahrscheinlich sein (a-prioriWahrscheinlichkeit).
a) Man zieht dreimal je eine Kugel mit Zur
ucklegen und erhalt die Farbfolge
weischwarzschwarz. Berechnen Sie die dadurch bedingten a-posterioriWahrscheinlichkeiten f
ur die f
unf Moglichkeiten.


ANHANG A. ERGANZENDE
BEISPIELE

138

b) Welche Wahrscheinlichkeiten erhalten Sie, wenn nach jedem Zug die


a-priori-Wahrscheinlichkeiten durch die jeweils bedingten a-posterioriWahrscheinlichkeiten ersetzt werden und erst danach wieder neu eine Kugel
gezogen wird?
Lo
sung zu Beispiel A.4 Sei Ai das Ereignis In der Urne befinden sich i weie

Kugeln, i = 0, . . . , 4. F
ur die a-priori-Wahrscheinlichkeiten gilt nach Voraussetzung P (Ai ) = 0.2, i = 0, . . . , 4.
a) WSS sei das Ereignis, dass man die beobachtete Farbfolge erhalt. Dann ist
2

4i
i
.
P (W SS|Ai) =
4
4
Die gesuchten a-priori-Wahrscheinlichkeiten erhalt man dann mit der Formel von Bayes zu
P (W SS|Ai)P (Ai )
P (Ai |W SS) = Pn
k=0 P (W SS|Ak )P (Ak )

Die Zahlenwerte entnehme man der folgenden Tabelle:


i

0
0.2

1
0.2

2
0.2

3
0.2

4
0.2

P (W SS|Ai)

0
0

8
64
8
320

3
64
3
320

P (W SS|Ai) P (Ai )

9
64
9
320

P (Ai )

P (Ai |W SS)

0.45 0.4 0.15

20
320

b) W sei das Ereignis, dass eine weie Kugel gezogen wird; das Ereignis S sei
entsprechend definiert. Es ist
P (W |Ai) =

i
4

und P (S|Ai) =

4i
.
4

Die a-posteriori-Wahrscheinlichkeiten erhalt man aus den a-priori-Wahrscheinlichkeiten wieder mit der Formel von Bayes:

bzw.

i
P (Ai)
P (W |Ai)P (Ai )
4
= Pn k
P (Ai |W ) = Pn
k=0 P (W |Ak )P (Ak )
k=0 4 P (Ak )
iP (Ai )
= Pn
k=0 kP (Ak )

(4 i)P (Ai )
P (Ai|S) = Pn
k=0 (4 k)P (Ak )


ANHANG A. ERGANZENDE
BEISPIELE

139

Die folgende Tabelle zeigt, welche a-posteriori-Wahrscheinlichkeiten man


erhalt, wenn nach jedem Zug die a-posteriori-Wahrscheinlichkeiten bestimmt werden und diese als a-priori-Wahrscheinlichkeiten f
ur die nachste
Stufe benutzt werden.
0
1
P (Ai )
0.2 0.2
1. Zug: wei
i P (Ai )
0 0.2
P (Ai |W )
0 0.1
(
P (Ai )
0 0.1
2. Zug: schwarz
(4 i)P (Ai ) 0 0.3
P (Ai |S)
0 0.3
(
P (Ai )
0 0.3
3. Zug: schwarz
(4 i)P (Ai ) 0 0.9
P (Ai |S)
0 0.45
(

2
3
0.2 0.2
0.4 0.6
0.2 0.3
0.2 0.3
0.4 0.3
0.4 0.3
0.4 0.3
0.8 0.3
0.4 0.15

4
0.2
0.8
0.4
0.4
0
0
0
0
0

1
2
1
1
1
1
1
2
1

Man erhalt also schlielich dieselben a-posteriori-Wahrscheinlichkeiten wie


in a).
A.5

Beispiel

Ein W
urfel werde dreimal geworfen. Seien A, B und C die Ereignisse
A: gleiche Augenzahlen bei den ersten beiden W
urfen,

B: gleiche Augenzahlen bei erstem und letztem Wurf,

C: gleiche Augenzahlen bei den letzten beiden W


urfen.

a) Sind die Ereignisse A, B, C paarweise stochastisch unabhangig?


b) Sind die Ereignisse A, B, C global stochastisch unabhangig?
Lo
sung zu Beispiel A.5 Es ist P (A) = P (B) = P (C) = 61 . Die Ereignisse
A B, A C, B C und A B C sind alle gleich, sie treten genau dann ein,
wenn man bei allen drei W
urfen die gleiche Augenzahl erhalt. Daher ist
1
1 1
P (A B) = P (A C) = P (B C) = P (A B C) = =
6 6
36
a) Die Ereignisse A, B, C sind paarweise stochastisch unabhangig, da
P (A B) =

P (A C) =

P (B C) =

1
36
1
36
1
36

= P (A)P (B)
= P (A)P (C)
= P (B)P (C).

b) Die Ereignisse A, B, C sind nicht global stochastisch unabhangig, da


1
1 1 1
P (A B C) =
6= = P (A)P (B)P (C).
36
6 6 6


ANHANG A. ERGANZENDE
BEISPIELE

140
A.6

Beispiel

Bestimmen Sie zu den folgenden Quantilfunktionen jeweils die zugehorigen Verteilungsfunktionen:


a) F 1 :]0, 1] IR, F 1 (p) = ap + b f
ur a IR+ , b IR,
b) G1 :]0, 1] IR, G1 (p) = (p + 1)2 ,
c) H 1 :]0, 1] IR, H 1 (p) = ep .
Lo
sung zu Beispiel A.6
a) Fall 1: a > 0 :

x = ap + b p =

F (x) =

Fall 2: a = 0

xb
a

0, falls x < b,
falls b x a + b,
1, falls x > a + b.

xb
,
a

F (x) =

0, falls x < b,
1, falls x b.

b) Mit 0 < p < 1 gilt: x = (p + 1)2 |p + 1| = x p = x 1.

0, falls x < 1,

x 1, falls 1 x < 4,
G(x) =

1, falls x 4.
c) x = ep mit 0 < p < 1 p = ln x mit

0,
H(x) =
ln x,

1,

A.7

0<p<1

falls x < 1,
falls 1 x < e,
falls x x.

Beispiel

Die Lebensdauer T eines elektronischen Bauteils sei exponentialverteilt mit Parameter . Berechnen Sie die (bedingte) Wahrscheinlichkeit daf
ur, dass dieses
Bauteil nach dem Zeitpunkt t0 weitere t Zeiteinheiten intakt bleibt, wenn es zum
Zeitpunkt t0 noch funktionsfahig ist.
Interpretieren Sie das Ergebnis.


ANHANG A. ERGANZENDE
BEISPIELE

141

Lo
sung zu Beispiel A.7 T Exp(). Gesucht ist P (T > t0 + t|T > t0 ). Es ist
FT (x) = 1 ex und somit P (T > t) = 1 FT (t) = et . Man erhalt also:
P (T > t0 + t|T > t0 ) =

P (T > t0 + t, T > t0 )
P (T > t0 )

P (T > t0 + t)
P (T > t0 )

e(t0 +t)
et0

et0 et
et0

= et

Dies bedeutet, dass die Restlebensdauer nach der Zeit t0 (sofern das Bauteil zu
t0 noch intakt ist) auch wieder Exp()-verteilt ist.
M.a.W.: Stellt man fest, dass ein Bauteil, dessen Lebensdauer Exp()-verteilt ist,
zu einem bestimmten Zeitpunkt noch intakt ist, so verhalt es sich im weiteren
so, als ob es gerade erst in Betrieb genommen ware, d.h. das Bauteil zeigt keine
Alterungserscheinungen.
Diese Eigenschaft ist charakteristisch f
ur die Exponentialverteilung und wird als
Gedachtnislosigkeit der Exponentialverteilung bezeichnet.

A.8

Beispiel

a) Sei F die Verteilungsfunktion einer stetigen Zufallsvariable mit Trager T ,


sei T ein Intervall und sei die Dichte f strikt positiv auf T . Betrachten
Sie eine Zufallsvariable U, die R(0, 1)-verteilt ist, und bestimmen Sie die
Verteilungsfunktion der Zufallsvariablen X = F 1 (U).
b) In vielen Programmiersprachen existiert eine Funktion rnd, die bei aufeinanderfolgenden Aufrufen eine Folge von Zahlen liefert, die als Realisationen
von unabhangigen, identisch R(0, 1)-verteilten Zufallsvariablen betrachtet
werden konnen. Diese Funktion wird als Pseudozufallszahlengenerator bezeichnet.
F
ur eine Simulationsstudie benotigen Sie Zufallszahlen, die als Realisationen von Exp()-verteilten Zufallsvariablen betrachtet werden konnen. Benutzen Sie Aufgabenteil a) zur Losung dieses Problems.


ANHANG A. ERGANZENDE
BEISPIELE

142
L
osung zu Beispiel A.8
a) Zunachst ist

FX (x) = P (X x) = P (F 1 (U) x) = P (F (F 1(U)) F (x))


Die letzte Gleichheit gilt, da F , eingeschrankt auf T , streng monoton wachsend ist. (f > 0 auf T !) Aus diesem Grund ist die Einschrankung von F
auf T auch invertierbar, und die Inverse stimmt auf ]0, 1[ mit der Quantilsfunktion F 1 u
berein. Also ist
P (F (F 1(U)) F (x)) = P (U F (x))
und man erhalt
FX (x) = P (U F (x)) = F (x) .

Die transformierte Zufallsvariable F 1 (U) hat also gerade F als Verteilungsfunktion.


b) Die Quantilsfunktion einer Exp()-verteilten Zufallsvariable erhalt man aus
y = 1 ex

ex = 1 y
x = ln(1 y)
1
x = ln(1 y)

Transformiert man die durch die Funktion rnd erhaltenen Pseudozufallszahlen mit der Funktion F 1 (U) = 1 ln(1 U), so erhalt man Exp()verteilte Pseudozufallszahlen.

Anmerkung zu Beispiel A.8: Die Zufallsvariable F 1 (U) hat auch ohne die
in a) gemachten Voraussetzungen die Verteilungsfunktion F .
Zunachst ist
FX (x) = P (F 1 (U) x) = P (min{y : F (y) U} x) .

Da F monoton wachsend ist, ist {y : F (y) U} ein nach oben unbeschranktes


Intervall. Da F von rechts stetig ist, ist {y : F (y) U} abgeschlossen. Ferner ist
f
ur U ]0, 1[ (was mit Wahrscheinlichkeit 1 der Fall ist) die Menge {y : F (y)
U} =
6 , IR. Mit Wahrscheinlichkeit 1 ist {y : F (y) U} also von der Form [a, [
mit a IR. Also erhalt man sofort
P (min{y : F (y) U} x) = P (min{y : F (y) U} x) .

Wegen der Form [a, [ gilt nun aber:

Daher ist

x min{y : F (y) U} x {F (y) U}


F (x) U.

FX (x) = P (min{y : F (y) U} x) = P (U F (x)) = F (x).


ANHANG A. ERGANZENDE
BEISPIELE
A.9

143

Beispiel

Eine Zufallsvariable X heit logarithmisch normalverteilt (oder auch lognormalverteilt) mit Parametern und 2 , wenn die Zufallsvariable Y = ln X
normalverteilt ist mit Parametern und 2 . Man schreibt dann auch k
urzer
2
X LN(, ). Die Lognormalverteilung wird haufig zur Beschreibung von Lebensdauern benutzt.
a) Berechnen Sie Verteilungsfunktion und Dichte einer LN(, 2 )-verteilten
Zufallsvariablen X.
b) Berechnen Sie den Median einer LN(, 2 )-verteilten Zufallsvariablen X.
c) Die Lebensdauer eines technischen Gerates sei LN(5, 4)-verteilt. Berechnen Sie die Wahrscheinlichkeit, dass das Gerat innerhalb der ersten 100
Zeiteinheiten ausfallt.
L
osung zu Beispiel A.9
a) Wegen Y = ln X N(, 2 ) erhalt man
x>0

FX (x) = P (X x) = P (ln X ln x)


ln x
ln X

= P



ln x
=
.

Also ist die Verteilungsfunktion


(
FLN (, 2 ) (x) =

ln x

, falls x > 0,
sonst.

F
ur x > 0 ist


ln x
d

fLN (, 2 ) (x) =
dx



ln x
1
=

x
2
1 ln x
1
1
= e 2 ( )
x
2
Die Dichte einer LN(, 2 )-verteilten Zufallsvariablen ist also

2
1 e 21 ( ln x
) , falls x > 0,

fLN (, 2 ) (x) =
2x

0
sonst.


ANHANG A. ERGANZENDE
BEISPIELE

144
b)
1
P (X m) =

2

ln m

1
ln m = 0 m = e
2

Also ist m = e der Median der Zufallsvariablen X.


c)



ln 100 5
F (100) =
2
= (0.1974) = 1 (0.1974) = 1 0.5782 = 0.4218
A.10

Beispiel

F
ur a, > 0 sei X stetig verteilt mit Dichte
(
x a
a a1 (
) , falls x > 0,
a
x
e
f (x) =
0,
sonst.
Dann heit X Weibull-verteilt mit Parametern und a; kurz X W (, a).
a) Berechnen Sie die Ausfallrate einer Weibull-Verteilung. F
ur welche Werte
von a und ist die Ausfallrate monoton wachsend, f
ur welche monoton
fallend?
b) Bestimmen Sie alle Modi einer W (, a)-Verteilung.
c) Untersuchen Sie, ob es sich bei den beiden Verteilungsfamilien
{ W (, 5) | > 0} bzw. { W (2, a) | a > 0} jeweils um eine Lagefamilie oder
eine Skalenfamilie handelt.
L
osung zu Beispiel A.10 F
ur x 0 ist
Z x
i
h
t a
x a
t a x
F (x) =
aa ta1 e( ) dt = e( )
= 1 e( )
0

a)

x a
f (x)
a  x a1
aa xa1 e( )
a a1
h(x) =
=
=
a
x
=
.
x a
1 F (x)

e( )
Wegen a, > 0 ist h(x) genau dann monoton wachsend, wenn dies x 7 xa1
ist. Also ist h monoton wachsend, wenn a 1 ist und monoton fallend, wenn
a 1 ist.

Anmerkung: F
ur a = 1 erhalt man eine Exponentialverteilung mit konstanter Ausfallrate.


ANHANG A. ERGANZENDE
BEISPIELE

145

b) Die Ableitung der Dichte ist


x a

x a

f 0 (x) = aa [(a 1)xa2 e( ) xa1 e( ) aa xa1 ] .


Daher ist
f 0 (x) = 0

(a 1)xa2 = aa x2n2
a1 a
= xa .
a

F
ur a > 1 ist also
0

f (x) = 0 x =

r
a

a1

und wegen f 0 und limx0 f (x) = limx f (x) = 0 liegt dort auch ein
Maximum. F
ur a 1 ist f streng monoton fallend. Somit gilt
( q
a a1
, falls a > 1,
a
mod(W (, a)) =
0
sonst.
A.11

Beispiel

F
ur , c > 0 heit die Zufallsvariable X Pareto-verteilt mit Parametern > 0
und c > 0 (X P ar(, c)), wenn sie stetig verteilt ist mit der Dichte
(
c x(+1) , falls x c,
f (x) =
0,
sonst.
a) Berechnen Sie allgemein das r-te Moment 0r einer P ar(, c)-verteilten Zufallsvariablen.
b) Berechnen Sie die Schiefe einer P ar(4, c)-verteilten Zufallsvariablen.
L
osung zu Beispiel A.11
a)
0r

=
=
=

Zc

xr f (x)dx
xr c x(+1) dx
c x(r+1) dx

Das uneigentliche Integral existiert genau dann, wenn r + 1 > 1 ist,


bzw. wenn > r ist.


ANHANG A. ERGANZENDE
BEISPIELE

146

c
=
( r)cr

Dichte einer P ar( r, c)-Verteilung

r
=
c .
r

Also:

0r =

r
c ,
r

( r)cr x(r+1) dx
|
{z
}

falls r < .

ussen zunachst einmal 2


b) Die Schiefe 1 ist gegeben durch 1 = 33 . Also m
und das dritte zentrale Moment 3 berechnet werden:
0

2 = 02 12
4 2
c
=
42
= 2c2
=

16 2
c
9

4
41

2

c2

2 2
c
9

3 = 03 302 01 + 21 0 3
4 2
4
4 3
c 3
c
c+2
=
43
42
41


4
64
3
= c 432 +2
3
27

4
41

3

c3

20 3
c
27
Also ist die Schiefe
=

1 =

A.12

Beispiel

20 3
c
3
27
=
q 3 =
3

2 2
c
9

20 3
c
27

2 2 3
c
27

20
= = 5 2 7.0711 .
2 2

Sei X stetig verteilt mit Dichte f , f (x) = 0 f


ur alle x < 0, und sei h die Ausfallrate.
a) Zeigen Sie, dass die Verteilungsfunktion der Zufallsvariablen X f
ur x 0
gegeben ist durch
 Z x

F (x) = 1 exp
h(t)dt .
0


ANHANG A. ERGANZENDE
BEISPIELE

147

b) F
ur a, c > 0 sei die Ausfallrate h gegeben durch
 a
, falls t c,
t
h(t) =
0 sonst.

Bestimmen Sie die zugehorige Verteilungsfunktion.

L
osung zu Beispiel A.12
a) Es ist
f (t)
.
1 F (t)
Integration der Ausfallrate ergibt somit
Z x
Z x
f (t)
h(t) dt =
dt
0
0 1 F (t)
h(t) =

x


= ln (1 F (t))

0

= ln (1 F (x)) .

Exponentiation der Gleichung f


uhrt zu
 Z
1 F (x) = exp
bzw.

wie behauptet.

 Z
F (x) = 1 exp

x
0


h(t) dt


h(t) dt ,


h(t) dt

b) Mit Teil a) erhalt man


F (x)

=
x>c

=
=
=
=

 Z
1 exp


a
dt
c t
x 


1 exp a ln(t)
 Z
1 exp

1 exp (a ln(x) + a ln(c))


  a 
c
1 exp ln
xa
 c a
, falls x c.
1
x

Berechnet man die Dichte der soeben bestimmten Verteilung, erkennt man, dass
es sich hierbei um eine P ar(a, c)-Verteilung handelt.


ANHANG A. ERGANZENDE
BEISPIELE

148
A.13

Beispiel

Sei X P o() und Y P o(), und seien X und Y stochastisch unabhangig.


Zeigen Sie, dass die Summe X + Y der Zufallsvariablen wieder Poisson-verteilt
ist mit Parameter + .
L
osung zu Beispiel A.13
P (X + Y = z) =
=

z
X

k=0
z
X
k=0

P (X = k, Y = z k)
P (X = k) P (Y = z k) (Stoch. Unabhangigk.)

z
X
k
k=0

k!

zk
e
(z k)!

z
X
1
z!
= e
k zk
z!
k!(z

k)!
k=0
z  
1 (+) X z k zk

e
=
z!
k
(+)

k=0

1 (+)
e
( + )z
=
z!
( + )z (+)
=
e
z!

(bin. Formel)

Also ist auch X + Y Poisson-verteilt und zwar mit Parameter + .


A.14

Beispiel

Die Verteilung der Summe k stochastisch unabhangiger, Exp()-verteilter Zufallsvariablen bezeichnet man als Erlangverteilung mit Parameter und Stufenparameter k oder kurz als Erl(k, )-Verteilung. Zeigen Sie durch vollstandige
Induktion nach k, dass die Dichte einer Erl(k, )-verteilten Zufallsvariable durch

k1
(x) ex , falls x > 0,
(k 1)!
fk,(x) =

0
sonst,
gegeben ist.

L
osung zu Beispiel A.14 F
ur k = 1 ist
f1, (x) =

(x)0 x
x
e
= e
| {z }
0!

Dichte der Exp()-Vert.


ANHANG A. ERGANZENDE
BEISPIELE

149

Die Summe einer Exp()-verteilten Zufallsvariable ist also Erl(1, )-verteilt.

Nun zum Induktionsschritt: Nach Induktionsvoraussetzung ist die Summe k stochastisch unabhangiger, Exp()-verteilter Zufallsvariablen Erl(k, )-verteilt. Zu
zeigen ist also, dass die Faltung einer Erl(k, )-Verteilung mit einer Exp()Verteilung eine Erl(k + 1, )-Verteilung ergibt.
Z

fk,(x)f1, (z x) dx =
=
=
=
=
=

(x)k1 x
e
e(xz) dx
(k

1)!
0
Z z
k+1
xk1 e(x+zx) dx
(k 1)! 0
Z z
k+1
xk1 ez dx
(k 1)! 0
 z
k+1 z xk
e
(k 1)!
k 0
k+1 z z k
e
(k 1)!
k
k
(z) z
e

| k!{z
}

Dichte der Erl(k + 1, )-Verteilung

A.15

Beispiel

a) Beweisen Sie: F
ur beliebige Zufallsvariablen X, Y , Z gilt:
cov(X +Y, Z) = cov(X, Z) + cov(Y, Z)
b) Ein W
urfel werde (n + m)-mal geworfen (n, m IN). Die Zufallsvariable
X beschreibe die Anzahl des Auftretens von Sechsen bei den ersten n

W
urfen, die Zufallsvariable Z beschreibe die Anzahl des Auftretens von
Sechsen bei allen n + m W
urfen. Berechnen Sie den Korrelationskoeffizi
enten (X, Z).

Lo
sung zu Beispiel A.15
a) Es ist
cov(X, Y ) = E[(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ) .


ANHANG A. ERGANZENDE
BEISPIELE

150
Also ist
cov(X + Y, Z) =
=
=
=

E[(X + Y )Z] E(X + Y )E(Z)


E[XZ + Y Z] [E(X) + E(Y )]E(Z)
E(XZ) + E(Y Z) E(X)E(Z) E(Y )E(Z)
{E(XZ) E(X)E(Z)} + {E(Y Z) E(Y )E(Z)}
{z
} |
{z
}
|
cov(X,Z)

cov(Y,Z)

= cov(X, Z) + cov(Y, Z)

b) Es ist X die Anzahl des Auftretens von Sechsen bei den ersten n W
urfen.

Sei nun Y die Anzahl des Auftretens von Sechsen bei den restlichen m

W
urfen. Dann ist Z = X + Y , und X und Y sind stochastisch unabhangig,
insbesondere also auch unkorreliert. Mit Teil a) erhalt man
cov(X, Z) = cov(X, X + Y ) = cov(X, X) + cov(X, Y ) = var(X)
| {z } | {z }
0

var(X)

Da X B(n, 61 ), ist

cov(X, Z) = var(X) = np(1 p) = n

5
.
36

Es bleibt, die Varianz von Z zu berechnen. Da Z B(n + m, 16 ), ist


var(Z) = (n + m)

5
.
36

Somit erhalt man


cov(X, Z)
(X, Z) = p
=q
var(X)var(Z)
n
A.16

5
36

5
36

(n + m)

5
36

n
.
n+m

Beispiel

Die Korpergroen (X, Y ) von Ehegatten, wobei X die Korpergroe des Mannes
ist, seien bivariat normalverteilt mit
X = 175, X = 15, Y = 170, Y = 15, = 0.7.
Berechnen Sie die Wahrscheinlichkeit, dass bei einem zufallig ausgewahlten Ehepaar die Frau groer als der Mann ist.


ANHANG A. ERGANZENDE
BEISPIELE

151

Lo
sung zu Beispiel A.16 Gesucht ist P (Y > X) = P (X Y < 0). Nach dem
Satz in 11.2 gilt
2
X Y = 1X +(1)Y N(1X 1Y , 12 X
+(1)2 Y2 +21(1)X Y ) .

Mit den angegebenen Werten X = 175, X = 15, Y = 170, Y = 15 und


= 0.7 erhalt man
X Y N(5, 135) .

Daher ist

P (X Y < 0) =
=
=
=
A.17


05

135
1 (0.430)
1 0.6664
0.3336 .

Beispiel

Die Zufallsvariablen X und Y seien gemeinsam stetig verteilt mit Dichte



8xy, falls 0 < y < x < 1,
f (x, y) =
0
sonst.
a) Berechnen Sie die Regressionsfunktion 2. Art von Y auf X .
b) Zeigen Sie, dass f
ur beliebige gemeinsam verteilte Zufallsvariablen X, Y gilt




var(X) = var gII (Y ) + E (X gII (Y ))2 .

L
osung zu Beispiel A.17
a) Es ist

cov(X, Y )
(x E(X)) + E(Y ) .
var(X)
Zur Bestimmung der benotigten Momente, berechnen wir zunachst allgemein
Z 1Z x
r s
E (X Y ) =
xr y s 8xy dy dx
0
0
Z 1Z x
= 8
xr+1 y s+1 dy dx
0
0
Z 1
1 s+2
x dx
= 8
xr+1
s+2
0
Z 1
8
=
xr+s+3 dx
s+2 0
8
=
(r + s + 4)(s + 2)
gII (x) =


ANHANG A. ERGANZENDE
BEISPIELE

152

F
ur spezielle Werte von r und s erhalt man:
r = 1, s = 0

E(X) =

r = 2, s = 0

E(X 2 ) =

r = 0, s = 1

E(Y ) =

r = 1, s = 1

E(XY ) =

4
,
5
2
,
3
8
,
15
4
.
9

Damit ergibt sich dann


4
4 4 8
=
cov(X, Y ) =
9 5 15
225

2
und var(X) =
3

Die Regressionsfunktion 2. Art ist also




4 75
4
8
2
gII (x) =
x
+
= x.
225 2
5
15
3

 2
4
2
=
.
5
75

b) Zunachst ist
gII (Y ) =

cov(X, Y )
(Y E(Y )) + E(X)
var(Y )

Somit ist

var (gII (Y )) + E (X gII (Y ))2


cov(X, Y )
= var
(Y E(Y )) + E(X)
var(Y )
(
2 )

cov(X, Y )
(Y E(Y )) + E(X)
+E
X
var(Y )
cov 2 (X, Y )
var(Y )
var 2 (Y )
(
2 )
cov(X, Y )
+E
(X E(X))
(Y E(Y ))
var(Y )
n
cov 2 (X, Y )
+ E (X E(X))2
=
var(Y )
cov(X, Y )
(X E(X)) (Y E(Y ))
2
var(Y )

cov 2 (X, Y )
2
+
(Y E(Y ))
var 2 (Y )
cov(X, Y )
cov 2 (X, Y )
+ var(X) 2
cov(X, Y )
=
var(Y )
var(Y )
cov 2 (X, Y )
var(Y )
+
var 2 (Y )
= var(X) ,
=


ANHANG A. ERGANZENDE
BEISPIELE

153

wie behauptet.
A.18

Beispiel

Es sei N1 , N2 , N3 , . . . eine Folge von Zufallsvariablen, wobei Ni P o(i), i =


1, 2, . . . . Zeigen Sie, dass
1
p lim Nn =
n n
ist.
Pi
L
osung zu Beispiel A.18 Ni kann dargestellt werden als
k=1 Xk , wobei
X1 , X2 , . . . eine Folge von unabhangigen identisch P o()-verteilten Zufallsvariablen ist. Somit ist
n
1X
1
Xk = X .
Nn =
n
n k=1
Nach Satz 12.4 ist

p lim X = 01 =
n

und somit

A.19

1
p lim Nn = .
n n

Beispiel

An einer Bearbeitungsstation treffen Werkst


ucke gema einem Poisson-Prozess
mit Intensitat ein. Ein eintreffendes Werkst
uck ist mit Wahrscheinlichkeit p
fehlerhaft und kann nicht weiter bearbeitet werden. Die einzelnen Werkts
ucke
sind dabei stochstisch unabhangig.
Zeigen Sie, dass die fehlerhaften Werkst
ucke ebenfalls einen Poisson-Prozess mit
Intensitat p bilden.
Lo
ucke. Zu
sung zu Beispiel A.19 Sei (Ft )t0 der Prozess der fehlerhaften St
zeigen ist, dass (Ft )t0 unabhangige und identisch P o(p t)-verteilte Zuwachse
besitzt. Da die einzelnen Werkst
ucke stochastisch unabhangig sind, hangt die
Verteilung von Ft+s Fs nur von der Anzahl Nt+s Ns der in ]s, s + t] ankommenden Werkst
ucke ab, nicht aber von der Entwicklung des Prozesses vor der
Zeit t.
Es bleibt zu zeigen, dass Ft+s Fs P o(p t) ist. Kommen in einem Intervall
]s, s + t] insgesamt n Werkst
ucke an, so ist die Anzahl Ft+s Fs der in diesem
Intervall ankommenden defekten Werkst
ucke binomialverteilt mit Parametern n
und p, d.h.
 
n k
p (1 p)nk .
P (Ft+s Fs = k | Nt+s Ns = n) =
k


ANHANG A. ERGANZENDE
BEISPIELE

154

Mit dem Satz von der totalen Wahrscheinlichkeit erhalt man


P (Ft+s Fs = k) =

P (Ft+s Fs = k | Nt+s Ns = n)P (Nt+s Ns = n)

1
n!
[p(t)]k [(1 p)(t)]nk et
k!(n k)!
n!

n=k

 
X
(t)n t
n k
e
p (1 p)nk
=
n!
k
n=k

n=k

[p(t)]k X [(1 p)(t)]nk p(t)(1p)t


=
e
k!
(n k)!
n=k

[p(t)] p(t) X [(1 p)(t)]m (1p)t


e
e
k!
m!
|
{z
}
m=0
k

[p(t)]k (p)t
e
=
k!

{z

=1

Also ist Ft+s Fs P o(p t) f


ur alle s 0, t > 0.

= P (Z = m), wobei Z P o((1 p)t)

Anhang B
Literaturverzeichnis
(a) Ausgewahlte Lehrb
ucher:
Bosch, K.: Elementare Einfuhrung in die Wahrscheinlichkeitsrechnung, 9.
Auflage, Reinbek 2006
Bosch, K.: Elementare Einfuhrung in die angewandte Statistik, 8. Auflage, Braunschweig/Wiesbaden 2005.
De Groot, M.H. Probability and Statistics, 4. Auflage, Reading, Mass.,
2006.
Gallager, R.G.: Discrete Stochastic Processes, 3. Auflage, Boston 1996.
Hartung, J.: Statistik. Lehr- und Handbuch der angewandten Statistik,
14. Auflage, M
unchen 2005.
Heller, W.-D. et al.: Stochastische Sytsteme, Berlin 1978.
Henze, N.: Stochastik fur Einsteiger, 7. Auflage, Braunschweig 2008.
Hu
bner, G.: Stochastik, 4. Auflage, Braunschweig / Wiesbaden 2003.
Larsen, R.J., Marx, L.M.: An Introduction to Mathematical Statistics
and its Applications, 4. Auflage, Englewood Cliffs (NJ) 2006.
Lehn, J., Wegmann, H.: Einfuhrung in die Statistik, 5. Auflage, Stuttgart 2006.
Mood, A.M., Graybill, F.A., Boes, D.C.: Introduction to the Theory
of Statistics, 3. Auflage, Auckland 1996.
Schlittgen, R.: Statistische Inferenz, M
unchen 1996.
Wasserman, L.; All of Statistics, New York 2004.
Webel, K., Wied, D.: Stochastische Prozesse, Wiesbaden 2012.
Mosler: Stochastische Modelle
c Karl Mosler K

oln 2013

Oktober 2013

156

ANHANG B. LITERATURVERZEICHNIS

(b) Weiterf
uhrende Lehrb
ucher:
Bu
ning, H., Trenkler, G.: Nichtparametrische statistische Methoden, 2.
Auflage, Berlin 1994.
Cox, D.R., Hinkley, D.V.: Theoretical Statistics, 2. Auflage, London
1997.
Cox, J.C., Ross, S.A., Rubinstein, M.: Option pricing: A simplified
approach, J. Financial Economics 7(1979), 229-263.
Chow, Y.S., Teicher, H.: Probability Theory, 4. Auflage, New York,
2007.
Chung, K.L.: Markov Chains with Stationary Transition Probabilities, 2.
Auflage, Berlin 1967.
Chung, K.L.: A Course in Probability Theory, 3. Auflage, New York 2000.
C
inlar, E.: Introduction to Stochastic Processes, Englewood Cliffs (NJ),
1975.
Etheridge, A.: A Course in Financial Calculus, Cambridge 2002.
Everitt, B.S.: Introduction to Optimization Methods and Their Application in Statistics, London 1987.
Feller, W.: An Introduction to Probability Theory and its Applications, I
und II, New York 1967 bzw. 1971.
Fisz, M.: Wahrscheinlichkeitsrechnung und Mathematische Statistik, 11.
Auflage, Berlin 1989.
F
ollmer, H., Schied, A.: Stochastic Finance: An Introduction in Discrete Time, 2. Auflage, Berlin 2004.
F
orster, E., R
onz, B.: Methoden der Korrelations- und Regressionsanalyse, Berlin 1979.
Gallager, R.G.: Discrete Stochastic Processes, 3. Auflage, Boston 1996.
Garthwaite, P.H., Jolliffe, I.T., Jones, B.: Statistical Inference, 2.
Auflage, London 2002.
Hartung, J., Elpelt, B.: Multivariate Statistik, 7. Auflage, M
unchen
2007.
Harvey, A.C.: Time Series Models, 2. Auflage, Oxford 1996.
Hesse, C.: Angewandte Wahrscheinlichkeitstheorie, Braunschweig, 2005.

Hu
Stuttgart 2005.
bler, O.: Okonometrie,
Hull, J.C.: Options, Futures, and other Derivatives, 7. Auflage, London
2008.

157

ANHANG B. LITERATURVERZEICHNIS

Johnson, R.A, Wichern, D.W.: Applied Multivariate Statistical Analysis, 5. Auflage, Englewood Cliffs (NJ), 2002.
Klein, J.P., Moeschberger, M.L.: Survival Analysis: Techniques for
Censored and Truncated Data, 3. Auflage, New York 2005.
Lehmann, E.L.: Theory of Point Estimation, 2. Auflage, New York 1998.
Lehmann, E.L.: Testing Statistical Hypotheses, 3. Auflage, New York
2005.
Lu
tkepohl, H.: New Introduction to Multiple Time Series, 2. Auflage,
Berlin 2006.
Malliaris, A.G., Brock, W.A.: Stochastic Methods in Economics and
Finance, 7. Auflage Amsterdam 1999.
Pfanzagl, J.: Elementare Wahrscheinlichkeitsrechnung, 2. Auflage, Berlin
1991.
Pokropp, F.: Stichproben: Theorie und Verfahren, 2. Auflage, M
unchen
1996.
Rohatgi, V.K.: An Introduction to Probability Theory and Mathematical
Statistics, 2.Auflage, New York 2001.
Ross, S.M.: Stochastic Processes, 2nd edition, New York 1996.
Schlittgen, R., Streitberg, B.H.J.: Zeitreihenanalyse, 8.
M
unchen 2001.

Schneewei, H.: Okonometrie,


4. Auflage, W
urzburg 1990.

Auflage,

Toutenburg, H.: Moderne nichtparametrische Verfahren der Risikoanalyse, 3.Auflage, Heidelberg 1992.
(c) Handb
ucher und Lexika:
Bosch, K.: Statistik-Taschenbuch, 3. Auflage, M
unchen 1998.
Hartung, J., Elpelt, B.: Multivariate Statistik, 7. Auflage, M
unchen
2007.
Hartung, J., Elpelt, B., Kl
osener, K.-H.: Statistik,
M
unchen 2007.

14.

Auflage,

Kotz, S., Johnson, N.L.: Encyclopedia of Statistical Sciences, Vol.1-9


Update, Supplement, New York 1997 ff.
Mu
ller, P.H. (Hrsg.): Lexikon der Stochastik, 5. Auflage, Berlin 1991.
(d) Fallstudien und Daten:
Andrews, D.F., Herzberg, A.M.: Data, New York 1985.

158

ANHANG B. LITERATURVERZEICHNIS
Gentleman, J.F., Whitmore, G.A. (Hrsg.): Case Studies in Data
Analysis, New York 1994.
Riedwyl, H.: Lineare Regression und Verwandtes, Basel 1997.

(e) Ausgewahlte Lehrb


ucher zur Mathematik f
ur Okonomen:
Karmann, A.: Mathematik fur Wirtschaftswissenschaftler. Problemorientierte Einfuhrung, 5. Auflage, M
unchen 2003.
Mosler, K., Dyckerhoff, R., Scheicher, C.: Mathematische Methoden

fur Okonomen,
Berlin Heidelberg 2009.

Opitz, O.: Mathematik. Lehrbuch fur Okonomen,


9. Auflage, M
unchen
2004.
Pfuff, F.: Mathematik fur Wirtschaftswissenschaftler, Band 1 bis 3, 10.,
9. bzw. 5. Auflage, Braunschweig.

Anhang C
Einige mathematische Symbole
IN = {1, 2, 3, . . . , }
IN0 = {0, 1, 2, 3, . . .}
INk = {1, 2, . . . , k}
ZZ = {. . . , 2, 1, 0, 1, 2, . . .}
IR
IR0
C
I
F (x+) = lim F (x) = lim F (x)
x&x0

xx0
x<x0

F (x) = lim F (x) = lim F (x)


x%x0

xx0
x>x0

Mosler: Stochastische Modelle


c Karl Mosler K

oln 2013

die nat
urlichen Zahlen
die nat
urlichen Zahlen mit der Null
die ersten k nat
urlichen Zahlen
die ganzen Zahlen
die reellen Zahlen, d.i. die Zahlengerade
die positiven reellen Zahlen einschlielich der
Null
die komplexen Zahlen, d.i. die komplexe Ebene
rechtsseitiger Limes der Funktion F an der
Stelle x
linksseitiger Limes der Funktion F an der Stelle x

Oktober 2013