Sie sind auf Seite 1von 101

Ma- und Wahrscheinlichkeitstheorie

Frank Werner
Institut f ur Numerische und Angewandte Mathematik
Georg-August-Universitat Gottingen
Lotzestrae 16-18
37083 Gottingen
f.werner@math.uni-goettingen.de
29. Juli 2009

Basierend auf der Vorlesung Ma- und Wahrscheinlichkeitstheorie von Dr. Ulf-Rainer Fiebig im Sommer-
semester 2009 an der Georg-August-Universitat Gottingen
3
Vorwort
Dieses Skript ist unter einigem Arbeitsaufwand wahrend der Vorlesung

Wahrscheinlichkeitstheorie von
PD Dr. Fiebig im Sommersemester 2009 an der Georg-August-Universitat Gottingen entstanden.
Eigentlich ist es nicht moglich, Wahrscheinlichkeitstheorie und Matheorie getrennt zu behandeln, den-
noch wird es in diesem Skript versucht. Zu Beginn werden die elementar notwendigen Ergebnisse aus der
Matheorie wiederholt und im folgenden in der Wahrscheinlichkeitstheorie angewendet. F ur ein intensi-
veres Studium der Matheorie sei auf [Hal98, Bil95] verwiesen.
Dieses Skript behandelt alle wesentlichen Werkzeuge, die die Wahrscheinlichkeitstheorie bereitstellt, unter
anderem 0-1-Gesetze, schwache und starke Gesetze und Grenzwertsatze. Allerdings werden Anwendungen
nur gestreift, daf ur sei auf weitere Vorlesungen wie etwa Stochastische Prozesse verwiesen.
F ur Grundlagen der diskreten oder auch stetigen Stochastik wie etwa spezielle Verteilungen etc. verwei-
sen wir auf das Skript [WB08], an welches die vorliegende Vorlesung direkt anschliet. Auerdem sei
auf [DH04, Kre05] verwiesen.
Es handelt sich hierbei ausdr ucklich nur um eine studentische Mitschrift, nicht um ein oziell vom Do-
zenten herausgegebenes Skript. Trotz groer Anstrengungen sind sicherlich einige Fehler mathematischer
wie auch sprachlicher Natur im Skript verblieben, was hoentlich nicht allzu groe Schwierigkeiten f ur das
Verstandnis aufwerfen wird. Besonderer Dank gilt Robert St uck und Fabian Dunker f ur viele hilfreiche
Korrekturen.
Gottingen, 29. Juli 2009
Frank Werner
Ma- und Wahrscheinlichkeitstheorie
Inhaltsverzeichnis 5
Inhaltsverzeichnis
1 -Algebren, Mae, Integration und endliche Produkte 7
1.1 Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Mae . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Mae mit Dichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Integration bez uglich eines Bildmaes . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Endliche Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Spezialfall n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.2 Produktdichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Grundbegrie der Wahrscheinlichkeitstheorie 19
2.1 Wahrscheinlichkeitsraume und bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . 19
2.2 Zufallsvariablen und Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Unabhangigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Unendliche Produkte von Wahrscheinlichkeitsraumen . . . . . . . . . . . . . . . . . . . . . 31
3 0-1-Gesetze 33
4 Wahrscheinlichkeitsungleichungen und L
p
-Raume 39
4.1 Wahrscheinlichkeitsungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 L
p
-Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5 Konvergenzbegrie 43
6 Gesetze der groen Zahlen 47
6.1 Schwache Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Starke Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7 Schwache Konvergenz und Konvergenz in Verteilung 53
7.1 Schwache Konvergenz von Wahrscheinlichkeitsmaen . . . . . . . . . . . . . . . . . . . . . 53
7.2 Konvergenz in Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8 Charakteristische Funktionen 61
9 Grenzwertsatze 71
10 Bedingte Erwartungen 77
11 Gleichgradige Integrierbarkeit 81
12 Stationare Prozesse mit diskreter Zeit 89
12.1 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
12.2 Matreue Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
12.3 Ergodensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
13 Losungen ausgewahlter Aufgaben 97
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 7
1 -Algebren, Mae, Integration und endliche
Produkte
1.1 Mengensysteme
F ur den ganzen Abschnitt sei eine nicht-leere Menge und bezeichne T () ihre Potenzmenge.
Denition 1.1. Ein Mengensystem / T () ist eine Algebra, wenn
1. /,
2. A / A
c
:= x [ x / A / und
3. A
1
, ..., A
n
/

n
i=1
A
i
/.
Gilt sogar

i=1
A
i
/ f ur jede Folge A
1
, A
2
, ... /, so heit / eine -Algebra.
Beispiel 1.2. Ein h-Intervall (wobei h f ur halboen steht) in R ist eine Menge der Form
x R [ a < x b
mit irgendwelchen a b . Sei nun / das Mengensystem aller endlichen disjunkten Vereini-
gungen
I
1
... I
n
,
wobei n N beliebig und jedes I
k
ein h-Intervall ist.
Aufgabe 1.3. Zeige, dass das so denierte Mengensystem / eine Algebra, aber keine -Algebra ist.
Denition 1.4. Sei c T () ein Mengensystem. Der Durchschnitt aller -Algebren, die c enthalten,
ist wieder eine -Algebra, die mit (c) bezeichnet und auch die von c erzeugte -Algebra genannt wird.
Wir sagen in diesem Fall auch, dass c ein Erzeugendensystem von (c) ist.
Aufgabe 1.5. Zeige, dass
(c) :=

AAlgebra
EA
/
tatsachlich wieder eine -Algebra ist und dass (c) die kleinste -Algebra ist, die c enthalt.
Denition 1.6. Sei O das System der (topologisch) oenen Mengen auf R. Die Borelsche -Algebra
B = B(R) ist deniert als (O) - die kleinste -Algebra, die alle oenen Mengen enthalt. Jede Menge
A B heit Borel-mebar.
Bemerkung 1.7. Es gilt nat urlich B T (R), aber die Inklusion ist echt (vergleiche [Hal98, Sec. 16]).
Bemerkung 1.8. Es gibt viele weitere Erzeugendensysteme c f ur B, zum Beispiel
c := (a, b) [ a, b R, a < b,
c := (a, b] [ a, b R, a < b,
c := [a, b] [ a, b R, a < b,
c := (, b) [ b R.
Folgendes Hilfsmittel wird haug benotigt, etwa um die Eindeutigkeit von Maen zu zeigen oder um
unabhangige Familien und bedingte Erwartungen zu behandeln:
Denition 1.9. Ein Mengensystem T T () heit Dynkin-System, wenn
1. T,
Ma- und Wahrscheinlichkeitstheorie
8 1 -Algebren, Mae, Integration und endliche Produkte
2. A T A
c
T und
3. A
1
, A
2
, ... T paarweise disjunkt, so auch

i=1
A
i
T.
Beispiel 1.10. Sei eine endliche Menge mit einer geraden Anzahl von Elementen. Dann ist
T := A [ A enthalt eine gerade Anzahl von Elementen
ein Dynkin-System aber keine Algebra (und entsprechend auch keine -Algebra).
Denition 1.11. Wir nennen ein Mengensystem / T () schnitt-stabil oder auch -stabil, falls
A B / f ur alle A, B /.
Satz 1.12. Ein Dynkin-System T ist eine -Algebra genau dann, wenn T -stabil ist.
Beweis. Notwendig: Wegen
A B = (A
c
B
c
)
c
ist jede -Algebra -stabil.
Hinreichend: Seien A
1
, A
2
, ... T beliebig. Dann gilt

_
i=1
= A
1
A
2
A
1
A
3
(A
1
A
2
) ...
= A
1
A
2
(A
1
A
2
) A
3
...
= A
1
(A
2
A
c
1
)
. .
D
(A
3
A
c
1
A
c
2
)
. .
D
...,
und da diese Mengen disjunkt sind, muss die Vereinigung wieder in T sein.
Denition 1.13. Sei c ein Mengensystem. Das durch c erzeugte Dynkin-System T(c) ist das kleinste
Dynkin-System, welches c enthalt.
Aufgabe 1.14. Zeige, dass
T(c) =

DDynkin-System
ED
T
tatsachlich wieder ein Dynkin-System ist.
Satz 1.15. Sei das Mengensystem c -stabil. Dann ist (c) = T(c).
Aufgabe 1.16. Zeige, dass stets T(c) (c) gilt.
Folgendes Korollar wird ebenfalls haug benutzt:
Korollar 1.17. Sei c ein -stabiles Mengensystem, T ein Dynkin-System und gelte
c T (c) .
Dann gilt T = (c).
1.2 Mae
Denition 1.18. Ein Prama ist eine Funktion : /
/
[0, ] auf einer Algebra / mit
1. () = 0 und
2. f ur A
1
, A
2
, ... / paarweise disjunkt und

i=1
A
i
/ gilt (-Additivitat)

_
i=1
A
i
_
=

i=1
(A
i
) .
Ist / sogar eine -Algebra, so nennen wir auch Ma.
Denition 1.19. Sei ein Prama auf einer Algebra /. heit endlich, wenn () < und -endlich,
wenn es A
1
, A
2
, ... / mit

i=1
A
i
= und (A
i
) < f ur alle i N gibt.
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 9
Denition 1.20. Sei ,= und / eine -Algebra auf . Dann heit das Tupel (, /) mebarer Raum.
Ist zusatzlich ein Ma auf /, so heit das Tupel (, /, ) Maraum. Ist dabei normiert, d.h. () = 1,
so heit das Tupel (, /, ) auf Wahrscheinlichkeitsraum oder kurz WRaum.
Ein Maraum (, /, ) heit vollstandig, wenn / alle Teilmengen von -Nullmengen enthalt, d.h. falls
f ur jedes A / mit (A) = 0 auch T (A) /.
Beispiel 1.21. Sei (, /) ein mebarer Raum.
1. Dann deniert
(A) :=
_
#A falls A endlich,
sonst,
A /
das sogenannte Zahlma auf /.
2. F ur x fest deniert
(A) :=
_
1 falls x A,
0 falls x / A,
A /
das Dirac-Ma oder auch einfach Punktma in x. In diesem Fall schreiben wir auch =
x
oder
seltener =
x
. Wir sprechen auch von der Punktmasse in x.
3. Sei endlich oder abzahlbar und / = T (). Sei (p
1
, p
2
, ...) ein Wahrscheinlichkeitsvektor (d.h. es
gelte p
i
[0, 1] f ur alle i N und

i=1
p
i
= 1) auf den Elementen
1
,
2
, ... von . Falls endlich
ist mit =
1
, ...,
n
, so fordern wir p
i
= 0 f ur alle i > n.
Dann ist
(A) :=

i
A
p
i
, A /
ein normiertes Ma auf /.
Satz 1.22 (ohne Beweis). Sei ein Prama auf einer Algebra /. Dann gilt:
1. Sind A, B / mit A B, so gilt (Monotonie)
(A) (B) .
2. Sind A
1
, A
2
, ... / s.d. auch

i=1
A
i
/, so gilt (Subadditivitat)

_
i=1
A
i
_

i=1
(A
i
) .
3. Sind A
1
A
2
... Elemente aus / mit

i=1
A
i
/, so gilt (Stetigkeit von unten)

_
i=1
A
i
_
= lim
i
(A
i
) .
4. Sind A
1
A
2
... Elemente aus / mit

i=1
A
i
/ und (A
1
) < , so gilt (Stetigkeit von oben)

i=1
A
i
_
= lim
i
(A
i
) .
Satz 1.23. Sei F : R
/
R eine monoton steigende und rechtsstetige
1
Funktion. Dann denieren wir
durch

_
n
_
i=1
(a
i
, b
i
]
_
:=
n

i=1
(F (b
i
) F (a
i
)) (1.1)
f ur jede disjunkte Vereinigung

n
i=1
(a
i
, b
i
] von h-Intervallen und () := 0 ein Prama auf der Algebra
/ aller h-Intervalle (siehe Aufgabe 1.3).
1
D.h.
lim
xy
F (x) = F (y) f ur alle y R.
Ma- und Wahrscheinlichkeitstheorie
10 1 -Algebren, Mae, Integration und endliche Produkte
Beweis. Man verwendet ein Kompaktheitsargument und weitere Eigenschaften aus der Matheorie.
Bemerkung 1.24. Man setzt f ur ein F wie im Satz oben
F () := lim
x
F (x) ,
F () := lim
x
F (x) ,
wobei diese Werte bzw. sein konnen. Damit ist der Ausdruck (1.1) stets deniert.
Satz 1.25 (Fortsetzungssatz von Caratheodory - ohne Beweis). Sei / eine Algebra und ein Prama
auf /. Dann gibt es ein Ma auf der von / erzeugten -Algebra (/), s.d.

|
A
= .
Ist -endlich, so ist eindeutig bestimmt.
Bemerkung 1.26. Sei A / f ur / und wie im Fortsetzungssatz. Dann ist
(A) = inf
_

i=1
(A
i
)

A
i
/, A

_
i=1
A
i
_
.
Dieser Ausdruck wird auch als aueres Ma bezeichnet.
Korollar 1.27. Zu jedem monoton steigenden, rechtsstetigen F : R
/
R gibt es genau ein Ma
F
auf
B mit

F
((a, b)) = F (b) F (a)
f ur alle a, b, R, a < b.
Beispiel 1.28. Die Funktion F (x) = x liefert das Lebesgue-Ma
1
= auf B.
F ur die Eindeutigkeit wird im Allgemeinen der folgende Satz verwendet, f ur dessen Beweis Dynkin-
Systeme benutzt werden:
Satz 1.29 (ohne Beweis). Sei / eine -Algebra, c ein -stabiles Erzeugendensystem f ur / und seien

1
,
2
Mae auf / mit
1.
1
(E) =
2
(E) f ur alle E c und
2. es gibt E
1
, E
2
, ... c s.d. =

i=1
E
i
und
1
(E
i
) =
2
(E
i
) f ur alle i N.
Dann gilt
1
=
2
.
Denition 1.30. Eine monoton wachsende, rechtsstetige Funktion F : R
/
R mit lim
x
F (x) = 1
und lim
x
F (x) = 0 heit Verteilungsfunktion.
Korollar 1.31. 1. Zu jeder Verteilungsfunktion F existiert genau ein Wahrscheinlichkeitsma
F
auf
der Borelschen -Algebra B auf R mit der Eigenschaft

F
((a, b)) = F (b) F (a)
f ur alle a, b R, a < b.
2. Ist ein Wahrscheinlichkeitsma auf B, so existiert eine Verteilungsfunktion F s.d. =
F
gilt.
F ist gegeben als
F (x) = ((, x]) .
Denition 1.32. Die Lebesguesche -Algebra L (R) entsteht aus B(R) durch Hinzuf ugen aller Teilmen-
gen von Nullmengen, d.h.
L (R) = A N [ A B(R) und B B(R) mit N B und (B) = 0 .
Auf L (R) ist (A N) := (A) das Lebesgue-Ma, welches so deniert vollstandig ist.
Beweis. Man setzt
(A) := inf
_

i=1
(b
i
a
i
)

_
i=1
(a
i
, b
i
) , a
i
, b
i
R, a
i
< b
i
f ur alle i N
_
, A L (R)
und verwendet Eigenschaften aus der Matheorie.
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 11
1.3 Integration
Seien (, /) und (

, /

) mebare Raume und f :


/

eine Abbildung.
Denition 1.33. f heit mebar (genauer: //

-mebar), wenn
f
1
(A

) / f ur alle A

.
Satz 1.34. Ist /

= (c

) und gilt f
1
(E) / f ur alle E c

, so ist f mebar.
Beweis. Es gilt
c


_
A

[ f
1
(A

) /
_
. .
()
/

.
Da () eine -Algebra ist und (c

) = /

gilt, folgt die Behauptung.


Aufgabe 1.35. Zeige, dass () tatsachlich eine -Algebra deniert.
Bemerkung 1.36. Ist f : R
/
R stetig, so ist f B Bmebar. Dies folgt direkt aus obigem Satz mit
c

= (a, b) [ a, b R, a < b.
Bemerkung 1.37. Ist (, /) ein mebarer Raum und f :
/
R, so betrachtet man den Zielraum R stets
versehen mit der Borelschen -Algebra B. In diesem Sinne bedeutet also mebar stets /Bmebar.
Denition 1.38. Wir sagen
eine Funktion f : R
/
R ist Lebesgue-mebar, wenn f L(R) Bmebar ist.
eine Funktion f : R
/
R ist Borel-mebar, wenn f B Bmebar ist.
Korollar 1.39. Eine Funktion f :
/
R ist /-mebar genau dann, wenn f
1
((, a]) / f ur alle
a R.
Satz 1.40 (ohne Beweis). Sind f, g :
/
R mebar, so sind auch die punktweise denierten Funktionen
f +g und f g mebar.
Denition 1.41. Sei R := [, ] = R . Deniere durch
B
_
R
_
:=
_
A R [ A R B(R)
_
eine -Algebra mit den Erzeugendensystemen
[, a] [ a R,
(a, ] [ a R.
Satz 1.42 (ohne Beweis). Seien f
n
:
/
R f ur n N mebar. Dann sind folgende Funktionen ebenfallls
mebar:
_
sup
nN
f
n
_
(x) := sup
nN
(f
n
(x)) , x ,
_
inf
nN
f
n
_
(x) := inf
nN
(f
n
(x)) , x ,
_
limsup
n
f
n
_
(x) := limsup
n
(f
n
(x)) , x ,
_
liminf
n
f
n
_
(x) := liminf
n
(f
n
(x)) , x ,
max f
1
, f
2
(x) := max f
1
(x) , f
2
(x) , x ,
minf
1
, f
2
(x) := minf
1
(x) , f
2
(x) , x .
Falls f (x) := lim
n
f
n
(x) , x existiert, so ist f ebenfalls mebar.
Ma- und Wahrscheinlichkeitstheorie
12 1 -Algebren, Mae, Integration und endliche Produkte
Denition 1.43. Es sei
L
+
(, /) := f :
/
[0, ] [ f ist mebar .
Oft schreiben wir auch verk urzend L
+
= L
+
(, /) falls klar ist, um welchen mebaren Raum es sich
handelt.
Denition 1.44. Sei (, /) ein mebarer Raum. Eine Elementarfunktion ist eine Funktion :
/
R
von der Form
=
n

i=1
a
i

A
i
mit a
i
R und A
i
/ f ur i = 1, ..., n, wobei

A
() =
_
1 falls A,
0 falls / A,
f ur A /.
Falls alle A
i
disjunkt sind und

n
i=1
A
i
= gilt, so sprechen wir von einer Normalfunktion.
Satz 1.45 (ohne Beweis). Zu f L
+
existiert eine Folge von Elementarfunktionen
n
mit 0
1

2
... f punktweise und
lim
n

n
(x) = f (x) , x .
Bemerkung 1.46. Damit folgt auch, dass f ur f, g L
+
die Funktionen f +g und f g ebenfalls Elemente
aus L
+
denieren.
Denition 1.47. Sei (, /, ) ein Maraum. F ur Elementarfunktionen =

n
i=1
a
i

A
i
deniert man
_
d :=
n

i=1
a
i
(A
i
) .
Es wird dabei die Konvention 0 = 0 genutzt. F ur f L
+
sei
_
fd := sup
__
d

ist Elementarfunktion mit 0 f


_
das Integral von f uber .
F ur A / setze auerdem
_
A
f d :=
_
f
A
d
und bezeichne dies als das Integral von f uber A.
Bemerkung 1.48. Es folgt sofort, dass f ur f g mit f, g L
+
auch
_
f d
_
g d und man zeigt
leicht, dass
_
c f d = c
_
f d
f ur c 0.
Satz 1.49 (von der monotonen Konvergenz - ohne Beweis). Seien f
1
f
2
... Funktionen aus L
+
und
sei f := lim
n
f
n
der punktweise Grenzwert. Dann gilt
_
f d = lim
n
_
f
n
d.
Satz 1.50 (ohne Beweis). Seien f
1
, f
2
, ... L
+
. Dann gilt
_

n=1
f
n
d =

n=1
_
f
n
d.
Insbesondere ist
_
(f
1
+f
2
) d =
_
f
1
d +
_
f
2
d.
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 13
Denition 1.51. Sei (, /, ) ein Maraum und N / mit (N) = 0. Erf ullen alle x / N eine
Eigenschaft E, so sagen wir E gilt -fast sicher oder auch einfach E gilt fast sicher.
Satz 1.52 (ohne Beweis). F ur f, g L
+
gilt:
1.
_
f d = 0 genau dann, wenn f = 0 -fast sicher und
2. f = g -fast sicher, so auch
_
f d =
_
g d.
Lemma 1.53 (Fatou - ohne Beweis). Sind f
1
, f
2
, ... L
+
, so gilt
_
liminf
n
f
n
d liminf
n
_
f
n
d.
Beispiel 1.54. Sei = R, / = B(R) und = das Lebesgue-Ma. Setze
f
n
:=
[n,n+1]
.
Dann gilt liminf
n
f
n
= 0, aber liminf
n
_
f
n
d = 1.
Denition 1.55. Sei f :
/
R gegeben. Setze
f
+
(x) := max f (x) , 0 , x ,
f

(x) := max f (x) , 0 , x .


Dies liefert eine Zerlegung
f = f
+
f

mit Funktionen f
+
, f

L
+
.
Denition 1.56. Eine mebare Funktion f :
/
R heit -integrierbar, wenn
_
f
+
d < und
_
f

d < .
In diesem Fall setzt man
_
f d :=
_
f
+
d
_
f

d.
Satz 1.57. Eine mebare Funktion f :
/
R ist -integrierbar genau dann, wenn
_
[f[ d < .
Beweis. Dies folgt sofort aus der Abschatzung f
+
, f

[f[ f
+
+f

.
Denition 1.58. Wir setzen
L
1
(, /, ) := f :
/
R mebar [ f ist -integrierbar
und schreiben oft auch L
1
= L
1
(, /, ) falls klar ist, welcher Maraum gemeint ist.
Bemerkung 1.59. Beachte, dass L
1
nur reellwertige Funktionen enthalt.
L
1
ist ein reeller Vektorraum und
L
1
f
_
f d
ein lineares Funktional auf diesem Vektorraum.
Es gilt:
1. Ist f L
1
und g mebar, so impliziert f = g -fast sicher auch g L
1
und
_
f d =
_
g d.
2. F ur f L
1
gilt

_
f d

_
[f[ d.
3. F ur f, g L
1
sind aquivalent:
a)
_
A
f d =
_
A
g d f ur alle A /,
b)
_
[f g[ d = 0,
c) f = g -fast sicher.
Ma- und Wahrscheinlichkeitstheorie
14 1 -Algebren, Mae, Integration und endliche Produkte
Satz 1.60 (von der mjaorisierten Konvergenz - ohne Beweis). Seien f
1
, f
2
, ... L
1
mit f
n
/
f, n
/

punktweise. Es gebe ein g L


1
mit g 0 und [f
n
[ g. Dann ist auch f L
1
und es gilt
_
f d = lim
n
_
f
n
d.
Bemerkung 1.61. Statt f
n
/
f, n
/
punktweise gen ugt auch f mebar und f
n
/
f, n
/
fast
sicher.
Denition 1.62. F ur f L
1
(R, L (R) , ) ist
_
f d :=
_
f
+
d
_
f

d
das Lebesgue-Integral von f.
Satz 1.63 (ohne Beweis). Ist f : [a, b]
/
R Riemann-integrierbar, so ist f auch Lebesgue-integrierbar
und die entsprechenden Integrale stimmen uberein.
1.3.1 Mae mit Dichten
Sei (, /, ) ein beliebiger Maraum.
Satz 1.64. F ur f L
+
deniert
(A) :=
_
A
f d, A /
ein Ma auf (, /).
Beweis. Man nutzt den Satz von der monotonen Konvergenz um die -Additivitat zu zeigen.
Denition 1.65. F ur f L
+
und deniert wie im Satz nennen wir f die Dichte von bez uglich
und schreiben = f.
Satz 1.66 (ohne Beweis). Sei = f f ur ein f L
+
.
1. F ur f L
+
gilt dann
_
g d =
_
f g d.
2. Ist g :
/
R mebar, so ist g -integrierbar genau dann, wenn f g -integrierbar ist.
In diesem Fall gilt
_
g d =
_
f g d.
1.3.2 Integration bez uglich eines Bildmaes
Satz 1.67 (ohne Beweis). Seien (, /) und (

, /

) mebare Raume. Sei T :


/

eine mebare
Abbildung und ein Ma auf (, /).
Dann ist durch

(A

) :=
_
T
1
(A

)
_
, A

ein Ma auf (

, /

) deniert.
Wir schreiben

=: T () = T
1
und nennen

das Bildma von unter T.


Satz 1.68 (Transformationssatz - ohne Beweis). Sei (, /, ) ein Maraum, (

, /

) ein mebarer Raum


und T :
/

mebar. Dann gilt f ur alle f L


+
(

, /

) die Gleichung
_
f d(T ()) =
_
f T d. (1.2)
Eine /

-mebare Funktion f :

/
R ist T ()-integrierbar genau dann, wenn f T -integrierbar ist
und in diesem Fall gilt ebenfalls (1.2).
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 15
1.4 Endliche Produkte
Seien (
i
, /
i
) mebare Raume f ur 1 i n. Auf
:=
1
...
n
=
n

i=1

i
sei
i
die i-te Koordinatenabbildung, d.h.
i
:
/

i
ist gegeben durch

i
(
1
, ...,
n
) =
i
, (
1
, ...,
n
) .
Denition 1.69. Das Produkt
/ := /
1
... /
n
der -Algebren /
1
, ..., /
n
ist die kleinste -Algebra auf , s.d. jedes
i
//
i
-mebar ist. Wir schreiben
auch
n

i=1
/
i
= /.
Satz 1.70 (ohne Beweis). Sind c
i
, i = 1, .., n Erzeugendensysteme f ur /
i
derart, dass es E
i,k
c
i
mit

k=1
E
i,k
=
i
f ur i = 1, ..., n gibt, so ist
n

i=1
/
i
= (E
1
... E
n
[ c
i
E
i
, 1 i n) .
Bemerkung 1.71. So erzeugen etwa (a
1
, b
1
] ... (a
n
, b
n
] die Borelsche -Algebra
B(R
n
) :=
n

i=1
B(R)
auf dem R
n
.
Aufgabe 1.72. Zeige, dass auch
B(R
n
) = (M R
n
[ M oen)
gilt.
Satz 1.73 (ohne Beweis). Seien (, /) und (
i
, /
i
) f ur i = 1, ..., n mebare Raume. Eine Abbildung
f :
/

n
i=1

i
ist /

n
i=1
/
i
-mebar genau dann, wenn f ur alle i = 1, ..., n die Abbildung f
i
:=
i
f
//
i
-mebar ist.
Satz 1.74 (ohne Beweis). Seien (
i
, /
i
,
i
) f ur i = 1, ..., n Maraume. F ur i = 1, ..., n sei c
i
ein
Erzeugendensystem von /
i
, welches -stabil ist und jeweils eine Familie (E
i,k
)
kN
mit
i
(E
i,k
) <
und
i
=

k=1
E
i,k
enthalt.
Dann gibt es genau ein Produktma auf

n
i=1
/
i
mit der Eigenschaft
(E
1
... E
n
) =
1
(E
1
) ...
n
(E
n
) f ur alle E
i
c
i
, 1 i n.
Wir schreiben auch =
1
...
n
.
Bemerkung 1.75. Insbesondere gilt also: Wenn alle
i
-endlich sind, so existiert das Produktma und
ist eindeutig bestimmt (Einfach c
i
= /
i
f ur i = 1, ..., n im obigen Satz).
Beispiel 1.76. Das n-dimensiopnale Lebesgue-Ma
n
auf B(R
n
) existiert und ist eindeutig festgelegt
durch

n
((a
1
, b
1
] ... (a
n
, b
n
]) =
n

i=1
(b
i
a
i
) f ur alle a
i
, b
i
R, a
i
< b
i
f ur 1 i n.
Ma- und Wahrscheinlichkeitstheorie
16 1 -Algebren, Mae, Integration und endliche Produkte
1.4.1 Spezialfall n = 2
Seien (
1
, /
1
,
1
) und (
2
, /
2
,
2
) zwei -endliche Maraume und sei Q /
1
/
2
.
Satz 1.77 (ohne Beweis). Dann ist
Q

1
:=
2

2
[ (
1
,
2
) Q
ein Element aus /
2
f ur jedes beliebige
1

1
. Analog ist Q

2
/
1
fur alle
2

2
. Wir nennen Q

1
den
1
-Schnitt zu Q, analog nennen wir Q

2
den
2
-Schnitt zu Q.
Die Funktion
1

2
(Q

1
) ist /
1
-mebar, und genauso ist
2

1
(Q

2
) /
2
-mebar. Es gilt
(
1

2
) (Q) =
_

2
(Q

1
) d
1
(
1
)
=
_

1
(Q

2
) d
2
(
2
) .
Abbildung 1.1: Skizze des
1
-Schnitts Q

1
zu Q.
Bemerkung 1.78. Wir erhalten so eine zweite Moglichkeit das Produktma
1

2
zu denieren.
Induktiv konnen wir so auch beliebige endliche Produkte denieren.
Denition 1.79. Eine fast uberall denierte Funktion auf einem Maraum (, /, ) ist eine Funktion
f : N
c
/
R derart, dass N / mit (N) = 0. Anders gesagt ist eine fast uberall denierte Funktion
mit Ausnahme einer Nullmenge auf ganz deniert.
Eine solche Funktion heit -integrierbar, falls die ( uberall denierte) Funktion
f (x) :=
_
f (x) falls x / N,
0 falls x N
-integrierbar ist. Wir setzen
_
f d :=
_
f d
falls existent.
Satz 1.80 (Tonelli / Fubini - ohne Beweis). 1. (Tonelli)
F ur f L
+
(
1

2
, /
1
/
2
) deniert
g (
1
) :=
_
f

1
d
2
eine Funktion aus L
+
(
1
, /
1
) und
h(
2
) :=
_
f

2
d
1
Ma- und Wahrscheinlichkeitstheorie
1 -Algebren, Mae, Integration und endliche Produkte 17
eine Funktion aus L
+
(
2
, /
2
) f ur
f

1
(
2
) := f (
1
,
2
) , f

2
(
1
) = f (
1
,
2
) , (
1
,
2
)
1

2
.
Auerdem gilt
_
f d(
1

2
) =
_

1
_

2
f (
1
,
2
) d
2
(
2
)
. .
=g(
1
)
d
1
(
1
) (1.3)
=
_

2
_

1
f (
1
,
2
) d
1
(
1
)
. .
=h(
2
)
d
2
(
2
) . (1.4)
2. (Fubini)
Sei f :
1

2
/
R
1

2
-integrierbar (dies kann mit Tonelli durch betrachten von [f[ uberpr uft
werden). Dann ist
f

1
wie oben deniert
2
-integrierbar f ur
1
-fast alle
1

1
,
f

2
wie oben deniert
1
-integrierbar f ur
2
-fast alle
2

2
und die fast uberall denierten Funktionen
g (
1
) :=
_
f

1
d
2
, h(
2
) :=
_
f

2
d
1
sind
1
- bzw.
2
-integrierbar. Auch hier gelten (1.3) und (1.4).
1.4.2 Produktdichten
Satz 1.81 (Produktdichten - ohne Beweis). Seien (
i
, /
i
,
i
) f ur i = 1, ..., n -endliche Maraume und
f
i
0 reellwertige Funktionen, die jeweils auf
i
deniert und /
i
-mebar sind. Wir setzen
i
:= f
i

i
f ur i = 1, ..., n.
Dann ist jedes
i
-endlich und somit ist das Ma

n
i=1

i
deniert und eindeutig bestimmt.
Dann gilt
n

i=1

i
= f
n

i=1

i
mit der Produktdichte
f (
1
, ...,
n
) =
n

i=1
f
i
(
i
) , (
1
, ...,
n
)
n

i=1

i
.
Aufgabe 1.82. Zeige, dass f ur ein -endliches Ma auf dem mebaren Raum (, /) und eine /-
mebare Funktion f :
/
[0, ) das Ma := f tatsachlich wieder -endlich ist.
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 19
2 Grundbegrie der Wahrscheinlichkeitstheorie
2.1 Wahrscheinlichkeitsraume und bedingte Wahrscheinlichkeiten
Denition 2.1. Ein Wahrscheinlichkeitsraum ist ein Maraum (, /, P) mit normiertem Ma, d.h. es
gilt P() = 1.
P heit Wahrscheinlichkeitsma oder Wahrscheinlichkeitsverteilung, heit Grundraum, Ereignisraum
oder Stichprobenraum. Ein Element heit auch Elementarereignis und A / heit Ereignis.
Ein A / mit P(A) = 1 heit fast sicheres Ereignis.
Beispiel 2.2. 1. Diskrete Wahrscheinlichkeitsraume
Hier ist endlich oder abzahlbar unendlich, d.h. es gilt
=
1
,
2
, ...
und die -Algebra ist / = T ().
Die Wahrscheinlichkeitsverteilung P ist durch einen Wahrscheinlichkeitsvektor
p = (p
1
, p
2
, ...) ,
d.h. p erf ullt p
i
[0, 1] f ur alle i N und

i=1
p
i
= 1, mittels
P(A) :=

i
A
p
i
, A /
gegeben.
Ein Spezialfall sind Laplace-Raume, d.h. =
1
, ...,
n
und p
i
= 1/n f ur alle i = 1, ..., n. Dann
gilt
P(A) =
#A
n
f ur alle A T () .
Mehr dazu sehen wir in Abschnitt 2.3.1 oder in [Kre05, DH04].
2. Allgemeine Modelle
Hier sind zum Beispiel Wahrscheinlichkeitsmae mit Dichten auf R wie etwa ^ (0, 1) usw. zu
nennen. Dar uberhinaus nden sich Modelle f ur
den unendlichen M unzwurf oder
stochastische Prozesse: Wahrscheinlichkeitsraume mit = C (R), der Menge aller stetigen
Funktionen auf R.
Hierzu verweisen wir auf Abschnitt 2.3.2.
Denition 2.3. Sei (, /, P) ein Wahrscheinlichkeitsraum und B / mit P(B) > 0. Dann ist
P(A [ B) :=
P(A B)
P(B)
, A /
die bedingte Wahrscheinlichkeit von A gegeben B.
Aufgabe 2.4. Zeige, dass die Abbildung A P(A [ B), A / unter den Voraussetzungen wie oben
wieder ein Wahrscheinlichkeitsma auf (, /) deniert.
2.2 Zufallsvariablen und Momente
Denition 2.5. Sei (, /, P) ein Wahrscheinlichkeitsraum und (

, /

) ein mebarer Raum.


Eine mebare Abbildung
X :
/

heit Zufallsvariable oder kurz ZV.


Ma- und Wahrscheinlichkeitstheorie
20 2 Grundbegrie der Wahrscheinlichkeitstheorie
F ur (

, /

) = (R, B(R)) sprechen wir von einer reellen Zufallsvariablen.


F ur (

, /

) =
_
R, B
_
R
__
sprechen wir von einer numerischen Zufallsvariablen.
F ur (

, /

) = (R
n
, B(R
n
)) sprechen wir von einem Zufallsvektor und schreiben
X = (X
1
, ..., X
n
)
mit reellen Zufallsvariablen X
1
, ..., X
n
.
Auerdem notieren wir verk urzend
X A

= [ X () A

f ur eine Zufallsvariable X und A

.
Denition 2.6. Sei X eine Zufallsvariable auf einem Maraum mit Bild in einem mebaren Raum
f ur die Bezeichnungen wie oben. Das Bildma X (P) auf (

, /

) wird mit P
X
bezeichnet und heit
Verteilung von X.
Somit gilt f ur A

, dass
P
X
(A

) = P(X A

) = P
_
X
1
(A

)
_
.
Denition 2.7. Sei X eine reelle Zufallsvariable. Dann ist
F
X
(t) := P(X t) = P
X
((, t]) , t R
die Verteilungsfunktion von X.
Bemerkung 2.8. Zu jeder Verteilungsfunktion F gibt es eine reelle Zufallsvariable X mit F
X
= F.
Denn ist P
F
das Wahrscheinlichkeitsma zu F gema Korollar 1.31, so tut es
X : (R, B(R) , P
F
)
/
(R, B(R)) , X (x) = x.
Wir werden daher des ofteren nur noch von Verteilungen P
X
sprechen.
Aufgabe 2.9 (Summen von Maen). Sei I endlich oder anzahlbar unendlich und seien (
k
)
kI
Wahr-
scheinlichkeitsmae auf einem festen mebaren Raum (, /). Seien p
k
0, k I reelle Koezienten
mit

kI
p
k
= 1. Zeige, dass dann durch
_

kI
p
k

k
_
(A) :=

kI
p
k

k
(A) , A /
ein Wahrscheinlichkeitsma auf (, /) deniert wird.
Denition 2.10. Eine diskrete Wahrscheinlichkeitsverteilung P
X
auf R ist eine Verteilung der Form

kI
p
k

x
k
mit p
k
wie in der Aufgabe oben und Dirac-Maen
x
k
zu bestimmten Punkten x
k
R, k I.
Denition 2.11. Sei X = (X
1
, ..., X
n
) ein reeller Zufallsvektor. Die Verteilung P
X
auf R
n
heit
Lebesgue-stetig (oder kurz stetig), falls es ein f L
+
(R
n
, B(R
n
)) mit
P
X
(A) =
_
A
f d
n
f ur alle A B(R
n
) f ur das n-dimensionale Lebesgue-Ma
n
gibt. In diesem Fall heit f auch Dichte
von X (oder von P
X
).
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 21
Bemerkung 2.12 (n = 1). F ur eine stetige Zufallsvariable X mit Dichte f gilt dann
F
x
(t) = P(X t)
= P
X
((, t])
=
t
_

f d
f ur t R.
Denition 2.13. Ist nun X eine numerische Zufallsvariabe auf (, /, P) und gilt entweder X 0 oder
X ist P-integrierbar, so ist
E (X) :=
_
X dP
der Erwartungswert von X bzw. P
X
.
Bemerkung 2.14. Nach Satz 1.57 ist X genau dann P-integrierbar, wenn
_
[X[ dP < gilt.
Bemerkung 2.15. Eine Anwendung des Transformationssatzes (Satz 1.68) liefert:
Sei X eine reelle Zufallsvariable, g : R
/
R mebar und g 0 oder P
X
-integrierbar. Wir haben also
folgende Situation:
R
X
/
R R
g
/
R
gX
5
Dann ist g X ebenfalls reelle Zufallsvariable und es gilt
E (g X) =
_
g X dP =
_
g dP
X
.
Insbesondere folgt mit g = id
R
, dass
E (X) =
_
xdP
X
,
und damit hangt E (X) nur von P
X
ab (und nicht von , / oder P selbst).
Denition 2.16. Sei n N. Dann deniert man f ur eine relle Zufallsvariable mit
E ([X[
n
) =
_
[x[
n
dP
X
<
das n-te Moment von X als
E (X
n
) =
_
x
n
dP
X
.
Eine reelle Zufallsvariable mit der Eigenschaft E ([X[
n
) < heit auch n-fach integrierbar.
Satz 2.17 (Integrale uber Summe von Wahrscheinlichkeitsmaen). Sei I eine endliche oder abzahlbar
unendliche Indexmenge und seien (
k
)
kI
Wahrscheinlichkeitsmae auf einem festen mebaren Raum
(, /). Sei f :
/
R mebar und entweder f 0 oder f
k
-integrierbar f ur alle k I. F ur reelle
Koezienten p
k
0,

kI
p
k
= 1 wie oben erf ullt dann das Wahrscheinlichkeitsma =

kI
p
k

k
die Gleichung
_
f d =

kI
p
k
_
f d
k
.
Beweis. Siehe Matheorie. Man nutzt Elementarfunktionen und den Satz von der monotonen Konvergenz.
Bemerkung 2.18. Ist
x
das Dirac-Ma in x R, so gilt f ur
x
-integrierbares f (oder mebares f 0)
_
f d
x
= f (x) .
Ma- und Wahrscheinlichkeitstheorie
22 2 Grundbegrie der Wahrscheinlichkeitstheorie
Beweis. Es gen ugt, die Behauptung f ur mebares f 0 zu zeigen, denn andernfalls zerlegen wir f in f
+
und f

. Ist also f 0 mebar, so gilt


_
f d
x
= sup
__
d
x
[ ist Elementarfunktion mit 0 f
_
= sup(x) [ ist Elementarfunktion mit 0 f
f (x) .
Gleichheit folgt nun mit der Elementarfunktion = f (x)
{x}
.
Bemerkung 2.19. Damit gilt:
1. Ist P
X
=

kI
p
k

x
k
eine diskrete Verteilung, so folgt nun mit g (x) = [x[
n
, x R und dem
Transformationssatz wie oben
E ([X[
n
) =
_
g X dP
=
_
[x[
n
dP
X
=

kI
p
k
[x
k
[
n
. (2.1)
Ist der Ausdruck (2.1) ungleich , so gilt die selbe Rechnung auch ohne Betrage und das n-te
Moment von X ist gegeben als
E (X
n
) =

kI
p
k
x
n
k
.
2. Hat P
X
die Dichte f bez uglich , so folgt analog mit g (x) = [x[
n
, x R und Satz 1.66, dass
E ([X[
n
) =
_
g X dP
=
_
[x[
n
dP
X
. .
=f d
=
_
[x[
n
f (x) , d. (2.2)
Ist der Ausdruck (2.2) ungleich , so gilt die selbe Rechnung auch ohne Betrage und das n-te
Moment von X ist gegeben als
E (X
n
) =
_
x
n
f (x) d.
Denition 2.20. Sei X eine reelle Zufallsvariable mit E ([X[) < . Dann ist
V (X) := E
_
(X E (X))
2
_
[0, ]
die Varianz und (X) :=
_
V (X) die Standardabweichung von X.
Satz 2.21. F ur a, b R gilt mit der Konvention 0 = 0, dass
V (aX +b) = a
2
V (X) .
Beweis. Man setzt ein und verwendet die Linearitat E (aX +b) = aE (X) +b des Erwartungswertes.
Bemerkung 2.22. Wegen der Abschatzung [X[ X
2
+ 1 gilt f ur eine reelle Zufallsvariable X, dass
E
_
X
2
_
< E ([X[) < .
Genauer folgt sogar E ([X[) E
_
X
2
_
+ 1.
Satz 2.23. Sei X eine reelle Zufallsvariable mit E
_
X
2
_
< . Dann gilt
V (X) = E
_
X
2
_
(E (X))
2
< .
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 23
Beweis. Es gilt
V (X) = E
_
X
2
2XE (X) + (E (X))
2
_
= E
_
X
2
_
2E (X) E (X) + (E (X))
2
= E
_
X
2
_
(E (X))
2
,
wobei die Rechnung nach Voraussetzung zulassig ist, da das erste und zweite Moment von X endlich
sind. Das zeigt auch V (X) < .
Bemerkung 2.24 (ohne Beweis). Die Formel V (X) = E
_
X
2
_
(E (X))
2
gilt auch, wenn nur
E ([X[) <
vorausgesetzt wird. In diesem Fall kann V (X) = sein.
Aufgabe 2.25. Zeige, dass f ur eine reelle Zufallsvariable gilt:
E ([X[) <

n=1
P([X[ n) < .
2.3 Spezielle Verteilungen
F ur Hintergr unde und Rechnungen verweisen wir auch hier auf [Kre05, DH04].
2.3.1 Diskrete Verteilungen
Sei stets X : (, /, P)
/
R eine reelle Zufallsvariable.
1. Seien x
1
< x
2
< ... < x
n
aus R. Die Verteilung
P
X
=
n

k=1
1
n

x
k
ist die Gleichverteilung auf diesen Punkten. Es gilt
E (X) =
1
n
n

k=1
x
k
.
2. Die Binomialverteilung B(n, p) zu n N und p [0, 1] ist gegeben durch
P
X
=
n

k=0
_
n
k
_
p
k
(1 p)
nk

k
.
Sie entspricht dem Zahlen von Erfolgen und in diesem Fall ist
E (X) = n p und V (X) = n p (1 p) .
3. Die Poisson-Verteilung Poi () zu > 0 ist deniert durch
P
X
=

k=0
exp()

k
k!

k
.
Sie erf ullt E (X) = V (X) = .
Bemerkung 2.26 (Poisson-Grenzwertsatz). Aus [WB08] ist schon bekannt, dass f ur
n p
n
/
> 0, n
/

die Verteilungsfunktionen von B(n, p


n
) punktweise gegen die Verteilungsfunktion von Poi () kon-
vergiert. Darauf kommen wir auch spater nochmal zur uck.
Ma- und Wahrscheinlichkeitstheorie
24 2 Grundbegrie der Wahrscheinlichkeitstheorie
2.3.2 Stetige Verteilungen
1. ^ (0, 1) ist die Standard-Normalverteilung mit Dichte

0,1
=
1

2
exp
_

x
2
2
_
, x R.
Diese Dichte wird auch als Gausche Glockenkurve bezeichnet.
Die Verteilungsfunktion von ^ (0, 1) ist
(t) =
t
_

0,1
(x) dx.
Es gilt E (X) = 0 und V (X) = 1, wie man mit partieller Integration leicht sieht.
Ist X ^ (0, 1)
1
, und setzen wir Y := X + f ur , R mit ,= 0, so hat Y (bzw. das Ma
von Y ) die Dichte

,
2 =
1

2
2
exp
_

(x )
2
2
2
_
, x R.
Dies ist die Dichte der allgemeinen Normalverteilung ^
_
,
2
_
zu und
2
auf R mit E (Y ) =
und V (Y ) =
2
.
Bemerkung 2.27. Wir verweisen dazu auch auf [WB08], insbesondere auf den Abschnitt Trans-
formation von Dichten dort. Dort wie hier wird folgendes allgemeine Setting betrachtet:
Sei X : (, /, P)
/
(R, B(R)) eine Zufallsvariable mit Dichte f, d.h. es sei P
X
= f. Sei
auerdem g : (R, B(R))
/
(R, B(R)) mebar. Dann stellt sich die Frage, ob g X ebenfalls eine
Dichte hat und wenn ja welche.
Ist g invertierbar, sind sowohl g als auch g
1
mebar und hat g () die Dichte h bez uglich (d.h.
g () = h), so gilt
P
gX
= g
_
P
X
_
= g (f ) =
_
f g
1
_
g () =
_
f g
1
_
h
. .
Dichte von gX
.
Aufgabe 2.28. Zeige die Richtigkeit der obigen Rechnung!
In unserem Fall ist g (X) = x +, d.h. g
1
(y) = (y ) /, und da
g
1
((a, b]) =
_
a

,
b

_
gilt

_
g
1
((a, b])
_
=
1
[[
(a, b] ,
was g () = 1/ [[ zeigt.
2. Die Cauchy-Verteilung zu > 0. Sie hat die Dichte
f (x) =

2
+x
2
, x R.
Hier existieren weder Erwartungswert noch Varianz, da f ur x stets 2x
2

2
+x
2
, d.h.
[x[

2
+x
2

1
2x
gilt. Dies impliziert
E ([X[) =

[x[ f (x) dx
_

x
1
2x

dx = .
1
Damit meinen wir, dass X nach N (0, 1) verteilt sein soll.
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 25
3. Die Exponentialverteilung zu > 0 hat die Dichte
f (x) =
[0.)
(x) exp(x) , x R.
Die Verteilungsfunktion ist entsprechend F (x) =
[0.)
(x) (1 exp(x)) , x R. Partielle Inte-
gration zeigt
E (X) =
1

, V (X) =
1

2
.
4. Die Gleichverteilung auf A B(R
n
) mit
n
(A) (0, ) hat die Dichte
f (x) =
1

n
(A)

A
(x) , x R.
F ur B B(R
n
) gilt dann
P
X
(B) =
_
B
f d
n
=
1

n
(A)
_

A

n
=

n
(A B)

n
(A)
=
n
(B [ A) .
5. Die Standard-Normalverteilung

n
k=1
^ (0, 1) auf R
n
hat die Dichte
f (x
1
, ..., x
n
) =
0,1
(x
1
) ...
0,1
(x
n
) = (2)

n
2
exp
_

1
2
x
T
x
_
, x = (x
1
, ..., x
n
) R
n
.
Sei nun X

n
k=1
^ (0, 1), b R
n
und A R
nn
eine invertierbare Matrix. Betrachte die Funktion
g (x) = Ax +b, x R
n
. Dann ist g
1
(y) = A
1
(x b) und
g (
n
) =
1
det(A)

n
,
denn f ur Quader Q zeigt man in der Algebra / Matheorie, dass
g (
n
) (Q) =
n
_
g
1
(Q)
_
= det
_
A
1
_

n
(Q) .
Damit sieht man wie oben, dass Y := g (X) die Dichte
_
f g
1
_

1
det(A)
(x) =
1
(2)
n
2
det ()
exp
_

1
2
(x b)
T

1
(x b)
_
f ur die Kovarianzmatrix = AA
T
hat. Man erhalt so eine nicht ausgeartete Normalverteilung auf
dem R
n
.
6. Man kann sich nun die Frage stellen, ob jede Wahrscheinlichkeitsverteilung auf (R, B(R)) eine
gewichtete Summe a
1
+(1 a)
2
mit einer diskreten Wahrscheinlichkeitsverteilung
1
und einer
stetigen Wahrscheinlichkeitsverteilung (bzgl. )
2
ist.
Dies ist leider nicht der Fall, ein Gegenbeispiel liefert das sogenannte Cantor-Ma
C
auf R. Ist
C die Cantor-Menge (vergleiche [Hal98, Sec. 15, Ex. (5)]), so hat dieses Ma die Eigenschaften

C
(x) = 0 f ur alle x R (d.h.
C
hat keinen diskreten Anteil), aber

C
(C) = 1.
Da die Cantor-Menge C eine Nullmenge ist, kann
C
keine Dichte bez uglich haben, denn ware f
eine solche Dichte, so
1 =
C
(C) =
_
C
f d =
_

C
..
=0 fast sicher
f d = 0.

C
hat als Verteilungsfunktion die sogenannte Teufelsleiter oder Cantor-Funktion F
C
(vergleiche
[Hal98, Sec. 19, Ex. (3)]). Sie erf ullt
F
C
ist stetig,
F

C
existiert fast uberall und
F

C
= 0 wo existent.
Ma- und Wahrscheinlichkeitstheorie
26 2 Grundbegrie der Wahrscheinlichkeitstheorie
2.4 Unabhangigkeit
Denition 2.29. Sei (, /, P) ein Wahrscheinlichkeitsraum und I ,= eine beliebige Indexmenge.
1. F ur alle i I sei c
i
/. Die Familie c
i
, i I heit unabhangig, wenn
P
_
_

jJ
A
j
_
_
=

jJ
P(A
j
)
f ur alle endlichen Teilmengen J I und A
j
c
j
f ur alle j J.
2. Ereignisse A
i
, i I heien unabhangig, wenn
P
_
_

jJ
A
j
_
_
=

jJ
P(A
j
)
f ur alle endlichen Teilmengen J I gilt, d.h. wenn die Mengensysteme c
i
:= A
i
, i I un-
abhangig sind.
3. Seien X
i
: (, /, P)
/
(
i
, /
i
) f ur i I Zufallsvariablen. Die Zufallsvariablen X
i
, i I heien
unabhangig, wenn die Mengensysteme
c
i
:= X
1
i
/
i
=
_
X
1
i
(A
i
) [ A
i
/
i
_
, i I
unabhangig sind.

Aquivalent: Wenn die erzeugten -Algebren (X


i
) , i I unabhangig sind, vergleiche Denition
2.36.
Satz 2.30. Seien X
i
f ur i I unabhangige Zufallsvariablen wie in der Denition und
f
i
: (
i
, /
i
)
/
(

i
, /

i
)
mebare Funktionen. Dann sind auch die Zufallsvariablen
f
i
X
i
, i I
unabhangig.
Beweis. Es gilt
(f
i
X
i
)
1
(/

i
) = X
1
i
_
f
1
i
/

i
. .
A
i
_
X
1
i
/
i
.
Da per Denition Teilsysteme von unabhangigen Mengensystemen ebenfalls wieder unabhangig sind, folgt
die Behauptung.
Beispiel 2.31. Wir betrachten den zweifachen M unzwurf und die Ereignisse
A
1
= Erster Wurf ist Zahl,
A
2
= Zweiter Wurf ist Kopf ,
A
3
= Erster Wurf = Zweiter Wurf .
F ur i ,= j gilt dann
P(A
i
A
j
) =
1
4
= P(A
i
) P(A
j
) ,
d.h. die Ereignisse sind paarweise unabhangig. Aber sie sind wegen
P(A
1
A
2
A
3
) = 0 ,=
1
8
= P(A
1
) P(A
2
) P(A
3
)
nicht unabhangig.
Paarweise Unabhangigkeit impliziert also nicht Unabhangigkeit!
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 27
Satz 2.32 (Erzeugung unabhangiger Familien). Sei (, /, P) ein Wahrscheinlichkeitsraum und seien
c
i
, i I unabhangige Mengensysteme.
1. Dann sind die erzeugten Dynkin-Systeme T(c
i
) , i I unabhangig.
2. Ist c
i
-stabil f ur alle i I, so sind auch die erzeugten -Algebren (c
i
) , i I unabhangig.
3. Ist c
i
-stabil f ur alle i I und ist eine Partitionierung I =

kK
I
k
disjunkt f ur eine beliebige
Indexmenge K gegeben, so sind auch

_
_
iI
k
c
i
_
, k K
unabhangig.
Beweis. 1. Sei J I eine endliche Teilmenge, die wir ohne Einschrankung als J = 1, ..., n schreiben.
Es gen ugt nun zu zeigen, dass
T(c
1
) , c
2
, ..., c
n
unabhangig sind. Dazu setzen wir
T := F / [ F , c
2
, ..., c
n
sind unabhangig .
Nach Voraussetzung gilt c
1
T. Wir weisen nun nach, dass T ein Dynkin-System ist:
Oenbar gilt T, da A = A f ur alle A /.
Sei F T. Zu zeigen ist F
c
T. Sei dazu K J mit K = 1, i
1
, ..., i
k
. Dann gilt mit
A
i
j
c
i
j
f ur alle j = 1, ..., k wegen der vorausgesetzten Unabhangigkeit
P(F
c
A
i
1
... A
i
k
) = P
_
_
k

j=1
A
i
j
_
_
P
_
_
F
k

j=1
A
i
j
_
_
= (1 P(F))
. .
=P(F
c
)
k

j=1
P
_
A
i
j
_
.
D.h. F
c
ist ebenfalls unabhangig zu c
2
, ..., c
n
, also F
c
T.
Sei nun F
1
, F
2
, ... eine disjunkte Folge aus T, d.h. es gilt
P(F
m
A
i
1
... A
i
k
) = P(F
m
) P(A
i
1
) ... P(A
i
k
)
f ur alle m N und A
i
j
c
i
j
mit j = 1, ..., k wie oben. Die -Additivitat von P impliziert,
dass dann die Gleichung ebenfalls f ur die disjunkte Vereinigung der F
m
gilt.
Damit folgt T(E
1
) T und somit die Behauptung.
2. Da c
i
f ur alle i I -stabil ist, folgt mit Satz 1.12, dass T(E
i
) = (c
i
) f ur alle i I. Damit folgt
die Behauptung aus Teil 1.
3. F ur jedes k K sei c

k
das System aller endlichen Durchschnitte von Mengen aus

iI
k
c
i
. Oenbar
ist dann c

k
-stabil f ur jedes k K. In Aufgabe 2.33 sehen wir, dass (c

k
) =
_
iI
k
c
i
_
f ur alle
k K.
Nach Teil 2 gen ugt es damit zu zeigen, dass die Mengensysteme c

k
, k K unabhangig sind.
Sei dazu L K endlich und A
k
c

k
f ur alle k L. Dann ist
A
k
=

iJ
k
E
i
f ur bestimmte endliche Teilmengen J
k
I
k
und E
i
c
i
. Da die Teilmengen J
k
, k L disjunkt
sein m ussen und alle c
i
nach Voraussetzung unabhangig sind, gilt
P
_

kL
A
k
_
= P
_

kL

iJ
k
E
i
_
=

kL

iJ
k
P(E
i
)
=

kL
P
_

iJ
k
E
i
_
.
Ma- und Wahrscheinlichkeitstheorie
28 2 Grundbegrie der Wahrscheinlichkeitstheorie
Dies zeigt die Unabhangigkeit der c

k
, k K und somit die Behauptung.
Aufgabe 2.33. Es mogen die Voraussetzungen von Teil 3 des obigen Satzes erf ullt sein. Wie im Beweis
sei c

k
f ur k K das System aller endlichen Durchschnitte von Mengen aus

iI
k
c
i
. Zeige, dass
(c

k
) =
_
_
iI
k
c
i
_
f ur alle k K, d.h. dass c

k
bereits ein Erzeuger f ur
_
iI
k
c
i
_
ist.
Satz 2.34. Seien X
i
: (, /, P)
/
(
i
, /
i
) f ur i I mit beliebiger Indexmenge I Zufallsvariablen und
T
i
/
i
-stabile Erzeuger f ur i I. Dann gilt:
X
i
, i I sind unabhangig X
1
i
T
i
, i I sind unabhangig.
Beweis. Sind die Zufallsvariablen X
i
, i I unabhangig, so sind per Denition die Mengensysteme
X
1
i
/
i
, i I unabhangig. Da aber X
1
i
T
i
X
1
i
/
i
f ur i I, m ussen also auch diese Teilsysteme
unabhangig sein.
Es sei c

i
:= X
1
i
T
i
f ur i I. Da T
i
jeweils -stabil ist, muss auch c
i
jeweils -stabil sein. Aufgabe
2.35 zeigt, dass X
1
i
T
i
f ur jedes i I ein Erzeuger von X
1
i
/
i
ist. Anwenden von Satz 2.32 zeigt,
dass mit der Voraussetzung auch X
1
i
/
i
, i I unabhangig sind. Per Denition zeigt das die
Unabhangigkeit von X
i
, i I.
Aufgabe 2.35. Sei X : (, /, P)
/
(

, /

) eine Zufallsvariable und sei T ein -stabiler Erzeuger


f ur /

. Zeige, dass dann X


1
T ein Erzeuger der -Algebra X
1
/

ist.
Denition 2.36. Seien X
i
:
/
(
i
, /
i
) f ur i I beliebige Indexmenge Abbildungen. Dann ist
(X
i
, i I) :=
_
_
iI
X
1
i
/
i
_
die von den Abbildungen X
i
, i I erzeugte -Algebra. Sie ist die kleinste -Algebra auf derart, dass
alle X
i
, i I mebar sind.
Aufgabe 2.37. Sei X :
/
(

, /

) eine Abbildung aus in den mebaren Raum (

, /

). Zeige, dass
dann

_
X
1
/

_
= X
1
/

gilt, d.h. dass X


1
/

bereits eine -Algebra ist.


Beispiel 2.38. Sei #I = 1 und X :
/
(

, /

). Dann ist gema Aufgabe 2.37


(X) =
_
X
1
/

_
= X
1
/

,
Denition 2.39. Seien (
i
, /
i
) f ur i I mebare Raume und sei
:=

iI

i
=
_
(
i
)
iI
[
i

i
f ur alle i I
_
der Produktraum. F ur festes j I ist die Projektion auf j gegeben als

j
:
/

j
,
j
_
(
i
)
iI
_
=
j
.
Die Produkt -Algebra auf ist

iI
/
i
:= (
i
, i I) .
Satz 2.40. Seien X
i
:
/
(
i
, /
i
) f ur i I Abbildungen. Dann ist
(X
i
, i I) = X
1

iI
/
i
f ur X = (X
i
)
iI
:
/
_
iI

i
,

iI
/
i
_
mit X () := (X
i
())
iI
.
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 29
Beweis. Nach Konstruktion ist X
i
= X
i
. Per Denition ist

iI

1
i
/
i
ein Erzeuger f ur

iI
/
i
.
Nach Aufgabe 2.35 ist dann
X
1

iI
/
i
=
_
X
1
_
_
iI

1
i
/
i
__
=
_
_
iI
_
X
1

1
i
. .
=X
1
i
/
i
__
.
Dies zeigt die Behauptung.
Beispiel 2.41. F ur i = 1, 2 folgt
(X
1
, X
2
) = (X
1
, X
2
)
1
(/
1
/
2
) .
Dies zeigt etwa, dass es zu A (X
1
, X
2
) ein B /
1
/
2
mit
/ = (X
1
, X
2
)
1
B = [ (X
1
() , X
2
()) B
geben muss.
Beispiel 2.42 (Blockungslemma 1). Sind X
1
, ..., X
10
unabhangige Zufallsvariablen (mit Bild in (
i
, /
i
)
entsprechend), so sind auch
(X
1
, ..., X
3
) , (X
4
, ..., X
9
) , X
10
unabhangig.
Beweis. Wir setzen I
1
:= 1, 2, 3, I
2
:= 4, 5, 6, 7, 8, 9 und I
3
:= 10. Dann ist I =

3
k=1
I
k
und nach
Satz 2.32, Teil (3) mit c
i
:= X
1
i
/
i
, i I (diese Mengen sind als -Algebren - vergleiche Aufgabe 2.37
- -stabil) sind auch

_
_
iI
k
X
1
i
/
i
_
, k = 1, 2, 3
unabhangig. Nun verwenden wir Satz 2.40 und sehen

_
_
iI
k
X
1
i
/
i
_
=
_
(X
i
)
iI
k
_
1

iI
k
/
i
,
wobei die linken Seiten bzgl. k = 1, 2, 3 unabhangig sind. Das zeigt die Behauptung.
Satz 2.43 (Blockungslemma 2). Gilt I =

kJ
I
k
disjunkt und sind X
i
, i I unabhangige Zufallsvaria-
blen, so sind auch
(X
i
)
iI
k
, k J
unabhangig.
Beweis. Analog zu Beispiel 2.42.
Bemerkung 2.44. Zusammen mit Satz 2.30 sehen wir also, dass sowohl Partitionierung als auch das
Verkn upfen mit Funktionen die Unabhangigkeit von Zufallsvariablen erhalten.
Beispiel 2.45. Sind X
1
, ..., X
5
unabhangige reelle Zufallsvariablen, so sind auch
X
1
exp(X
3
) , X
4
X
5
sin(X
2
)
unabhangig.
Denition 2.46. Seien X
i
: (, /, P)
/
(
i
, /
i
) f ur i = 1, ..., n Zufallsvariablen.
Die gemeinsame Verteilung von X
1
, ..., X
n
ist die Verteilung P
(X
1
,...,X
n
)
der Zufallsvariablen
(X
1
, ..., X
n
) : (, /, P)
/
_
n

i=1

i
,
n

i=1
/
i
_
.
Satz 2.47. Seien X
i
: (, /, P)
/
(
i
, /
i
) f ur i = 1, ..., n Zufallsvariablen. Dann sind X
1
, ..., X
n
unabhangig genau dann, wenn P
(X
1
,...,X
n
)
= P
X
1
... P
X
n
gilt.
Ma- und Wahrscheinlichkeitstheorie
30 2 Grundbegrie der Wahrscheinlichkeitstheorie
Beweis. Sei A
i
/
i
f ur i = 1, ..., n. Es gilt stets
P
(X
1
,...,X
n
)
(A
1
... A
n
) = P
_
(X
1
, ..., X
n
)
1
(A
1
... A
n
)
_
= P
_
X
1
1
A
1
... X
1
n
A
n
_
. (2.3)
Auerdem hat man zum einen, dass P
((X
1
,...,X
n
)
= P
X
1
... P
X
n
genau dann, wenn die linke Seite
von (2.3) gleich
P
_
X
1
1
A
1
_
... P
_
X
1
n
A
n
_
=
n

i=1
P
X
i
(A
i
)
ist, und zum anderen, dass X
1
, ..., X
n
genau dann unabhangig sind, wenn die rechte Seite von (2.3) gleich
n

i=1
P
X
i
(A
i
)
ist. Das zeigt die Behauptung.
Satz 2.48. Seien X
1
, ..., X
n
unabhangige reelle Zufallsvariablen, die alle 0 oder alle integrierbar sind.
Dann gilt
E
_
n

i=1
X
i
_
=
n

i=1
E (X
i
) . (2.4)
Beweis. Wir verwenden den Transformationssatz 1.68 f ur die Funktion g (x
1
, ..., x
n
) :=

n
i=1
[x
i
[. Dann
folgt mit der Unabhangigkeit der Zufallsvariablen und dem Satz von Tonelli (Satz 1.80)
E
_
n

i=1
[X
i
[
_
=
_
g (x
1
, ..., x
n
) dP
=
_
g (x
1
, ..., x
n
) dP
(X
1
,...,X
n
)
=
_
[x
1
[ ... [x
n
[ d
_
P
X
1
... P
X
n
_
=
_
...
_
[x
1
[ ... [x
n
[ P
X
1
... dP
X
n
=
n

i=1
_
[x
i
[ dP
X
i
=
n

i=1
E ([X
i
[) .
Falls also alle X
i
0 sind, so gilt die behauptete Gleichung (2.4).
Sind alle X
i
integrierbar, so zeigt die Rechnung, dass dann auch

n
i=1
X
i
integrierbar ist und die selbe
Rechnung ohne Betrage (mit Fubini anstelle von Tonelli, selber Satz) zeigt ebenfalls (2.4).
Lemma 2.49. Seien X, Y Zufallsvariablen mit E
_
X
2
_
< und E
_
Y
2
_
< . Dann gilt auch
E ([X Y [) < .
Beweis. F ur alle reellen Zahlen a, b gilt 0 (a +b)
2
, womit ab 1/2
_
a
2
+b
2
_
folgt. Nun integrieren wir
diese Gleichung uber mit a := [X ()[ und b = [Y ()[. Dies zeigt die Behauptung.
Denition 2.50. Seien X, Y Zufallsvariablen mit E
_
X
2
_
< und E
_
Y
2
_
< . Dann ist die Kovarianz
von X und y deniert als
Cov (X, Y ) := E ((X E (X)) (Y E (Y ))) = E (X Y ) E (X) E (Y ) .
Ist Cov (X, Y ) = 0, so heien X und Y unkorelliert.
Bemerkung 2.51. Gema Lemma 2.49 ist die Kovarianz unter den gemachten Voraussetzungen wohl-
deniert.
Ma- und Wahrscheinlichkeitstheorie
2 Grundbegrie der Wahrscheinlichkeitstheorie 31
Beispiel 2.52. Seien X und Y unabhangige reelle Zufallsvariablen. Dann gilt E (X Y ) = E (X) E (Y )
gema (2.4). Daher sind X und Y also unkorelliert.
Allerdings gilt die Umkehrung nicht zwingend!
Satz 2.53. Seien X
1
, ..., X
n
reelle Zufallsvariablen mit E
_
X
2
i
_
< f ur alle i = 1, ..., n. Dann gilt
V
_
n

i=1
X
i
_
=
n

i=1
V (X
i
) +
n

i,j=1
i=j
Cov (X
i
, X
j
) .
Beweis. Oenbar konnen wir ohne Einschrankung E (X
i
) = 0 f ur alle i = 1, ..., n annehmen, da sich bei
Ersetzen von X
i
durch X
i
E (X
i
) beide Seiten der Gleichung nicht andern.
Damit gilt
V
_
n

i=1
X
i
_
= E
_
_
_
n

i=1
X
i
_
2
_
_
= E
_
_
n

i,j=1
X
i
X
j
_
_
=
n

i,j=1
E (X
i
X
j
)
=
n

i=1
E
_
X
2
i
_
. .
=V (X
i
)
+
n

i,j=1
i=j
E (X
i
X
j
)
. .
=Cov(X
i
,X
j
)
.
Das zeigt die Behauptung.
2.5 Unendliche Produkte von Wahrscheinlichkeitsraumen
Seien (
i
, /
i
, P
i
) Wahrscheinlichkeitsraume f ur i I mit beliebiger Indexmenge I. F ur J I beliebig
sei

J
:=

iJ

i
und
/
J
:=

iJ
/
i
.
Sei auerdem
J
:
I
/

J
die Projektion

J
_
(x
i
)
iI
_
:= (
i
)
iJ
auf die Koordinaten J.
Satz 2.54. Auf (
I
, /
I
) gibt es genau ein Wahrscheinlichkeitsma P mit

J
(P) =

iJ
P
i
=: P
J
f ur alle endlichen Teilmengen J I. P heit Produktma.
Beweis (Skizze). F ur den genauen Beweis verweisen wir etwa auf [Bau01, Abschnitt 9].
1. Zunachst deniert man durch
/
0
:=
_
JI
J endlich

1
J
/
J
die Algebra aller Zylindermengen
1
J
A f ur J I endlich und A /
J
.
2. Dann zeigt man

iI
/
i
= (/
0
) .
Ma- und Wahrscheinlichkeitstheorie
32 2 Grundbegrie der Wahrscheinlichkeitstheorie
3. Nun zeigt man, dass durch A
0
=
1
J
A
j
P
J
(A
J
) ein wohldeniertes Prama auf /
0
gegeben
ist (sehr aufwandig!).
4. Zuletzt wendet man den Satz von Caratheodory (Satz 1.25) an.
Beispiel 2.55 (unendlicher M unzwurf). Es sei I = N,
i
= 0, 1, /
i
= T (
i
) f ur alle i I und das
Wahrscheinlichkeitsma P
i
sei durch
P
i
(0) =
1
2
= P
i
(1)
f ur alle i I gegeben. Dann ist

iI

i
= 0, 1
N
=
_
(x
i
)
iN
[ x
i
0, 1 f ur alle i N
_
.
Der Satz besagt, dass es auf
_
iI

i
,

iI
/
i
_
genau ein Ma P gibt, welches die endlichen Produkte
der P
i
(die einem endlichen M unzwurf entsprechen) sinnvoll fortsetzt.
Denition 2.56. Unter den Voraussetzungen von Satz 2.54 schreiben wir f ur das Profuktma P auch
P =

iI
P
i
und nennen
_

iI

i
,

iI
/
i
,

iI
P
i
_
den Produktwahrscheinlichkeitsraum.
Bemerkung 2.57. Ist I endlich, so entspricht das eben denierte Produktma

iI
P
i
genau den
endlichen Produktma aus Satz 1.74.
Satz 2.58 (Anwendung). Seien (
i
, /
i
, P
i
) f ur i I Wahrscheinlichkeitsraume. Dann gibt es einen
Wahrscheinlichkeitsraum (, /, P) und unabhangige Zufallsvariablen
X
i
: (, /, P)
/
(
i
, /
i
)
f ur i I derart, dass P
X
i
= P
i
f ur alle i I.
Beweis. Wir setzen
(, /, P) :=
_

iI

i
,

iI
/
i
,

iI
P
i
_
und denieren X
i
:=
i
f ur i I. Dann ist P
X
i
=
i
(P) = P
i
nach Konstruktion (mit J = i) f ur
alle i I. Die Unabhangigkeit sieht man wie folgt:
Sei J I endlich, d.h. J = j
1
, ..., j
n
. Dann gilt
P
(X
1
,...,X
n
)
=
J
(P)
= P
j
1
... P
j
n
= P
X
j
1
... P
X
j
n
,
woraus die Unabhangigkeit der X
i
, i I folgt.
Beispiel 2.59. Dieser Satz sichert z.B. die Existenz einer Folge unabhangiger Zufallsvariablen X
1
, X
2
, ...,
die alle normalverteilt mit Parametern ,
2
sind.
Ma- und Wahrscheinlichkeitstheorie
3 0-1-Gesetze 33
3 0-1-Gesetze
Wir beschreiben hier Ereignisse, die nur Wahrscheinlichkeit 0 oder 1 haben konnen.
Satz 3.1 (Lemma von Borel-Cantelli). Sei (, /, P) ein Wahrscheinlichkeitsraum und sei (A
n
)
nN
eine
Folge aus /. Man setzt nun
limsupA
n
:=

_
m=1

mn
A
m
= [ A
n
f ur unendlich viele n N .
Dann gilt:
1. Ist

n=1
P(A
n
) < , so ist P(limsupA
n
) = 0.
2. Sind die Ereignisse A
n
, n N unabhangig und ist

n=1
P(A
n
) = , so ist
P(limsupA
n
) = 1.
Beweis. 1. Sei

n=1
P(A
n
) < . Dann liefert die Monotonie des Maes zusammen mit der Boole-
schen Ungleichung
P(limsupA
n
) = P
_
_

n=1
_
mn
A
m
_
_
P
_
_
_
mk
A
m
_
_
f ur alle k N

m=k
P(A
m
) f ur alle k N
k
/

/
0,
da die Reihe konvergiert.
2. Seien die Ereignisse A
n
, n N unabhangig und

n=1
P(A
n
) = .
Es gen ugt zu zeigen, dass

m=n
A
m
f ur alle n N Wahrscheinlichkeit 1 hat, denn dann ist das
Komplement eine Nullmenge und
_
_

n=1
_
mn
A
m
_
_
c
=

_
n=1
_
_
_
mn
A
m
_
_
c
ist als abzahlbare Vereinigung von Nullmengen ebenfalls wieder eine Nullmenge, d.h.
P
_
_

n=1
_
mn
A
m
_
_
= 1.
Sei also n N beliebig und k > n. Dann gilt mit Benutzung von 1 + x exp(x) f ur alle x R,
Ma- und Wahrscheinlichkeitstheorie
34 3 0-1-Gesetze
dass
P
_
_
_
mn
A
m
_
_
P
_
k
_
m=n
A
m
_
= 1 P
_
k

m=n
A
c
m
_
= 1
k

m=n
(1 P(A
m
))
1 exp
_

m=n
P(A
m
)
. .
k
/

_
k
/

/
1,
wobei wir verwendet haben, dass nach Satz 2.32, Teil 3 auch (A
n
) , n N unabhangig und somit
nach Satz 2.32, Teil 2 auch A
c
n
, n N unabhangig sind. Es folgt P(limsupA
n
) = 1.
Korollar 3.2. Seien A
n
, n N unabhangige Ereignisse. Dann gilt
P(limsupA
n
) 0, 1
und das Lemma von Borel-Cantelli liefert ein Kriterium, um zwischen 0 oder 1 zu entscheiden.
Beispiel 3.3. Seien X
1
, X
2
, ... unabhangig Bernoulli-verteilt mit Parameter p [0, 1]. Wir setzen
A
n
:= X
n
= 1 = X
1
n
1 .
Da die Zufallsvaribalen X
n
, n N unabhangig sind, sind auch die Ereignisse A
n
, n N unabhangig. Da
P(A
n
) = p f ur alle n N folgt mit dem Lemma von Borel-Cantelli, dass
P(X
n
= 1 unendlich oft) =
_
0 falls p = 0,
1 falls p > 0.
Beispiel 3.4. Seien X
1
, X
2
, ... unabhangige reelle Zufallsvariablen und seien B
1
, B
2
, ... B(R). Dann
gilt
P(X
i
B
i
f ur unendlich viele i N) = P
_
limsupX
1
i
B
i
_
0, 1
nach Borel-Cantelli.
Wir wollen uns nun mit der Frage befassen, ob es eine Folge von Erfolgswahrscheinlichkeiten (p
i
)
iN
derart gibt, s.d. f ur X
1
, X
2
, ... unabhangig und X
i
Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p
i
gilt:
P
_
lim
n
1
n
n

i=1
X
i
=
1
2
_
=
1
5
. (3.1)
Satz 3.5 (0-1-Gesetz von Kolmogrov). Sei (, /, P) ein Wahrscheinlichkeitsraum und /
n
, n N seien
unabhangige Teil--Algebren von /, d.h. /
n
/ f ur alle n N.
Dann gilt f ur jedes Ereignis
E /

:=

n=1
_
_

_
_
_
mn
/
m
_
_
_
_
,
dass P(E) 0, 1. Ereignisse E /

heien auch terminale Ereignisse.


Ma- und Wahrscheinlichkeitstheorie
3 0-1-Gesetze 35
Beweis. Sei E /

beliebig. Als -Algebren sind die Mengensysteme /


m
, m N oenbar -stabil.
Teil 3 des Sates 2.32 liefert, dass auch

_

_
m=n+1
/
m
_
und
_
n
_
m=1
/
m
_
f ur beliebiges n N unabhangig sind. Nach Voraussetzung gilt E
_

m=n+1
/
m
_
f ur alle n N, und
daher sind auch
E und
_
n
_
m=1
/
m
_
f ur beliebiges n N unabhangig. Es folgt, dass
E und

_
n=1

_
n
_
m=1
/
m
_
unabhangig sind. Das zweite Mengensystem ist dabei -stabil, da (

n
m=1
/
m
) bez uglich n N aufstei-
gend ist
1
. Wiederum mit Satz 2.32, Teil 2 folgt, dass auch
E und
_

_
n=1

_
n
_
m=1
/
m
__
unabhangig sind. Per Denition gilt
E
_

_
m=1
/
m
_
=
_

_
m=1
(/
m
)
_

_

_
n=1

_
n
_
m=1
/
m
__
,
womit E von sich selbst unabhangig sein muss. Das zeigt
P(E) = P(E E) = P(E) P(E) ,
also P(E) 0, 1.
Beispiel 3.6 (Anwendung). Seien X
1
, X
2
, ... unabhangige reelle Zufallsvariablen auf (, /, P). Durch
/
n
:= X
1
n
B(R) , n N
denieren wir unabhangige -Algebren, f ur die
/

n=1

_
_
_
mn
X
1
m
B(R)
_
_
=

n=1
(X
m
, m n)
gilt, d.h. in /

liegen genau die Ereignisse, die mit X


1
, X
2
, ... beschrieben werden konnen, aber nicht von
endlich vielen X
i
abhangen (d.h. endlich viele X
i
konnen ohne Veranderung des Ereignisses weggelassen
werden). Insbesondere ist
E =
_
lim
n
1
n
n

i=1
X
i
= c
_
=
_
lim
m
m>n
1
m
m

i=n
X
i
= c
_
(X
m
, m n) = /

f ur festes c R, d.h. die Gleichung (3.1) ist nach dem 0-1-Gesetz von Kolmogrov f ur keine Folge von
Erfolgswahrscheinlichkeiten (p
i
)
iN
erf ullt.
1
zu A, B
S

n=1

`S
n
m=1
A
m

ndet man ein n N mit A, B


`S
n
m=1
A
m

, und da es sich hierbei um eine -Algebra


handelt, ist auch A B
`S
n
m=1
A
m

n=1

`S
n
m=1
A
m

.
Ma- und Wahrscheinlichkeitstheorie
36 3 0-1-Gesetze
Ein zweiter Beweis des 0-1-Gesetzes von Kolmogrof kann gegeben werden mit folgendem
Lemma 3.7. Sei (, /, P) ein Wahrscheinlichkeitsraum und /
0
eine Algebra, die / erzeugt, Dann gilt:
Zu jedem > 0 und A / gibt es ein A
0
/
0
mit
P(AA
0
) <
f ur AA
0
:= (A A
0
) (A
0
A) = (A A
0
) (A A
0
).
Beweis. Sei

P die Erweiterung von P
|
A
0
auf / gema Satz 1.25. Dann gilt

P
|
A
0
= P
|
A
0
und da /
0
-stabil ist und alle hier betrachteten Maraume als Wahrscheinlichkeitsraume zwangslaug
-endlich sind, folgt ebenfalls aus Satz 1.25, dass
P =

P.
Sei nun > 0 und A / beliebig. Die Konstruktion der Erweiterung

P liefert, dass es A
1
, A
2
, ... /
0
mit
A

_
i=1
A
i
=: A

und P(A)

i=1
P(A
i
)

2
gibt. Somit folgt aus der Booleschen Ungleichung
P(A

A) = P(A

) P(A)

i=1
P(A
i
)
_

i=1
P(A
i
)

2
_
=

2
.
Sei nun N N so gro, dass
P
_
A

N
_
i=1
A
i
_
<

2
.
Wir setzen A
0
:=

N
i=1
A
i
und erhalten mit A, A
0
A

und der Monotonie des Maes


P(AA
0
) = P(A A
0
) +P(A
0
A)
P(A

A
o
) +P(A

A)
<

2
+

2
=
wie behauptet.
Aufgabe 3.8. Beweise das 0-1-Gesetz von Kolmogorov, indem folgende Ideen ausgearbeitet werden:
Zeige, dass es f ur jedes k N eine Menge C
k
aus

m=1
/
m
gibt mit P(C
k
E) < 1/k und s.d.
C
k
unabhangig von E ist.
In jedem Wahrscheinlichkeitsraum (, /, P) gilt
[P(A) P(B)[ P(AB)
f ur alle A, B /.
Folgere, dass P(C
k
E) sowohl gegen P(E) als auch gegen (P(E))
2
konvergiert und damit
P(E) 0, 1 gilt.
Denition 3.9. Seien X
1
, X
2
, ... Zufallsvariablen. Ein Ereignis A (X
1
, X
2
, ...) heit symmetrisch,
falls es f ur jede endliche Permutation
2
der nat urlichen Zahlen eine Menge B

(B(R))
N
gibt, s.d.
A = (X
1
, X
2
, ...) B

=
__
X
(1)
, X
(2)
, ...
_
B

_
gilt.
2
Eine endliche Permution der nat urlichen Zahlen ist eine Bijektion : N
/
N mit #{n N | (n) = n} < .
Ma- und Wahrscheinlichkeitstheorie
3 0-1-Gesetze 37
Satz 3.10 (0-1-Gesetz von Hewitt-Savage). Seien X
1
, X
2
, ... unabhangige, identisch verteile Zufallsva-
riablen. Dann hat jedes symmetrische Ereignis Wahrscheinlichkeit 0 oder 1.
Beweis. Sei A (X
1
, X
2
, ...) und > 0 beliebig. Gema Aufgabe 3.11 ist dann
A
_

_
n=1
(X
1
, ..., X
n
)
_
und mit Lemma 3.7 nden wir ein C

n=1
(X
1
, ..., X
n
) derart, dass P(AC

) < .
Sei nun n so gewahlt, dass C

(X
1
, ..., X
n
) = (X
1
, ..., X
n
)
1
B(R
n
) gilt, wobei wir Satz 2.40 benutzt
haben. Es gibt also ein D

B(R
n
), s.d.
C

= (X
1
, ..., X
n
) D

.
Setze nun C

:= (X
n+1
, ..., X
2n
) D

. Nach dem Blockungslemma sind dann C

und C

unabhangig.
Wir betrachten die endliche Permutation : N
/
N,
(k) :=
_

_
k +n falls k 1, ..., n ,
k n falls k n + 1, ..., 2n ,
n falls k > 2n,
k N.
Nach Voraussetzung nden wir ein B

derart, dass
A = (X
1
, X
2
, ...) B

=
__
X
(1)
, X
(2)
, ...
_
B

_
.
Dann ist
P(C

A) =P
_
(X
n+1
, ..., X
2n
) D


__
X
(1)
, X
(2)
, ...
_
B

__
=P
___
X
(1)
, X
(2)
, ...
_

_
D

R
N
_
B

__
=P
__
(X
1
, X
2
, ...)
_
D

R
N
_
B

__
=P((X
1
, ..., X
n
) D

(X
1
, X
2
, ...) B

)
=P(C

A)
< ,
wobei benutzt haben, dass die Zufallsvariablen X
1
, X
2
, ... unabhangig und identisch verteilt sind (in der
Form, dass P
(X
1
,X
2
,...)
= P
(X
(1)
,X
(2)
,...)
gilt).
Damit haben wir f ur 0 sofort
P(C

A) = P(C

A)
/
0.
Das bedeutet
P(C

)
/
P(A) , P(C

)
/
P(A) , P(C

)
/
P(A) f ur 0.
Da aber C

und C

stets unabhangig sind, folgt so


P(A) = P(A)
2
,
was P(A) 0, 1 erzwingt.
Aufgabe 3.11. Seien X
1
, X
2
, ... unabhangige, identisch verteilte Zufallsvariablen. Zeige, dass
(X
1
, X
2
, ...) =
_

_
n=1
(X
1
, ..., X
n
)
_
gilt und dass

n=1
(X
1
, ..., X
n
) eine Algebra ist.
Ma- und Wahrscheinlichkeitstheorie
38 3 0-1-Gesetze
Beispiel 3.12. Seien X
1
, X
2
, ... unabhangig mit
P(X
i
= 1) =
1
2
= P(X
i
= 1) f ur alle i N.
Setze S
n
:=

n
i=1
X
i
und sei (c
n
)
nN
eine beliebige Folge aus R. Dann ist
A = S
n
c
n
f ur unendlich viele n N
kein terminales Ereignis bez uglich der X
1
, X
2
, ..., da endlich viele X
i
den Wert der Summe (beliebig!)
beeinussen konnen, aber daf ur handelt es sich um ein symmetrisches Ereignis mit
A = (X
1
, X
2
, ...) B f ur B =
_
(x
1
, x
2
, ...) R
N

i=1
x
i
c
n
f ur unendlich viele n N
_
.
Beachte, dass B hier nicht von der Permutation abhangt. Daher folgt aus dem 0-1-Gesetz von Hewitt-
Savage, dass
P(A) 0, 1 .
Gesetz vom iterierten Logarithmus:
Man kann zeigen, dass f ur
c
n
:= (1 +)
_
2nlog log n
mit > 0 beliebig P(A) = 0 gilt, aber f ur
c
n
:= (1 )
_
2nlog log n
mit > 0 beliebig P(A) = 1 gilt.
Ma- und Wahrscheinlichkeitstheorie
4 Wahrscheinlichkeitsungleichungen und L
p
-Raume 39
4 Wahrscheinlichkeitsungleichungen und
L
p
-Raume
4.1 Wahrscheinlichkeitsungleichungen
In diesem Kapitel seien alle verwendeten Zufallsvariablen auf einem generischen Wahrscheinlichkeitsraum
(, /, P) deniert.
Satz 4.1 (Tschebyschow-Markov-Ungleichung). Sei X eine reelle Zufallsvariable und g : [0, )
/
[0, )
eine monoton wachsende Funktion mit g (x) > x f ur alle x > 0. Dann gilt
P([X[ )
E (g [X[)
g ()
f ur alle > 0.
Beweis. Da g monoton ist, muss g mebar sein. Man berechnet
E (g [X[) =
_
g [X[ dP

_
g [X[
{|X|}
dP

_
g ()
{|X|}
dP
= g () P([X[ ) .
Umstellen dieses Resultats liefert wegen g () > 0 die Behauptung.
Korollar 4.2 (Markov-Ungleichung). Sei X eine reelle Zufallsvariable und r > 0. Dann gilt
P([X[ )
E ([X[
r
)

r
f ur alle > 0.
Beweis. Man wendet Satz 4.1 mit g (x) = x
r
an.
Korollar 4.3 (Tschebyschow-Ungleichung). Sei X eine integrierbare Zufallsvariable. Dann gilt
P([X E (X)[ )
V (X)

2
f ur alle > 0.
Beweis. Man wendet Satz 4.1 auf die Zufallsvariable X E (X) mit g (x) = x
2
an.
Satz 4.4 (Jensensche Ungleichung). Sei I R ein oenes Intervall und g : I
/
R eine konvexe Funktion.
Sei X eine integrierbare Zufallsvariable mit Werten in I. Dann ist E (X) I und falls g X ebenfalls
integrierbar ist, so gilt
g (E (X)) E (g (X)) .
Beweis. Wir schreiben I = (a, b) mit a [, ) und b (, ]. Wir zeigen zunachst, das E (X) I
gilt:
F ur b = ist E (X) < b wegen der vorausgesetzten Integrierbarkeit von X trivial, und anderenfalls
setzen wir b
n
:= b 1/n f ur n N. Dann ist

n=1
X < b
n
= aufsteigend, d.h. es existiert ein n N
mit P(X < b
n
) > 0. F ur dieses n nden wir
E (X) b P(X b
n
) +b
n
P(X < b
n
) < b (P(X b
n
) +P(X < b
n
)) = b.
Analog zeigt man E (X) > a.
Da g konvex ist, nden wir ein c R derart, dass
g (x) g (E (X)) +c (x E (X))
. .
=:L(x)
f ur alle x I.
Ma- und Wahrscheinlichkeitstheorie
40 4 Wahrscheinlichkeitsungleichungen und L
p
-Raume
Abbildung 4.1: Skizze der konvexen Funktion g und der der Geraden L, die komplett unter g liegt und g
in x = E (X) ber uhrt.
In dieser Ungleichung ersetzen wir x durch X und integrieren uber , das liefert
E (g (X)) g (E (X)) +c E (X E (X))
. .
=0
wie behauptet.
Beispiel 4.5. Wir betrachten etwa die Funktion g (x) = x
2
mit I = R. Dann folgt f ur eine reelle
Zufallsvariable mit endlichem zweiten Moment
(E (X))
2
E
_
X
2
_
,
was mit der Tatsache korrespondiert, dass V (X) 0.
4.2 L
p
-Raume
Sei (, /, ) hier stets ein allgemeiner Maraum.
Denition 4.6 (L
p
-Raume). F ur 1 p < ist
L
p
(, /, ) :=
_
f :
/
R

f ist mebar und es gilt


_
[f[
p
d <
_
.
Auf L
p
(, /, ) denieren wir
|f|
p
:=
__
[f[
p
d
_1
p
, f L
p
(, /, ) .
Spezialfall: Ist (, /, P) ein Wahrscheinlichkeitsraum, so nennen wir L
p
(, /, P) den Raum aller
p-fach integrierbaren Zufallsvariablen (denn es gilt E ([X[
p
) < f ur X L
p
(, /, P)).
Satz 4.7 (ohne Beweis). 1. Seien p, q > 1 mit 1/p + 1/q = 1. Dann gilt f ur f L
p
(, /, ),
g L
q
(, /, ), dass (Holdersche Ungleichung)
|f g|
1
|f|
p
|g|
q
,
und insbesondere ist f g L
1
(, /, ).
Ma- und Wahrscheinlichkeitstheorie
4 Wahrscheinlichkeitsungleichungen und L
p
-Raume 41
2. Sei 1 p < und seien f, g L
p
(, /, ). Dann ist (Minkowskische Ungleichung)
|f +g|
p
|f|
p
+|g|
p
und insbesondere ist f +g L
p
(, /, ).
Bemerkung 4.8 (Formulierung des letzten Satzes f ur Zufallsvariablen). 1. Sind X und Y reellwer-
tige Zufallsvariablen mit E ([X[
p
) < und E ([Y [
q
) < f ur 1 < p, q < mit 1/p + 1/q = 1, so
gilt
E ([XY [) (E ([X[
p
))
1
p
(E ([Y [
q
))
1
q
.
2. Sind X und Y reellwertige Zufallsvariablen mit E ([X[
p
) < und E ([Y [
p
) < f ur 1 p < ,
so gilt
(E ([X +Y [
p
))
1
p
(E ([X[
p
))
1
p
+ (E ([Y [
p
))
1
p
.
Korollar 4.9 (Lyapunov-Ungleichung). Sei (, /, P) ein Wahrscheinlichkeitsraum und X eine reelle
Zufallsvariable auf demselben. F ur 0 < s < r < gilt dann
E ([X[
s
) (E ([X[
r
))
s
r
.
Insbesondere impliziert E ([X[
r
) < auch E ([X[
s
) < f ur alle s < r und es gilt
L
r
(, /, ) L
s
(, /, )
f ur s < r.
Beweis. Dies folgt aus der Holderschen Ungleichung mit Y = 1, p = r/s und q entsprechend, da
E ([X[
s
) = |X|
s
s
= |[X[
s
1|
1
|[X[
s
|r
s
= (|X|
r
r
)
s
r
= (E ([X[
r
))
s
r
gilt.
Bemerkung 4.10. Die Lyapunov-Ungleichung ist in nicht endlichen Maraumen falsch.
Satz 4.11 (von Riesz-Fischer - ohne Beweis). Sei 1 p < beliebig. Ist (f
n
)
nN
L
p
(, /, ) eine
Cauchy-Folge, d.h. gibt es zu > 0 ein N N derart, dass f ur alle n, m N sofort |f
n
f
m
|
p
< gilt,
so existiert ein f L
p
(, /, ) mit
|f
n
f|
p
n
/

/
0.
Bemerkung 4.12. L
p
(, /, ) ist ein reeller Vektorraum (siehe Minkowskysche Ungleichung) und |[
p
ist eine Halbnorm darauf, d.h. sie ist positiv, homogen und erf ullt die Dreiecksungleichung, ist aber nicht
denit.
Man erhalt einen normierten Vektorraum L
p
(, /, ), indem man

Aquivalenzklassen

f := g L
p
(, /, ) [ f g = 0 fast sicher
bildet und dann mit Reprasentanten arbeitet.
Nach dem Satz von Fischer-Riesz ist
L
p
(, /, ) , p 1
dann ein Banachraum, d.h. ein vollstandiger normierter Raum.
F ur p = 2 erhalt man einen speziellen Banachraum, namlich den Hilbertraum L
2
(, /, ) mit dem
Skalarprodukt
f, g)
2
=
_
fg d, f, g L
2
(, /, )
und |f|
2
=
_
f, f)
2
f ur f L
2
(, /, ).
Hierbei haben wir bereits Funktionsklassen mit Vertretern identiziert, und da diese fast sicher gleich
sind, ist diese Identikation konsistent. In der Praxis wird nicht genau zwischen f L
p
(, /, ) und

f L
p
(, /, ) unterschieden.
Ma- und Wahrscheinlichkeitstheorie
42 4 Wahrscheinlichkeitsungleichungen und L
p
-Raume
Bemerkung 4.13 (p = ). Wir setzen
L

(, /, ) := f :
/
R [ f ist mebar und es gibt ein M > 0 derart, dass [f[ M fast sicher .
Auf diesem Raum denieren wir
|f|

:= inf M [ [f[ M fast sicher , f L

(, /, ) .
Dieser Ausdruck wird auch als essentielles Supremum von f bezeichnet.
Aufgabe 4.14. Zeige, dass f ur f L

(, /, )
[f[ |f|

fast sicher
gilt.
Bemerkung 4.15. Die Minkowskysche Ungleichung sowie der Satz von Fischer-Riesz gelten auch in
L

(, /, ).
Die Holdersche Ungleichung gilt auch im Fall p = 1, q = .
F ur Zufallsvariablen (d.h. auf einem Wahrscheinlichkeitsraum) gilt
E ([X[
s
) |X|
s

f ur alle 1 s < . Insbesondere hat man dort eine Einbettung


L

(, /, P) L
s
(, /, P)
f ur jedes 1 s < .
Der Raum L

(, /, ) wird nun analog zu L


p
(, /, ) konstruiert.
Ma- und Wahrscheinlichkeitstheorie
5 Konvergenzbegrie 43
5 Konvergenzbegrie
Seien X, X
1
, X
2
, ... stets reelle Zufallsvariablen auf einem Wahrscheinlichkeitsraum (, /, P).
Denition 5.1. 1. Wir sagen, die Folge (X
n
)
nN
von Zufallsvariablen konvergiert fast sicher gegen
X und schreiben
X
n
f.s.
n
/

/
X,
falls
P
__

X
n
()
n
/

/
X ()
__
= 1.
2. Sei 1 r . Wir sagen, die Folge (X
n
)
nN
von Zufallsvariablen konvergiert im r-ten Mittel
gegen X und schreiben
X
n
L
r
n
/

/
X,
falls X
n
L
r
(, /, P) f ur alle n N, X L
r
(, /, P) und
lim
n
E ([X
n
X[
r
) = 0.
Im Fall r = 1 spricht man auch von Konvergenz im Mittel.
3. Wir sagen, die Folge (X
n
)
nN
von Zufallsvariablen konvergiert stochastisch gegen X und schreiben
X
n
P
n
/

/
X,
falls
lim
n
P
__

[X
n
() X ()[ >
__
= 0
f ur alle > 0.
Bemerkung 5.2. Es gibt in der Wahrscheinlichkeitstheorie noch einen weiteren wichtigen Konvergenz-
begri, namlich Konvergenz in Verteilung, f ur welchen wir
X
n
D
n
/

/
X
schreiben. Wir verweisen daf ur auf Kapitel 7, Abschnitt 7.2. Dieser Konvergenzbegri unterscheidet sich
in sofern von den anderen, dass f ur diesen die Zufallsvariablen X
n
auf verschiedenen Wahrscheinlich-
keitsraumen deniert sein d urfen.
Wir geben nun einen kurzen

Uberblick uber den Zusammenhang zwischen den verschiedenen Konvergenz-
begrien:
X
n
X
f.s.
/
X
n
X
n
/

/
X
n
X
L
r
/
X
n
X
n
/

/
X
X
n
Satz 5.6
#
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
X
X
n
Satz 5.9
C




















X
n
X
P
/
X
n
X
n
/

/
X X
n
Satz 7.11
3
X
n
X
D
/
X
n
X
n
/

/
Allerdings impliziert X
n
f.s.
n
/

/
X nicht X
n
L
r
n
/

/
X, und auch die Umkehrung ist falsch.
Ma- und Wahrscheinlichkeitstheorie
44 5 Konvergenzbegrie
Aufgabe 5.3. 1. Es gelte X
n
P
n
/

/
X auf einem Wahrscheinlichkeitsraum (, /, P). Sei g :
R
/
R eine stetige Funktion. Zeige, dass dann auch
g X
n
P
n
/

/
g X.
2. Es gelte X
n
f.s.
n
/

/
X auf einem Wahrscheinlichkeitsraum (, /, P). Sei g : R
/
R eine stetige
Funktion. Zeige, dass dann auch
g X
n
f.s.
n
/

/
g X.
Lemma 5.4. Wir setzen A
n
() := [X X
n
[ > und B
m
() :=

nm
A
n
() f ur > 0.
1. Es gilt X
n
f.s.
n
/

/
X genau dann, wenn lim
m
P(B
m
()) = 0 f ur alle > 0.
2. Gilt

n=1
P(A
n
()) < f ur alle > 0, so folgt X
n
f.s.
n
/

/
X.
Beweis. 1. Wir setzen C :=
_

X
n
()
n
/

/
X ()
_
.
X
n
f.s.
n
/

/
X bedeutet P(C) = 1. Sei > 0 beliebig. Dann gilt

m=1
_
nm
A
n
() [ X
n
() konvergiert nicht gegen X () f ur n
/

C
c
und somit ist
P
_

m=1
B
m
()
_
= P
_
_

m=1
_
nm
A
n
()
_
_
= 0.
Da B
1
() B
2
() ... folgt mit der Stetigkeit des Maes von oben, dass
lim
n
P(B
n
()) = 0.
Nach Voraussetzung gilt insbesondere
P
_
B
m
_
1
k
__
m
/

/
0
f ur alle k N. Hier impliziert die Stetigkeit von oben somit
P
_

m=1
B
m
_
1
k
_
_
= 0
f ur alle k N, d.h.
P
_

_
m=1
_
B
m
_
1
k
__
c
_
= 1
f ur alle k N. Wie bereits gesehen, bleibt diese Eigenschaft auch f ur einen abzahlbaren Schnitt
solcher Mengen erhalten, also
P
_

k=1

_
m=1
_
B
m
_
1
k
__
c
_
= 1.
Allerdings ist die Menge, deren Wahrscheinlichkeit hier bestimmt wird, genau C und die Be-
hauptung ist gezeigt.
Ma- und Wahrscheinlichkeitstheorie
5 Konvergenzbegrie 45
2. F ur alle > 0 gilt
P(B
m
())

nm
P(A
n
())
m
/

/
0,
womit die Behauptung aus Teil 1 des Lemmas folgt.
Aufgabe 5.5. Zeige Teil 2 des Lemmas direkt ohne Verwendung von Teil 1 mit Hilfe des Satzes von
Borel-Cantelli.
Satz 5.6. Gilt X
n
f.s.
n
/

/
X, so auch X
n
P
n
/

/
X.
Beweis. Wir arbeiten mit den Bezeichnungen des Lemmas. Dann gilt
A
m
() B
m
()
und somit folgt nach Teil 1 des Lemmas
X
n
f.s.
n
/

/
X P(B
m
())
m
/

/
0 f ur alle > 0
P(A
m
())
m
/

/
0 f ur alle > 0
X
n
P
n
/

/
X,
was die Behauptung zeigt.
Bemerkung 5.7. Die Umkehrung dieser Aussage gilt nicht, d.h.
X
n
P
n
/

/
X ,X
n
f.s.
n
/

/
X.
Wir geben daf ur nun ein
Beispiel 5.8. Wir betrachten den Wahrscheinlichkeitsraum ([0, 1] , B([0, 1]) , ) mit dem Lebesguema .
Wir denieren eine Folge von Zufallsvariablen durch
X
2
n
+k
:=
[
k
2
n ,
k+1
2
n ]
, k = 0, ...., 2
n
1, n N.
Oenbar konvergiert X
n
() f ur kein [0, 1], da sowohl der Wert 0 als auch der Wert 1 beliebig oft
angenommen wird. Allerdings ist
P([X
2
n
+k
[ > ) =
1
2
n
f ur k = 0, ..., 2
n
1, n N und (0, 1) ,
weshalb nat urlich X
n
P
n
/

/
0 gilt.
Satz 5.9. Sei 1 s r und gelte X
n
L
r
n
/

/
X. Dann gilt auch X
n
P
n
/

/
X und X
n
L
s
n
/

/
X.
Beweis. Mit der Markov-Ungleichung (f ur das r aus der Voraussetzung) gilt
P([X
n
X[ )
E ([X
n
X[
r
)

r
n
/

/
0
nach Voraussetzung f ur alle > 0, d.h. es gilt auch X
n
P
n
/

/
X.
Die Lyapunov-Ungleichung impliziert
E ([X
n
X[
s
) E ([X
n
X[
r
)
s
r
n
/

/
0
f ur das vorgegebene s nach Voraussetzung. Das zeigt X
n
L
s
n
/

/
X.
Ma- und Wahrscheinlichkeitstheorie
46 5 Konvergenzbegrie
Satz 5.10. Gilt X
n
P
n
/

/
X, so gibt es eine Teilfolge
_
X
n(k)
_
kN
mit
X
n(k)
f.s.
k
/

/
X.
Beweis. Nach Voraussetzung gilt
Y
n
:= [X
n
X[
P
n
/

/
0.
Da Y
n
0 ist, nden wir n(1) < n(2) < n(3) < ... derart, dass
P
_
Y
n(k)
> 2
k
_
< 2
k
.
Sei nun A
k
:=
_
Y
n(k)
> 2
k
_
. Dann gilt

k=1
P(A
k
) <

k=1
2
k
= 1 < ,
womit aus dem Satz von Borel-Cantelli
P(limsupA
n
) = 0
folgt. Dies bedeutet, dass mit Wahrscheinlichkeit 1 nur endlich viele A
k
eintreten, also
P
_
Y
n(k)
2
k
_
= 1
f ur k hinreichend gro. Dies zeigt Y
n(k)
f.s.
k
/

/
0 und somit die Behauptung.
Beispiel 5.11. F ur die Folge von Zufallsvariablen aus Beispiel 5.8 tut es etwa die Teilfolge
X
n(k)
:= X
2
k.
Satz 5.12. Es gilt X
n
P
n
/

/
X genau dann, wenn jede Teilfolge X
n
k
eine Teilfolge X
n
k
(i)
mit
X
n
k
(i)
f.s.
i
/

/
X enthalt.
Beweis. Da Teilfolgen konvergenter Folgen oenbar wieder konvergieren, gilt X
n
k
P
n
/

/
X. Mit
dem Satz oben folgt die Behauptung.
Wir nehmen an, dass X
n
nicht stochastisch gegen X konvergiert. Dann gibt es also , > 0 und
eine Teilfolge X
n
k
derart, dass
P([X
n
k
X[ > ) >
f ur alle k N. Insbesondere kann also keine Teilfolge von X
n
k
stochastisch konvergieren, und
somit gema Satz 5.6 auch keine Teilfolge fast sicher. Es existiert also keine fast sicher konvergente
Teilfolge von X
n
k
im Widerspruch zur Voraussetzung.
Aufgabe 5.13. Finde ein Beispiel, welches zeigt, dass X
n
f.s.
n
/

/
X nicht X
n
L
r
n
/

/
X impliziert.
Bemerkung 5.14. Beachte, dass damit auch X
n
P
n
/

/
X nicht X
n
L
r
n
/

/
X impliziert (denn
schlielich impliziert fast sichere Konvergenz auch stochastische Konvergenz).
Bemerkung 5.15. Ist (X
n
)
nN
eine Folge in L
r
mit E ([X
n
X
m
[
r
)
n,m
/

/
0, d.h. eine Cauchy-
Folge, so existiert nach dem Satz von Riesz-Fischer ein X L
r
mit
X
n
L
r
n
/

/
X.
Aufgabe 5.16. Es gelte X
n
L
r
n
/

/
X. Zeige, dass dann auch E ([X
n
[
r
)
n
/

/
E ([X[
r
) gilt.
Zeige zusatzlich f ur r = 1, dass E (X
n
)
n
/

/
E (X) unter den gemachten Voraussetzungen.
Ma- und Wahrscheinlichkeitstheorie
6 Gesetze der groen Zahlen 47
6 Gesetze der groen Zahlen
Seien stets X
1
, X
2
, ... reelle Zufallsvariablen auf einem Wahrscheinlichkeitsraum (, /, P).
Denition 6.1. Sei X
i
P-integrierbar f ur alle i N, d.h. es gelte E ([X
i
[) < f ur alle i N. Wir
sagen, die Folge (X
i
)
iN
erf ullt das schwache Gesetz der groen Zahlen, wenn
1
n
n

i=1
(X
i
E (X
i
))
P
n
/

/
0
gilt.
Wir sagen, sie erf ullt das starke Gesetz der groen Zahlen, wenn
1
n
n

i=1
(X
i
E (X
i
))
f.s.
n
/

/
0
gilt.
6.1 Schwache Gesetze
Satz 6.2. Seien X
i
, i N paarweise unkorrelierte reelle Zufallsvariablen (d.h. Cov (X
i
, X
j
) = 0 f ur
i ,= j) mit E
_
X
2
i
_
< . Auerdem gelte
lim
n
1
n
2
n

i=1
V (X
i
) = 0.
Dann erf ullt die Folge (X
i
)
iN
das schwache Gesetz der groen Zahlen.
Beweis. Wir setzen Y
i
:= X
i
E (X
i
), i N. Dann gilt E (Y
i
) = 0 und Aufgabe 6.3 liefert Cov (Y
i
, Y
j
) = 0
f ur i ,= j.
F ur S
n
:=

n
i=1
Y
i
gilt dann E (1/n S
n
) = 0 und daher liefert die Tschebyschow-Ungleichung und die
paarweise Unkorreliertheit der Y
i
, dass
P
_

1
n
S
n


_
= P
_

1
n
S
n
E
_
1
n
S
n
_

2
V
_
1
n
S
n
_
=
1
n
2

2
V (S
n
)
=
1
n
2

2
n

i=1
V (Y
i
)
. .
=V (X
i
)
.
Nach Voraussetzung geht dieser Ausdruck f ur n
/
gegen 0, daher folgt die Behauptung.
Aufgabe 6.3. Seien X
1
, X
2
unkorrelierte reelle Zufallsvariablen (d.h. Cov (X
1
, X
2
) = 0). Setze
Y
i
:= X
i
E (X
i
) f ur i = 1, 2. Zeige, dass auch Cov (Y
1
, Y
2
) = 0 gilt.
Korollar 6.4. Seien X
1
, X
2
, ... unabhangige, identisch verteilte Zufallsvariablen mit E
_
X
2
i
_
< . Dann
sind die Voraussetzungen von Satz 6.2 erf ullt und es folgt
1
n
n

i=1
X
i
P
n
/

/
E (X
1
) .
Wir werden dieses Korollar in Satz 6.9 noch verbessern.
Ma- und Wahrscheinlichkeitstheorie
48 6 Gesetze der groen Zahlen
6.2 Starke Gesetze
Wir wollen in diesem Abschnitt ein starkes Gesetz zeigen. Gema Lemma 5.4 m ussen wir dazu f ur
S
n
:=

n
i=1
(X
i
E (X
i
)), n N zeigen, dass
P
_
_
_
nm

1
n
S
n


_
_
m
/

/
0
f ur alle > 0 gilt, und nicht nur wie im letzten Abschnitt
P
_

1
n
S
n


_
n
/

/
0
f ur alle > 0. Daf ur brauchen wir eine Art Premimum-Version der Tschebyschow-Ungleichung, die
sogenannte Hajek-Renyi-Ungleichung. Zur Vorbereitung bringen wir folgendes
Lemma 6.5. Seien Z
m
, Z
m+1
, ..., Z
n
0 Zufallsvariablen mit E (Z
i
) < f ur alle m i n. F ur > 0
und Z
m1
:= 0 gilt
P
_
sup
min
Z
i

_

i=m
_
B
i
(Z
i
Z
i1
) dP,
wobei B
i
:=

i1
j=m1
Z
j
< ist (insbesondere gilt B
m
= ).
Beweis. Es sei A
i
:= Z
i
f ur m1 i n und A :=

n
i=m
A
i
=
_
sup
min
Z
i

_
. Dann gen ugt
es zu zeigen, dass

A

1

i=m
(Z
i
Z
i1
)
B
i
punktweise gilt, denn Integration dieser Ungleichung liefert die Behauptung. Dazu unterscheiden wir f ur
festes zwei Falle:
/ A In diesem Fall ist
A
() = 0 und Z
i
() < f ur alle m i n. Daher gilt B
m
... B
n
und
es folgt
1

i=m
(Z
i
() Z
i1
())
B
i
()
. .
=1
=
1

_
Z
n
() Z
m1
()
. .
=0
_
0 =
A
() .
A In diesem Fall nden wir einen kleinsten Index j m, m+ 1, ..., n mit der Eigenschaft A
j
,
d.h. Z
j
() . Dann gilt Z
i
() < f ur alle m i j 1 und Z
j
() . Damit ist B
i
f ur
alle m i j und / B
i
f ur j + 1 i n. Damit folgt
1

i=m
(Z
i
() Z
i1
())
B
i
() =
1

i=m
(Z
i
() Z
i1
()) =
1

Z
j
() 1,
da Z
j
() nach Wahl von j
Damit ist die Ungleichung gezeigt und das Lemma bewiesen.
Satz 6.6 (Hajek-Renyi-Ungleichung). Seien X
1
, ..., X
n
unabhangige reellwertige Zufallsvariablen mit
E ([X
i
[) < f ur alle 1 i n. Seien >
1
...
n
> 0 reelle Zahlen. Wir setzen
S
i
:=
i

j=1
(X
j
E (X
j
)) f ur 1 i n.
Dann gilt f ur jedes > 0 und jeden Index 1 m n
P
_
sup
min

i
[S
i
[
_

2
_
_

2
m
m

j=1
V (X
j
) +
n

j=m+1

2
j
V (X
j
)
_
_
.
Ma- und Wahrscheinlichkeitstheorie
6 Gesetze der groen Zahlen 49
Beweis. Ohne Einschrankung konnen wir E (X
i
) = 0 und V (X
i
) < f ur alle i N annehmen, da die
behauptete Ungleichung sonst trivial ist oder wir X
i
durch X
i
E (X
i
) ersetzen konnen.
Wir setzen Z
i
:=
2
i
S
2
i
f ur m i n. Dann gilt mit obigem Lemma
P
_
sup
min

i
[S
i
[
_
= P
_
sup
mil
Z
i

2
_

2
n

i=m
_
B
i
(Z
i
Z
i1
) dP.
Wir berechnen nun die Terme der rechten Seite:
1. F ur i = m ergibt sich wegen B
m
= , Z
m1
= 0, E (X
i
) = 0 und der Unabhangigkeit der Zufalls-
variablen
_
B
i
(Z
i
Z
i1
) dP =
_
Z
m
dP
=
2
m
_
S
2
m
dP
=
2
m
V (S
m
)
=
2
m
m

j=1
V (X
j
) .
2. F ur m < i n ergibt sich wegen E (X
i
) = 0 sofort
Z
i
=
2
i
(S
i1
+X
i
)
2
=
2
i
S
2
i1
+ 2
2
i
S
i1
X
i
+
2
i
X
2
i
,
woraus mit Hilfe des Blockungslemmas und Satz 2.48
_
b
i
(Z
i
Z
i1
) dP =
_

2
i

2
i1
_
. .
0
_
b
i
S
2
i1
dP
. .
0
+2
2
i
_

B
i
S
i1
X
i
dP+
2
i
_
B
i
X
2
i
dP
2
2
i
E ((
B
i
S
i1
) X
i
) +
2
i
_
X
2
i
dP
= 2
2
i
E (
B
i
S
i1
) E (X
i
)
. .
=0
+
2
i
V (X
i
)
=
2
i
V (X
i
) .
folgt.
Zusammensetzen dieser beiden Teile und der Abschatzung von oben ergibt die Behauptung.
Bemerkung 6.7. Mit m = n = 1 und
1
= 1 erhalt man die gewohnliche Tschebyschow-Unglei-
chung.
Mit m = 1 und
i
= 1 f ur 1 i n erhalt man die sogenannte Kolmogorov-Ungleichung:
P
_
_
sup
1in

j=1
(X
j
E (X
j
))


_
_

2
n

j=1
V (X
j
) .
Satz 6.8. Seien X
1
, X
2
, ... unabhangig mit E
_
X
2
n
_
< f ur alle n N und sei

n=1
1
n
2
V (X
n
) < .
Dann erf ullt die Folge (X
n
)
nN
das starke Gesetz der groen Zahlen, d.h. es gilt
1
n
n

i=1
(X
i
E (X
i
))
f.s.
n
/

/
0.
Ma- und Wahrscheinlichkeitstheorie
50 6 Gesetze der groen Zahlen
Beweis. Wir schreiben S
i
:=

i
j=1
(X
j
E (X
j
)) f ur i N. Nun setzt man
B
m
() :=
_
im
_

1
i
S
i


_
f ur m N und > 0. Gema Lemma 5.4 gen ugt es zu zeigen, dass
P(B
m
())
m
/

/
0
f ur alle > 0 gilt. Verk urzend schreiben wir V
j
:= V (X
j
). Sei > 0 beliebig. Nach Voraussetzung nden
wir ein M N mit

j=M+1
1
j
2
V
j
<

2

2
.
F ur m M liefert nun die Stetigkeit des Maes und die Hajek-Renyi-Ungleichung f ur
i
= 1/i
P(B
m
()) = lim
n
P
_
_
_
min
_
1
i
[S
i
[
_
_
_
= lim
n
P
_
sup
min
1
i
[S
i
[
_

2
_
_
1
m
2
m

j=1
V
j
+

j=m+1
1
j
2
V
j
_
_

2
_
_
1
m
2
M

j=1
V
j
+

j=M+1
1
j
2
V
j
_
_

2
1
m
2
M

j=1
V
j
+

2
,
wobei wir 1/m
2
1/j
2
f ur M < j m benutzt haben. Nun verwenden wir diese Ungleichung mit m M
so gro, dass
1
m
2

2
_
_
M

j=1
V
j
_
_
1
und erhalten so P(B
m
()) < . Da > 0 beliebig war, ist die Behauptung gezeigt.
Sind die Zufallsvariablen X
1
, X
2
, ... unabhangig und identisch verteilt, so gen ugt die Existenz des Erwar-
tungswerts (und dies ist die bereits angek undigte Verbesserung von Korollar 6.4):
Satz 6.9 (Starkes Gesetz f ur unabhangige, identisch verteilte Zufallsvariablen). Seien X
1
, X
2
, ... un-
abhangige, identisch verteilte Zufallsvariablen, die alle integrierbar sind (d.h. E ([X
1
[) < ). Dann gilt
1
n
n

i=1
X
i
f.s.
n
/

/
E (X
1
) ,
d.h. die Folge (X
n
)
nN
erf ullt das starke Gesetz der groen Zahlen.
Beweis. 1. Stutzen (truncation):
Wir denieren
Y
n
:=
_
X
n
falls [X
n
[ n,
0 sonst.
Mit I
n
:= [n, n] f ur n N gilt Y
n
= (
I
n
X
n
) X
n
f ur alle n N und diese Darstellung liefert
zusammen mit der identischen Verteilung
E (Y
n
) =E ((
I
n
X
n
) X
n
)
=E ((
I
n
X
1
) X
1
)
n
/

/
E (X
1
) ,
Ma- und Wahrscheinlichkeitstheorie
6 Gesetze der groen Zahlen 51
wobei wir den Lebesgueschen Konvergenzsatz mit (
I
n
X
1
) X
1
n
/

/
X
1
punktweise und
[(
I
n
X
1
) X
1
[ [X
1
[ , X
1
L
1
benutzt haben. Mit dem aus der Analysis bekannten Cesaro-
Mittel folgt
1
n
n

i=1
E (Y
i
)
n
/

/
E (X
1
) .
2. GGZ f ur (Y
n
)
nN
:
Mit
Y
2
n
= (
I
n
X
n
) X
2
n
=
n

i=1
(
H
i
X
n
) X
2
n
f ur H
i
:= I
i
I
i1
, 2 i n erhalten wir

n=1
1
n
2
V (Y
n
)

n=1
1
n
2
E
_
Y
2
n
_
=

n=1
1
n
2
n

i=1
E
_
(
H
i
X
i
) X
2
i
_
=

i=1

n=i
1
n
2
. .

2
i
E
_
(
H
i
X
i
) X
2
i
_
2

i=1
_
X
1
i
(H
i
)
[X
i
[
[X
i
[
i
..
1
dP
2E ([X
i
[)
= 2E ([X
1
[) ,
da

i=1
X
1
i
(H
i
) = disjunkt. Daher ist Satz 6.8 anwendbar und es gilt
1
n
n

i=1
(Y
i
E (Y
i
))
f.s
n
/

/
0,
weshalb wir mit Teil 1 dieses Beweises
1
n
n

i=1
Y
i
f.s.
n
/

/
E (X
1
)
sehen.
3. Borel-Cantelli:
Wir setzen C
n
:= X
n
,= Y
n
f ur n N. Unter Verwendung von Aufgabe 2.25 erhalten wir
>

n=1
P([X
1
[ n)

n=1
P([X
1
[ > n) =

n=1
P(C
n
) .
Daher folgt mit dem Satz von Borel-Cantelli P(limsupC
n
) = 0, d.h. fast sicher gilt X
n
,= Y
n
f ur
nur endlich viele n N. Das zeigt
1
n
n

i=1
X
i
f.s.
n
/

/
E (X
1
)
wie behauptet.
Nun wollen wir noch die Frage diskutieren, ob die Voraussetzungen an den Satz minimal sind, d.h. ob
1
n
n

i=1
X
i
f ur unabhangige, identisch verteilte reelle Zufallsvariablen X
1
, X
2
, ... fast sicher konvergieren kann, ohne
das E ([X
1
[) < gilt.
Ma- und Wahrscheinlichkeitstheorie
52 6 Gesetze der groen Zahlen
Satz 6.10. Seien X
1
, X
2
, ... unabhangig und identisch verteilt und es gelte
1
n
n

i=1
X
i
f.s.
n
/

/
Y
f ur irgendeine Zufallsvariable Y . Dann ist E ([X
1
[) < und es gilt Y = E (X
1
) fast sicher.
Beweis. Nach Voraussetzung gilt
1
n
X
n
() =
1
n
n

i=1
X
i
()
. .
n
/

/
Y () fast sicher

n 1
n
. .
n
/

/
1
1
n 1
n1

i=1
X
i
()
. .
n
/

/
Y () fast sicher
n
/

/
0 fast sicher,
und daher gilt f ur C
n
:= [1/nX
n
[ 1, dass
P(limsupC
n
) = 0.
Nach dem zweiten Teil des Satzen von Borel-Cantelli folgt mit der Unabhangigkeit der C
n
, n N, dass

n=1
P(C
n
) < .
Die identische Verteilung der X
n
zeigt damit

n=1
P([X
1
[ n) =

n=1
P([X
n
[ n) =

n=1
P(C
n
) < ,
womit aus Aufgabe 2.25 sofort E ([X
1
[) < folgt. Wegen Satz 6.9 muss nun Y = E (X
1
) gelten.
Ma- und Wahrscheinlichkeitstheorie
7 Schwache Konvergenz und Konvergenz in Verteilung 53
7 Schwache Konvergenz und Konvergenz in
Verteilung
7.1 Schwache Konvergenz von Wahrscheinlichkeitsmaen
Sei F eine Verteilungsfunktion auf R und sei das nach Korollar 1.31 dazugehorige Wahrscheinlichkeits-
ma auf (R, B(R)).
Dann gilt f ur beliebiges x R unter Verwendung der Stetigkeit des Maes von unten:
F ist stetig in x F ist linksstetig in x
lim
n
F (x
n
) = F (x) f ur jede monoton wachsende Folge x
n
x, n
lim
n
((, x
n
]) = ((, x]) f ur jede monoton wachsende Folge x
n
x, n
((, x)) = ((, x])
(x) = 0.
Dar uber hinaus ist A
n
:= x R [ (X) 1/n f ur jedes n N endlich (diese Menge kann wegen
(R) = 1 und der Monotonie des Maes hochstens n Elemente enthalten), und daher ist
x R [ F ist nicht stetig in x =

_
n=1
A
n
als Vereinigung abzahlbar vieler endlicher (und somit abzahlbarer) Mengen wieder abzahlbar.
Wir setzen
C
F
:= x R [ F ist stetig in x .
Denition 7.1. Eine Folge von Wahrscheinlichkeitsmaen (
n
)
nN
auf (R, B(R)) konvergiert schwach
gegen ein Wahrscheinlichkeitsma auf (R, B(R)), falls
F
n
(x)
n
/

/
F (x) f ur alle x C
F
,
wobei F
n
und F die zu
n
und entsprechend gehorenden Verteilungsfunktionen bezeichnen.
In diesem Fall schreiben wir auch

n
schwach
n
/

/
.
Bemerkung 7.2. Mit obigen Berechnungen sehen wir sofort, dass

n
schwach
n
/

/

n
((, x])
n
/

/
((, x]) f ur alle x R mit (x) = 0.
Beispiel 7.3. Wir benutzen hier wieder die Dirac-Mae

x
(A) =
_
1 falls x A,
0 sonst
f ur x R und A B(R).
1. Es sei
n
:=
n
das Dirac-Ma im Punkt n N. Oenbar gilt in diesem Fall
F
n
=
[n,)
,
d.h. es liegt F
n
n
/

/
0 punktweise vor, aber die konstante 0-Funktion ist keine Verteilungs-
funktion! Daher konvergiert (
n
)
nN
nie schwach gegen ein Wahrscheinlichkeitsma auf (R, B(R))
Ma- und Wahrscheinlichkeitstheorie
54 7 Schwache Konvergenz und Konvergenz in Verteilung
(denn dann ware F (x) = 0 f ur alle x C
F
f ur die zu diesem Wahrscheinlichkeitsma gehorende
Verteilungsfunktion F was aber
lim
x
F (x) = lim
x
xC
F
F (x) = 0
widersprache).
2. Es sei
n
:=
1/n
f ur n N. Dann gilt oenbar
F
n
=
[
1
n
,)
.
F ur die Verteilungsfunktion F =
[0,)
zu =
0
ist dann C
F
= R 0 und es gilt
F
n
(x)
n
/

/
F (x) f ur alle x C
F
.
Also folgt

n
schwach
n
/

/
=
0
.
Beachte, dass auch F
n
(0) konvergiert, allerdings gegen 0 und nicht gegen F (0) = 1.
3. Es sei
n
:=
(1)
n
1/n
f ur n N. Dann gilt oenbar
F
n
=
[
(1)
n
n
,)
.
Auch hier folgt

n
schwach
n
/

0
,
aber im Gegensatz zum letzten Beispiel konvergiert
F
n
(0) =
_
0 falls n 2N,
1 falls n / 2N
nicht.
Aufgabe 7.4. Es sei

n
:=
n1

i=0
1
n
i
n
.
Zeige, dass dann

n
schwach
n
/

|
[0,1]
f ur das eingeschrankte Lebesgue-Ma
|
[0,1]
auf [0, 1].
Denition 7.5. Sei ein Wahrscheinlichkeitsma auf (R, B(R)). Eine Menge A B(R) heit -randlos,
falls
(A) = 0,
wobei A = AA

den topologischen Rand, A den topologischen Abschluss und A

das topologische Innere


von A bzgl. der Standard-Topologie auf R bezeichnet.
Satz 7.6. F ur Wahrscheinlichkeitsmae (
n
)
nN
und auf (R, B(R)) sind aquivalent:
1. Es gilt
n
schwach
n
/

/
.
2. Es gilt
_
f d
n
/
_
f d f ur alle f C
b
(R), dem Raum aller stetigen und beschrankten reellwer-
tigen Funktionen auf R.
3. Es gilt
n
(A)
n
/

/
(A) f ur alle -randlosen Mengen A B(R).
Beweis. Wir zeigen die Behauptung per Ringschluss.
Ma- und Wahrscheinlichkeitstheorie
7 Schwache Konvergenz und Konvergenz in Verteilung 55
1. 2. Sei D := X R [ (x) > 0 oder
n
(x) > 0 f ur irgendein n N. Dann ist D als abzahlbare
Vereinigung von abzahlbaren Mengen wieder abzahlbar.
Sei nun f C
B
(R). Dann gibt es ein K R mit [f (x)[ K f ur alle x R. Sei nun > 0. Dann
nden wir a < b mit ((a, b]) > 1 /K.
Auf dem kompakten Intervall [a, b] ist f gleichmaig stetig, d.h. wir nden Punkte a = x
0
< x
1
<
... < x
N
= b aus D
c
mit
[f (x) g (x)[ < f ur alle x (a, b]
f ur die Funktion g =

N1
i=0
f (x
i+1
)
(x
i
,x
i+1
]
.
Nun gilt

_
f d
n

_
f d

_
f d
n

_
g d
n

. .
=:I
1
+

_
g d
n

_
g d

. .
=:I
2
+

_
g d
_
f d

. .
=:I
3
.
Da
n
schwach
n
/

/
gilt

n
((x
i
, x
i+1
]) = F
n
(x
i+1
) F
n
(x
i
)
n
/

/
F (x
i+1
) F (x
i
) = ((x
i
, x
i+1
])
f ur alle i N und somit gibt es ein n
0
N mit
I
2
=

N1

i=0
f (x
i+1
)
n
((x
i
, x
i+1
])
N1

i=0
f (x
i+1
) ((x
i
, x
i+1
])

<
f ur alle n n
0
.
Nun wahlen wir n
1
n
0
s.d.
n
((a, b]) > 1 /K f ur n n
1
(dies ist wegen der schwachen
Konvergenz ebenfalls moglich). Dann folgt
I
1

_
[f g[ d
=
_
(a,b]
c
[f g[
. .
=|f|
d
n
+
_
(a,b]
[f g[
. .

d
n

_
1
_
1

K
__
K +
= 2
f ur n n
1
.
F ur I
3
folgt analog I
3
2 und dies zeigt

_
f d
n

_
f d

5.
f ur alle n n
1
.
2. 3. Sei zunachst C = A eine abgeschlossene Menge. Wir setzen
d (x, C) := inf
yC
[x y[ f ur x R.
Sei nun C
k
:= x R [ d (x, C) < 1/k . Damit erhalten wir Mengen mit

k=1
C
k
= C und C
1

C
2
..., d.h. mit der Stetigkeit des Maes von oben folgt
(C
k
)
k
/

/
C. (7.1)
Wir setzen nun f
k
(x) := 1 min1, k d (x, C) f ur k N. Dann ist jedes f
k
eine gleichmaig
Ma- und Wahrscheinlichkeitstheorie
56 7 Schwache Konvergenz und Konvergenz in Verteilung
Abbildung 7.1: Skizze der reellwertigen Funktion f
k
.
stetige Funktion mit Werten in [0, 1] und f
k|
C
= 1, f
k|
C
c
k
= 0. Damit folgt nach Voraussetzung
limsup
n

n
(C) = limsup
n
_

C
d
n
limsup
n
_
f
k
d
n
=
_
f
k
d

_

C
k
d
= (C
k
) f ur alle k N.
Unter Verwendung von 7.1 zeigt das limsup
n

n
(C) (C) .
F ur eine oene Menge A = O folgt so mit C = O
c
, dass
limsup
n
(1
n
(O)) 1 (O)
und daher
1
liminf
n

n
(O) (O) .
Sei nun A B(R) eine beliebige -randlose Menge. Dann erhalten wir zuammenfassend
liminf
n

n
(A) liminf
n

n
(A

)
(A

)
=
_
A
_
limsup
n

n
_
A
_
limsup
n

n
(A) .
Da stets liminf
n
x
n
= limsup
n
x
n
, muss also Gleichheit gelten und damit der Grenzwert der
Folge (
n
(A))
nN
existieren. Es folgt
lim
n

n
(A) = (A

) =
_
A
_
= (A) ,
da die Menge A als -randlos vorausgesetzt wurde/
1
Beachte, dass
liminf
n
x
n
= limsup
n
x
n
gilt.
Ma- und Wahrscheinlichkeitstheorie
7 Schwache Konvergenz und Konvergenz in Verteilung 57
3. 1. Sei F die Verteilungsfunktion zu . F ur x C
F
gilt dann (x) = 0 und daher ist die Menge
(, x]
-randlos f ur alle x C
f
. Nach Voraussetzung gilt also

n
((, x])
n
/

/
((, x]) f ur alle x C
F
.
Das zeigt die Behauptung.
Bemerkung 7.7. Der Beweis von 2. 3. zeigt:
Gilt 2. nur f ur alle f C
b
(R), die gleichmaig stetig sind, so folgt bereits

n
schwach
n
/

7.2 Konvergenz in Verteilung


Seien X, X
1
, X
2
, ... reelle Zufallsvariablen mit Verteilungen ,
1
,
2
, ... entsprechend auf (R, B(R)).
Denition 7.8. Wir sagen (X
n
)
nN
konvergiert in Verteilung gegen X und schreiben
X
n
D
n
/

/
X,
falls
n
schwach
n
/

/
.
Bemerkung 7.9. Die Zufallsvariablen X, X
1
, X
2
,... konnen alle auf verschiedenen Wahrscheinlich-
keitsraumen deneirt sein; im Extremfall hat jede Zufallsvariable einen eigenen Wahrscheinlichkeitsraum:
X ist deniert auf (, /, P) und X
n
ist deniert auf (
n
, /
n
, P
n
) f ur n N. In diesem Fall entspricht
Konvergenz in Verteilung
X
n
D
n
/

/
X
genau
P
X
n
n
. .
=X
n
(P
n
)
schwach
n
/

/
P
X
.
Wir bringen nun zunachst folgenden Satz, der in Korollar 7.16 noch verbessert wird:
Satz 7.10. Gelte X
n
D
n
/

/
X und sei g : R
/
R stetig. Dann gilt auch
g X
n
D
n
/

/
g X.
Beweis. Wir verwenden die Charakterisierung 2. aus Satz 7.6: F ur f C
b
(R) gilt unter Verwendung der
Transformationsformel und der Voraussetzung X
n
D
n
/

/
X, dass
_
f dP
gX
n
n
=
_
f g
..
C
b
(R)
dP
X
n
n
/

/
_
f g dP
X
=
_
f dP
gX
,
was die Behauptung zeigt.
Ma- und Wahrscheinlichkeitstheorie
58 7 Schwache Konvergenz und Konvergenz in Verteilung
Satz 7.11. Es seien X
n
: (, /, P)
/
R Zufallsvariablen mit X
n
P
n
/

/
X. Dann gilt
X
n
D
n
/

/
X.
Beweis. Es ist zu zeigen, dass P
X
n
schwach
n
/

/
X gilt. Wir verwenden dazu Bemerkung 7.7. Sei
f C
b
(R) gleichmaig stetig. Dann gibt es zu > 0 ein > 0 s.d. f ur alle x, y R mit [x y[ < auch
[f (x) f (y)[ < gilt. Damit folgt f ur hinreichend groes n, dass

_
f dP
X
n

_
f dP
X

_
f X
n
dP
_
f X dP

_
[f X
n
f X[ dP
=
_
{|X
n
X|}
[f X
n
f X[ dP+
_
{|X
n
X|}
[f X
n
f X[ dP
2 |f|

P([X
n
X[ ) +
2,
was die Behauptung zeigt.
Bemerkung 7.12. Falls die Zufallsvariablen X
1
, X
2
, ... auf verschiedenen Wahrscheinlichkeitsraumen
deniert sind, so kann man trotzdem X
n
P
n
/

/
a f ur eine Konstante a R denieren, namlich genau
durch
P
n
([X
n
a[ > )
n
/

/
0
f ur alle > 0.
Satz 7.13. F ur eine Konstante a R gilt
X
n
D
n
/

/
a X
n
P
n
/

/
a
Beweis. Wir zeigen nur die Richtung , die andere Implikation wird in Aufgabe 7.14 gezeigt.
Es gelte X
n
D
n
/

/
a, d.h. P
X
n
n
schwach
n
/

/

a
. Mit der Charakterisierung 3. aus Satz 7.6 und der

a
-randlosen Menge I

:= [a , a +] folgt
P
X
n
n
(I

)
n
/

a
(I

) = 1.
Die linke Seite ist gleich P
n
(X
n
I

) = P
m
([X
n
a[ ), was die Behauptung zeigt.
Aufgabe 7.14. Es gelte X
n
P
n
/

/
a f ur eine Konstante a R im Sinne von Bemerkung 7.12. Zeige,
dass dann auch
X
n
D
n
/

/
a
gilt.
Bemerkung 7.15 (Satz von Skorohod). Gilt
n
schwach
n
/

/
f ur Wahrscheinlichkeitsmae ,
1
,
2
, ...,
so gibt es einen Wahrscheinlichkeitsraum (, /, P) und Zufallsvariablen Y, Y
1
, Y
2
, ... darauf derart, dass
P
Y
n
=
n
, P
Y
= , Y
n
()
n
/

/
Y () f ur alle .
Insbesondere gilt Y
n
f.s.
n
/

/
Y .
Man kann dabei auerdem (, /, P) =
_
(0, 1) , B((0, 1)) ,
|
(0,1)
_
wahlen.
Ma- und Wahrscheinlichkeitstheorie
7 Schwache Konvergenz und Konvergenz in Verteilung 59
Beweis (Skizze). Wir setzen (, /, P) =
_
(0, 1) , B((0, 1)) ,
|
(0,1)
_
. F ur (0, 1) deniert man
Y
n
() := inf x R [ F
n
(x) ,
wobei wir mit F
n
wieder die Verteilungsfunktion zu
n
bezeichnen. Analog denieren wir Y uber bzw. F.
Dann ist Y
n
eine verallgemeinerte Umkehrfunktion zu F
n
und Aufgabe 7.18 zeigt, dass die Eigenschaften
P
Y
n
=
n
, P
Y
=
erf ullt sind.
Man zeigt nun, dass
F
n
(x)
n
/

/
F (x) f ur alle x C
F
Y
n
f.s.
n
/

/
Y.
Diese Aussage kann man etwa bei [Bil95, P. 333] nachlesen.
Nun setzt man Y
n
() = Y () = 0 f ur die (0, 1) mit lim
n
Y
n
() ,= Y (). Dies garantiert die
punktweise Konvergenz
Y
n
n
/

/
Y auf ganz
wie behauptet.
Korollar 7.16. Gilt X
n
D
n
/

/
X und ist g : R
/
R P
X
-fast sicher stetig, so gilt
g X
n
D
/
g X.
Aufgabe 7.17. Zeige mit Hilfe des Satzes von Skorohod Korollar 7.16.
Aufgabe 7.18. Sei F eine Verteilungsfunktion und Y :
_
(0, 1) , B((0, 1)) ,
|
(0,1)
_
/
R deniert durch
Y () := inf x R [ F (x) .
Zeige, dass
Y () x F ()
und folgere, dass Y die Verteilungsfunktion F besitzt.
Satz 7.19 (Auswahlsatz von Helly). Sei (F
n
)
nN
eine Folge von Verteilungsfunktionen. Dann gibt es
eine Teilfolge
_
F
n(k)
_
kN
und eine monoton wachsende, rechtsstetige Funktion F derart, dass
F
n(k)
(x)
k
/

/
F (x) f ur alle x C
F
.
Beweis. Da (F
n
(x))
nN
f ur jedes x R eine beschrankte Folge ist, nden wir mit einem Diagonalfolgen-
argument eine Teilfolge
_
F
n(k)
_
kN
derart, dass f ur jedes q Q der Grenzwert
G(q) := lim
k
F
n(k)
(q)
existiert. Nun setzt man
F (x) := inf G(q) [ x < q .
Dies liefert eine monoton wachsende Funktion F. F ist auch rechtsstetig:
Zu x R und > 0 sei q Q derart, das x < q und G(q) < F (x) + . Per Denition von F ist dies
moglich. Nun gilt f ur alle x y < q mit der Monotonie
F (x) F (y) G(q) < F (x) +.
Dies zeigt
lim
yx
F (y) = F (x) .
Zuletzt zeigen wir punktweise Konvergenz: Es sei x C
F
. Dann nden wir zu > 0 ein y < x mit
F (x) < F (y). Wahle nun q
0
, q
1
Q mit y < q
0
< x < q
1
und G(q
1
) < F (x) +. Dann gilt
F (x) < F (y) G(q
0
) G(q
1
) < F (x) +,
Ma- und Wahrscheinlichkeitstheorie
60 7 Schwache Konvergenz und Konvergenz in Verteilung
wobei wir die Monotonie der F
n(k)
benutzt haben. Diese impliziert auch
F
n(k)
(q
0
) F
n(k)
(x) F
n(k)
(q
1
) ,
und da hier die linke Seite gegen G(q
0
) und die rechte Seite gegen G(q
1
) konvergiert, folgt
F
n(k)
(x) [F (x) , F (x) +]
f ur jedes hinreichend groe k N.
Allerdings muss F keine Verteilungsfunktion sein:
Beispiel 7.20. Sei
n
=
n
f ur n N und F
n
die zu
n
gehorige Verteilungsfunktion F
n
=
[n,)
. Dann
gilt
F
n
(x)
n
/

/
0 f ur alle x R
und folglich muss auch jede Teilfolge punktweise gegen F 0 konvergieren. Wie weiter oben schon bemerkt
ist dieses F aber keine Verteilungsfunktion.
Um als Grenzwert tatsachlich eine Verteilungsfunktion zu erhalten, muss verhindert werden, dass die
Wahrscheinlichkeitsmasse abwandert:
Denition 7.21. Eine Folge (
n
)
nN
von Wahrscheinlichkeitsmaen auf (R, B(R)) ist stra, wenn es
zu jedem > 0 ein Intervall [a, b] mit < a b < gibt, s.d.

n
([a, b]) > 1 f ur alle n N.
Analog kann man auch ein Intervall (a, b] verwenden.
Satz 7.22. Es sei (
n
)
nN
eine strae Folge von Wahrscheinlichkeitsmaen. Dann gibt es eine Teilfolge
_

n(k)
_
kN
und ein Wahrscheinlichkeitsma auf (R, B(R)) s.d.

n(k)
schwach
k
/

/
.
Beweis. Wir bezeichnen mit F
n
die Verteilungsfunktion zu
n
f ur n N. Nach dem Auswahlsatz von
Helly nden wir eine monoton wachsende, rechtsstetige Funktion F und eine Teilfolge
_
F
n(k)
_
kN
mit
F
n(k)
(x)
k
/

/
F (x) f ur alle x C
F
.
Laut Satz 1.23 gibt es dazu genau ein Ma auf (R, B(R)) s.d.
((a, b]) = F (b) F (a)
f ur alle a b. Es gen ugt nun zu zeigen, dass dieses ein Wahrscheinlichkeitsma ist, d.h. dass (R) = 1
gilt.
Wegen F (x) [0, 1] per Denition (als Grenzwert) folgt
(R) = lim
T
(F (T) F (T)) 1.
Zu > 0 beliebig sei nun (a, b] mit < a b < und

n
([a, b]) > 1 f ur alle n N.
Ohne Einschrankung konnen wir a, b C
F
annehmen. Nun folgt
(R) ((a, b]) = F (b) F (a) = lim
k
_
F
n(k)
(b) F
n(k)
(a)
_
= lim
k

n(k)
((a, b]) 1 .
Da > 0 beliebig war folgt so (R) 1 und die Behauptung ist gezeigt.
Ma- und Wahrscheinlichkeitstheorie
8 Charakteristische Funktionen 61
8 Charakteristische Funktionen
Wir bringen hier noch ein analytisches Hilfsmittel, um weitere Grenzwertsatze zu zeigen.
Es sei (, /, ) ein Wahrscheinlichkeitsraum und f :
/
C eine Funktion. Wir schreiben
f = g + ih mit g = 1(f) :
/
R und h = (f) :
/
R.
Denition 8.1. Die Funktion f heit mebar, wenn g und h mebar sind.
Die Funktion f heit -integrierbar, wenn g und h -integrierbar sind. In diesem Fall setzt man
_
f d :=
_
g d + i
_
hd.
Bemerkung 8.2. Sind f
1
, f
2
:
/
C -integrierbar und c C, so gilt
_
f
1
+f
2
d =
_
f
1
d +
_
f
2
d,
_
cf
1
d = c
_
f
1
d,
_
f
1
d =
_
f
1
d.
Lemma 8.3. Sei f :
/
C eine Funktion.
1. f ist -integrierbar genau dann, wenn
_
[f[ d < .
2. Ist f -integrierbar, so gilt

_
f d

_
[f[ d.
Beweis. 1. Es gilt [f[
2
= [g[
2
+[h[
2
punktweise. Dies zeigt
max [g[ , [h[ [f[ [g[ +[h[
punktweise und Integration dieser Ungleichung liefert die Behauptung.
2. Wir schreiben
_
f d = r exp(i) in Polarkoordinaten mit r [0, ) und [0, 2). Dann folgt
_
[f[ d =
_
[exp(i) f[ d

_
[1(exp(i) f)[ d

_
1(exp(i) f) d
= 1
__
exp(i) f d
_
= 1
_
exp(i)
_
f d
_
= r
=

_
f d

,
womit die Behauptung gezeigt ist.
Ma- und Wahrscheinlichkeitstheorie
62 8 Charakteristische Funktionen
Denition 8.4. Sei ein Wahrscheinlichkeitsma auf (R, B(R)). Dann ist : R
/
C gegeben als
(t) :=

exp(itx) d(x) , t R
die charakteristische Funktion (oder auch Fouriertransformation) des Maes .
Bemerkung 8.5. Die Eulersche Formel liefert
(t) :=

cos (tx) d(x) + i

sin(tx) d(x) , t R.
Denition 8.6. F ur eine reelle Zufallsvariable X nennen wir

X (t) :=

P
X
(t) , t R
die charakteristische Funktion von X.
Bemerkung 8.7. 1. Es gilt
[ (t)[ =

_
exp(itx) d(x)

_
[exp(itx)[
. .
=1
d(x) = 1
f ur alle t R. Insbesondere gilt also
: R
/
D := z C [ [z[ 1
und es gilt (0) = (R) = 1.
2. Eine leichte Anwendung des Lebesgueschen Satzes von der majorisierten Konvergenz auf Real- und
Imaginarteil von zeigt, dass stetig ist.
3. F ur T : R
/
R, T (x) := ax + b mit a, b R fest berechnet man f ur eine Zufallsvariable X die
charakteristische Funktion von Y := T (X) mittels P
Y
= T
_
P
X
_
und der Transformationsformel
als

Y (t) =

exp(itx) dP
Y
(x) =

exp(it (ax +b)) dP


X
(x) = exp(itb)

exp(iatx) dP
X
(x)
. .
=
b
X(at)
.
Daher gilt

aX +b (t) = exp(itb)

X (at) .
4. Speziell f ur b = 0 und a = 1 folgt so

X (t) =

X (t) =

X (t)
wegen Bemerkung 8.5.
Beispiel 8.8. Wir berechnen die charakteristische Funktion einer Punktmasse in R als

(t) =

exp(itx) d

(x) = exp(it)
f ur t R, wobei wir Bemerkung 2.18 genutzt haben.
Damit konnen wir nun die charakteristische Funktion vieler diskreter Verteilungen sehr leicht be-
rechnen:
Ma- und Wahrscheinlichkeitstheorie
8 Charakteristische Funktionen 63
Die Binomialverteilung: Bezeichnen wir mit Bin(n, p) das zur Binomialverteilung mit Parametern
n und p gehorige Ma, so gilt

Bin(n, p) (t) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
exp(itk) = (1 p +p exp(it))
n
f ur t R.
Die Poissonverteilung: Bezeichnen wir mit Poi () das zur Poissonverteilung mit Parameter
gehorige Ma, so gilt

Poi () (t) =

k=0
exp()

k
k!
exp(itk) = exp() exp(exp(it))
f ur t R.
Die Standard-Normalverteilung: Bezeichnen wir mit ^ (0, 1) das zur Standard-Normalverteilung
gehorige Ma, so gilt

^ (0, 1) (t) =

cos (tx)
1

2
exp
_

x
2
2
_
dx
. .
=exp

t
2
2

+i

sin(tx)
1

2
exp
_

x
2
2
_
dx
. .
=0(ungerade Funktion)
f ur t R, wie man etwa bei [Bau01, P. 193] oder [Bil95, P. 344] nachlesen kann.
Die Normalverteilung: Ist Y ^
_
,
2
_
zur Normalverteilung mit Parametern und
2
verteilt,
so ist Y = X + mit einem X ^ (0, 1) und wie oben schon gesehen folgt

Y (t) = exp
_
it
2
t
2
2
_
f ur t R.
Denition 8.9. Seien
1
, ...,
n
Wahrscheinlichkeitsmae auf (R, B(R)). Die Faltung
1
...
n
ist das
Wahrscheinlichkeitsma auf (R, B(R)), welches durch das Bild der Produktverteilung
1
...
n
(auf
(R
n
, B(R
n
))) unter der Abbildung
T : R
n
/
R, T (x
1
, ..., x
n
) :=
n

i=1
x
i
gegeben ist.
Satz 8.10. F ur unabhangige Zufallsvariablen X
1
, ..., X
n
gilt
P
X
1
+...+X
n
= P
X
1
... P
X
n
.
Beweis. Die Unabhangigkeit impliziert sofort
P
X
1
+...+X
n
= P
T(X
1
,...,X
n
)
= T
_
P
(X
1
,...,X
n
)
_
= T
_
P
X
1
... P
X
n
_
,
was die Behauptung zeigt.
Satz 8.11. 1. Seien
1
, ...,
n
Wahrscheinlichkeitsmae. Dann ist

1
...
n
(t) =
n

i=1

i
(t) .
2. Sind X
1
, ..., X
n
unabhangige Zufallsvariablen, so gilt
n

i=1
X
i
=
n

i=1

X
i
.
Ma- und Wahrscheinlichkeitstheorie
64 8 Charakteristische Funktionen
Beweis. 1. Wir geben nur den Beweis f ur n = 2, der Fall n > 2 ist ganz analog zu beweisen. Damit
gilt unter Verwendung der Transformationsformel f ur T wie oben aus der Denition und des Satzes
von Fubini:

1

2
(t) =

exp(itx) d(
1

2
) (x)
=
_
R
2
exp(itT (x)) d(
1

2
) (x)
=

exp(itx
1
) d
1
(x
1
)

exp(itx
2
) d
2
(x
2
)
=
1
(t)
2
(t) .
2. Unter Verwendung von Teil 1. folgt sofort
n

i=1
X
i
=

P
n
P
i=1
X
i
=

P
X
1
... P
X
n
=
n

i=1

P
X
i
=
n

i=1

X
i
.
Satz 8.12 (Umkehrformel und Eindeutigkeit). 1. Sei ein Wahrscheinlichkeitsma auf (R, B(R)).
Dann gilt f ur alle a < b mit (a) = (b) = 0, dass
((a, b]) = lim
T
1
2
T
_
T
exp(ita) exp(itb)
it
(t) dt.
2. Das Ma ist eindeutig durch festgelegt.
Beweis. 1. Wir verwenden folgende Relationen, die man etwa bei [Bil95, P. 225, P. 236, P. 343] nach-
lesen kann:
[exp(ix) 1[ min[x[ , 2 f ur alle x R, (8.1)
[exp(ix) (1 + ix)[ min
_
[x[ ,
1
2
x
2
_
f ur alle x R, (8.2)
lim
x
x
_
0
sin(t)
t
dt =

2
(8.3)
Nun setzen wir
h(t) :=
exp(ita) exp(itb)
it
f ur t ,= 0 und h(0) := b a.
a) Nun berechnen wir zunachst mit Hilfe von (8.1), dass
[h(t)[ =
1
[t[
[exp(ita) exp(itb)[
=
1
[t[
[exp(it (b a)) 1[

1
[t[
[t (b a)[
= [b a[ .
Ma- und Wahrscheinlichkeitstheorie
8 Charakteristische Funktionen 65
b) Nun zeigen wir mit Hilfe von (8.2), dass h an t = 0 stetig ist:
[h(t) (b a)[ =

exp(ita) exp(itb) itb + ita


it

=
1
[t[
[(exp(ita) (1 ita)) (exp(itb) (1 itb))[

1
[t[
_
1
2
(ta)
2
+
1
2
(tb)
2
_
,
und dieser Ausdruck konvergiert f ur t
/
0 ebenfalls gegen 0.
c) Mit einer Substitution t t/y folgt
T
_
0
sin(ty)
t
dt =
Ty
_
0
sin(t)
t
dt.
Das zeigt:
i. Wegen (8.3) gibt es ein C > 0 s.d.

T
_
0
sin(ty)
t
dt

C f ur alle y R und alle T > 0.


ii. Ebenfalls wegen (8.3) gilt
lim
T
T
_
0
sin(ty)
t
dt =
_

2
falls y > 0,
0 falls y = 0,

2
falls y < 0.
d) Sei nun
I
T
:=
1
2
T
_
T
h(t) (t) dt.
Dann konnen wir nach a) den Satz von Fubini anwenden, weshalb
I
T
=
1
2
T
_
T
h(t)
_
_

exp(itx) d(x)
_
_
dt
=
1
2

T
_
T
exp(it (x a)) exp(it (x b))
it
. .
=:
dt d(x) .
Nun folgt aber mit b) und der Eulerschen Formel, dass
T
_
T
dt = 2
T
_
0
sin(t (x a))
t
dt 2
T
_
0
sin(t (x b))
t
dt.
Das zeigt
I
T
=

_
_
1

T
_
0
sin(t (x a))
t
dt
1

T
_
0
sin(t (x b))
t
_
_
d(x) .
Wegen c)ii. konvergiert der Integrand puntkweise gegen
1
2

{a}
+
(a,b)
+
1
2

{b}
Ma- und Wahrscheinlichkeitstheorie
66 8 Charakteristische Funktionen
und wegen c)i. ist er durch die Konstante 2c/ beschrankt. Da ein Wahrscheinlichkeitsma
ist, beschreibt diese Konstante eine L
1
-Funktion und mit dem Lebesgueschen Satz von der
majorisierten Konvergenz folgt
I
T
T
/

_
1
2

{a}
+
(a,b)
+
1
2

{b}
_
d = ((a, b])
f ur alle a b mit (a) = (b) = 0. Dies zeigt die Behauptung.
2. Dies folgt mit 1. direkt aus Satz 1.29, da (a, b] [ a b, (a) = (b) = 0 ein -stabiler Er-
zeuger von B(R) ist (schlielich gibt es hochstens abzahlbar viele x mit (x) ,= 0).
Als Beispiel wollen wir nun zwei Anwendungen geben. Zunachst eine Abwendung von Satz 8.12, 2.:
Lemma 8.13. Seien X
i
^
_

i
,
2
i
_
f ur i = 1, 2 unabhangig. Dann gilt
X
1
+X
2
^
_

1
+
2
,
2
1
+
2
2
_
.
Beweis. Nach Satz 8.11 und Beispiel 8.8 gilt

P
X
1
+X
2
(t) =

X
1
+X
2
(t)
=

X
1
(t)

X
2
(t)
= exp
_
i
1
t
2
1
t
2
2
_
exp
_
i
2
t
2
2
t
2
2
_
= exp
_
i (
1
+
2
) t
_

2
1
+
2
2
_
t
2
2
_
=

^ (
1
+
2
,
2
1
+
2
2
) (t)
f ur alle t R. Nach Satz 8.12, 2. erzwingt dies P
X
1
+X
2
= ^
_

1
+
2
,
2
1
+
2
2
_
.
Und nun eine Abwendung von Satz 8.12, 1.:
Satz 8.14. Ist ein Wahrscheinlichkeitsma mit
_

[ (t)[ dt < , so hat die (eindeutige) stetige


(!) Dichte
f (x) =
1
2

exp(itx) (t) dt.


Beweis. Wie im Beweis oben, Teil 1.a) erhalten wir

exp(ita) exp( = itb)


it

[b a[ .
Mit der Darstellung aus Satz 8.12, 1. folgt so
((a, b]]
[b a[
2

[ (t)[ dt
f ur alle a b mit (a) = (b) = 0. F ur ein beliebiges x (a, b] zeigt dies mit a x und b x,
dass (x) = 0, da
_

[ (t)[ dt < . Daher hat keine Punktmassen.


Sei nun F die Verteilungsfunktion von . Dann gilt C
F
= R wie eben gesehen und der Lebesguesche Satz
von der majorisierten Konvergenz liefert
F (x +) F (x)

=
1

((x, x +))
=
1
2
lim
T
T
_
T
exp(itx) exp(it (x +))
it
(t) dt
=
1
2

exp(itx) exp(it (x +))


it
(t) dt, (8.4)
Ma- und Wahrscheinlichkeitstheorie
8 Charakteristische Funktionen 67
da mit (8.1)

exp(itx) exp(it (x +))


it
(t)

t
t
[ (t)[ = [ (t)[
gilt und diese Funktion in L
1
ist.
Der Betrag des Integranden aus (8.4) ist wegen (8.1) ebenfalls 1 und daher folgt wieder mit dem
Lebesgueschen Satz von der majorisierten Konvergenz
lim
0
F (x +) F (x)

=
1
2

exp(itx) (t) dt.


Dies zeigt die Dierenzierbarkeit von F an jeder Stelle x R und gleichzeitig, dass die Dichte des Maes
die Behauptete Gestalt hat.
Die Stetigkeit von
f (x) = F

(x) =
1
2

exp(itx) (t) dt
sieht man mit einer weiteren Anwendung des Lebesgueschen Satzes von der majorisierten Konvergenz,
da f ur x
n
n
/

/
x der Integrand durch
[exp(itx
n
) (t)[ [ (t)[ L
1
majorisiert wird.
Satz 8.15 (Stetigkeitssatz). F ur Wahrscheinlichkeitsmae
1
,
2
, ... und auf (R, B(R)) gilt

n
schwach
n
/

/
genau dann, wenn
n
n
/

/
punktweise.
Beweis. Sei t R fest. Dann gilt mit Satz 7.6 und der Tatsache, dass sin, cos C
b
(R):

cos (tx) d
n
(x) + i

sin(tx) d
n
(x)
n
/

cos (tx) d(x) + i

sin(tx) d(x) .
Da die linke Seite =
n
(t) und die rechte Seite = (t) ist, folgt sofort

n
(t)
n
/

/
(t)
f ur jedes feste t R.
Es gelte
n
n
/

/
punktweise.
1. Wir zeigen zunachst, dass die Folge (
n
)
nN
eine strae Folge von Wahrscheinlichkeitsmaen
ist.
F ur u > 0 berechnen wir zunachst unter Verwendung des Satzes von Fubini

n
__
x R

[x[
2
u
__
=
_
|x|
2
u
d
n
(x)

_
|x|
2
u
_
2
2
[ux[
_
d
n
(x)

_
2
2
[ux[
_
d
n
(x)

_
2
2 sin(ux)
ux
_
d
n
(x)
Ma- und Wahrscheinlichkeitstheorie
68 8 Charakteristische Funktionen
=

_
_
1
u
u
_
u
(1 exp(itx)) dt
_
_
d
n
(x)
=
1
u
u
_
u

(1 exp(itx)) d
n
(x) dt
=
1
u
u
_
u
(1
n
(t)) dt.
Sei nun > 0 vorgegeben. Da gema Bemerkung 8.7 stetig an 0 ist und (0) = 1 gilt, nden
wir ein u > 0 mit
1
u
u
_
u
(1 (t)) dt < . (8.5)
Da nach Voraussetzung
n
n
/

/
punktweise, folgt mit dem Lebesgueschen Satz von
der majorisierten Konvergenz (und Majorante [1
n
(t)[ 1 + [
n
(t)[ 2), dass wir die
Ungleichung (8.5) auch mit
n
f ur alle n n
0
mit einem festen n
0
N annehmen d urfen. Also
gilt

n
__

2
u
,
2
u
_
c
_
< f ur alle n n
0
.
F ur die endlich vielen Indizes n < n
0
verkleinern wir nun u > 0 weiter, s.d.

n
__

2
u
,
2
u
_
c
_
< f ur alle n N
gilt. Daher ist die Folge (
n
)
nN
stra.
2. Jetzt nehmen wir an, es lage keine schwache Konvergenz
n
schwach
n
/

/
vor. Dann gibt es
ein x R mit (x) = 0 und ein > 0 derart, dass f ur eine Teilfolge
_

n(k)
_
kN
gilt:

n(k)
((, x]) ((, x])

f ur alle k N. (8.6)
Da die Teilfolge
_

n(k)
_
kN
gema 1. ebenfalls stra ist, gibt es nach Satz 7.22 eine Teilfolge
_

n(k(j))
_
jN
und ein Wahrscheinlichkeitsma auf (R, B(R)) s.d.

n(k(j))
schwach
j
/

/
. (8.7)
Mit der bereits gezeigten Richtung dieses Satzes folgt, dass

n(k(j))
j
/

/
punktweise.
Da wir aber
n
n
/

/
punktweise vorausgesetzt haben, folgt = und mit dem Eindeu-
tigkeitssatz 8.12 auch = . Daher stellt (8.7) einen Widerpruch zu (8.6) dar. Die Annahme
war also falsch und es folgt die Behauptung.
Satz 8.16. Sei (
n
)
nN
eine Folge von Wahrscheinlichkeitsmaen auf (R, B(R)) derart, dass
g (t) := lim
n

n
(t)
f ur alle t R existiert und g stetig in 0 ist.
Dann gibt es ein Wahrscheinlichkeitsma auf (R, B(R)) s.d.

n
schwach
n
/

und = g.
Ma- und Wahrscheinlichkeitstheorie
8 Charakteristische Funktionen 69
Beweis. Oenbar gilt per Denition g (0) = 1, da die charakteristische Funktion eines jeden Wahrschein-
lichkeitsmaes in 0 den Wert 1 hat. Wie im Teil 1. des obigen Beweises sehen wir damit, dass die Folge
(
n
)
nN
stra ist. Nach Satz 7.22 gibt es eine Teilfolge
_

n(k)
_
kN
und ein Wahrscheinlichkeitsma auf
(R, B(R)) s.d.

n(k)
schwach
k
/

/
.
Der letzte Satz zeigt
n(k)
k
/

/
punktweise und daher nach Voraussetzung = g. Der Satz oben
impliziert mit der Voraussetzung wiederum

n
schwach
n
/

wie behauptet.
Satz 8.17. Sei (
n
)
nN
eine strae Familie von Wahrscheinlichkeitsmaen, s.d.
g (t) := lim
n

n
(t)
f ur alle t R existiert. Dann gibt es ein Wahrscheinlichkeitsma , s.d.

n
schwach
n
/

und = g.
Beweis. Nach Satz 7.22 gibt es eine Teilfolge
_

n(k)
_
kN
und ein Wahrscheinlichkeitsma auf (R, B(R))
s.d.

n(k)
schwach
k
/

/
.
Der vorletzte Satz zeigt
n(k)
k
/

/
punktweise und daher nach Voraussetzung = g. Der Satz
oben impliziert mit der Voraussetzung wiederum

n
schwach
n
/

wie behauptet.
Ma- und Wahrscheinlichkeitstheorie
9 Grenzwertsatze 71
9 Grenzwertsatze
Die Literatur unterscheided hier zwischen sogenannten Zentralen Grenzwertsatzen (in diesem Fall ist
die Grenzverteilung stets die Normalverteilung), wie wir sie hier vorstellen wollen (in diesem Fall spre-
chen wir dann auch kurz von ZGWS), und verschiedenen speziellen Grenzwertsatzen wie dem Poisson-
Grenzwertsatz, welchen wir als

Ubungsaufgabe kennenlernen.
Beispiel 9.1. Seien X
n
, n N unabhangige, identische verteilte Zufallsvariablen mit P(X
n
= 1) =
P(X
n
= 1) = 1/2. Dann gilt
1

n
n

i=1
X
i
D
n
/

/
^ (0, 1) .
Eigentlich liegt hier ein leichter Notationsmissbrauch vor, genauer meinen wir
1

n
n

i=1
X
i
D
n
/

/
X
f ur ein X ^ (0, 1).
Beweis. Wegen des Stetigkeitssatzes 8.15 gen ugt es, punktweise Konvergenz

n
n

i=1
X
i
(t)
n
/

/
exp
_

t
2
2
_
=

^ (0, 1) (t)
f ur alle t R zu zeigen. Sei (t) =

X
1
(t). Da die X
i
identisch verteilt sind, gilt dann (t) =

X
i
(t) f ur
alle i N und wegen der Unabhangigkeit folgt so
n

i=1
X
i
(t) =
n
(t) .
Die Rechenregel

aX (t) =

X (at) liefert

n
n

i=1
X
i
(t) =
n
_
t

n
_
.
Per Denition ist
(t) =
_
cos (tx) dP
X
1
(x) + i
_
sin(tx) dP
X
1
(x)
=
1
2
cos (t) +
1
2
cos (t) + i
_
1
2
sin(t) +
1
2
sin(t)
_
= cos (t) .
Nun nutzen wir
x
n
n
/

/
x
_
1 +
x
n
n
_
n
n
/

/
exp(x)
und die Taylorentwicklung
cos
_
t

n
_
= cos (0) +
t

n
cos

(0) +... = 1
t
2
2n
+
t
3
6

n
3
sin
_

n
_
mit einem [0, 1]. Das zeigt

n
_
t

n
_
=
_
cos
_
t

n
__
n
=
_
_
1 +

t
2
2
+
t
3
6

n
sin
_

n
_
n
_
_
n
n
/

/
exp
_

t
2
2
_
,
Ma- und Wahrscheinlichkeitstheorie
72 9 Grenzwertsatze
da oenbar

t
2
2
+
t
3
6

n
sin
_

n
_
n
/

/

t
2
2
gilt. Somit ist die Behauptung gezeigt.
Bemerkung 9.2. In obigem Beispiel ist E (X
1
) = 1 und V (X
1
) = E
_
X
2
1
_
= 1 <
Unter diesen Voraussetzungen gilt die viel allgemeinere Aussage:
Satz 9.3 (ZGWS von Lindeberg-Levi). Es sei (X
n
)
nN
eine Folge von unabhangigen, identisch verteilten
integrierbaren Zufallsvariablen mit endlicher positiver Varianz
2
> 0. Dann gilt
1

n
_
n

i=1
X
i
nE (X
1
)
_
D
n
/

/
^ (0, 1) .
Wir werden diesen Satz etwas weiter unten aus dem ZGWS unter der Lindeberg-Bedingung folgern.
Satz 9.4 (Grenzwertsatz von de Moivre-Laplace). Es seien X
1
, X
2
, ... unabhangige Bernoulli-verteilte
Zufallsvariablen mit P(X
n
= 1) = p > 0 und P(X
n
= 0) = 1 p > 0. Dann gilt
1
_
np (1 p)
_
n

i=1
X
i
np
_
D
n
/

/
^ (0, 1) .
Beweis. Die folgt aus dem ZGWS von Lindeberg-Levi mit E (X
1
) = p und V (X
1
) = p (1 p).
Denition 9.5. Sei (k
n
)
nN
eine Folge nat urlicher Zahlen. Seien
X
n,k
: (
n
, /
n
, P
n
)
/
R
reelle Zufallsvariablen f ur 1 k k
n
und n N. Dann heit
(X
n,k
[ 1 k k
n
, n N)
ein Schema.
Ein Schema heit unabhangig, wenn f ur jedes n N die Zufallsvariablen X
n,1
, ..., X
n,k
n
unabhangig sind
(d.h. falls Unabhangigkeit in jeder Zeile vorliegt).
Beispiel 9.6. Ein Schema ist etwa gegeben durch
X
1,1
auf (
1
, /
1
, P
1
)
X
2,1
, X
2,2
, X
2,3
auf (
2
, /
2
, P
2
)
X
3,1
, X
3,2
auf (
3
, /
3
, P
3
)
X
4,1
, X
4,2
, X
4,3
, X
4,4
auf (
4
, /
4
, P
4
)
... ...
Satz 9.7 (ZGWS unter der Lindeberg-Bedingung). Sei (X
n,k
[ 1 k k
n
, n N) ein unabhangiges
Schema zentrierter Zufallsvariablen (d.h. E (X
n,k
) = 0 f ur alle 1 k k
n
und n N) mit E
_
X
2
n,k
_
<
f ur alle 1 k k
n
und n N. Es sei
S
n
=
k
n

k=1
X
n,k
s
2
n
= V (S
n
) =
k
n

k=1
E
_
X
2
n,k
_
f ur n N. Ferner sei die Lindeberg-Bedingung
lim
n
1
s
2
n
k
n

k=1
_
{|X
n,k
|s
n
}
X
2
n,k
dP
n
= 0 f ur alle > 0 (9.1)
erf ullt. Dann gilt
1
s
n
S
n
D
n
/

/
^ (0, 1) .
Ma- und Wahrscheinlichkeitstheorie
9 Grenzwertsatze 73
Beweis des ZGWS von Lindeberg-Levi. Wir setzen k
n
:= n f ur alle n N, X
n,k
:= X
n
E (X
n
) f ur
1 k n und erhalten so ein Dreiecksschema
X
1
E (X
1
)
X
2
E (X
2
) X
2
E (X
2
)
X
3
E (X
3
) X
3
E (X
3
) X
3
E (X
3
)
... ... ... ...
Man berechnet nun
s
2
n
=
n

k=1
V (X
n,k
) = n
2
und der Term aus der Lindeberg-Bedingung (9.1) wird zu
1
s
2
n
k
n

k=1
_
{|X
n,k
|s
n
}
X
2
n,k
dP
n
=
1
n
2
n
_
|X
n,1
|

n
X
2
n,1
dP
=
1

2
_
|X
n,1
|

n
(X
1
E (X
1
))
2
dP
=
1

2
_
(X
1
E (X
1
))
2

|X
n,1
|

n
dP.
Da (X
1
E (X
1
))
2

|X
n,1
|

n
f ur n
/
punktweise gegen 0 konvergiert, zeigt der Lebesguesche
Satz von der majorisierten Konvergenz (mit Majorante (X
1
E (X
1
))
2
L
1
nach Voraussetzung), dass
die Lindeberg-Bedingung (9.1) erf ullt ist. Das zeigt
1
s
n
S
n
D
n
/

/
^ (0, 1) ,
was wegen 1/s
n
S
n
= 1/(

n)

n
i=1
(X
i
E (X
i
)) = 1/(

n) (

n
i=1
X
i
nE (X
1
)) der Behauptung
entspricht.
Bevor wir zum Beweis des Beweis des ZGWS unter der Lindeberg-Bedingung schreiten, benotigen wir
noch folgendes einfache
Lemma 9.8. Seien z
1
, ..., z
n
und w
1
, ..., w
n
komplexe Zahlen aus der Einheitskreisscheibe D. Dann gilt

i=1
z
i

i=1
w
i

i=1
[z
i
w
i
[ .
Beweis. Wir f uhren den Beweis f ur n = 2, der allgemeine Fall folgt dann mittels Induktion. Es gilt
[z
1
z
2
w
1
w
2
[ [z
1
z
2
w
1
z
2
[ +[z
2
w
1
w
1
w
2
[
= [z
2
[ [z
1
w
1
[ +[w
1
[ [z
2
w
2
[
[z
1
w
1
[ +[z
2
w
2
[ ,
was die Behauptung zeigt.
Beweis des ZGWS unter der Lindeberg-Bedingung. Wir wollen hier folgende Ungleichung aus der Funk-
tionentheorie nuzten, welche etwa bei [Bil95, P. 343] gezeigt wird:

exp(ix)
_
1 + ix
1
2
x
2
_

min
_
1
6
[x[
3
, x
2
_
f ur alle x R. (9.2)
Nun setzen wir Y
n,k
:= 1/s
n
X
n,k
f ur alle 1 k k
n
und n N. Die Lindeberg-Bedingung (9.1) liefert
lim
n
k
n

k=1
_
{|Y
n,k
|}
Y
2
n,k
dP
n
= 0 f ur alle > 0. (9.3)
Ma- und Wahrscheinlichkeitstheorie
74 9 Grenzwertsatze
Zu zeigen ist nun
1
s
n
S
n
=
k
n

k=1
Y
n,k
D
n
/

/
^ (0, 1) .
Da die Zufallsvariablen Y
n,1
, ..., Y
n,k
n
unabhangig sind, ist dies gema Satz 8.15 und Satz 8.11 genau dann
der Fall, wenn
k
n

k=1

Y
n,k
(t)
n
/

/
exp
_

t
2
2
_
f ur alle t R (9.4)
gilt. Wir setzen zusatzlich
n,k
:= E
_
Y
2
n,k
_
= V (Y
n,k
), wobei wir ausgenutzt haben, dass mit X
n,k
auch
jedes Y
n,k
zentriert ist. Dann gilt
k
n

k=1

2
n,k
=
k
n

k=1
V
_
1
s
n
X
n,k
_
=
1
s
2
n
k
n

k=1
V (X
n,k
)
. .
=s
2
n
= 1. (9.5)
Die zu zeigende Gleichung (9.4) ist gezeigt, wenn

k
n

k=1

Y
n,k
(t)
k
n

k=1
_
1
1
2
t
2

2
n,k
_

n
/

/
0, (9.6)

k
n

k=1
exp
_

t
2

2
n,k
2
_

k
n

k=1
_
1
1
2
t
2

2
n,k
_

n
/

/
0 (9.7)
f ur alle t R gilt, denn mit Hilfe der Dreiecksungleichung und (9.5) folgt dann

exp
_

t
2
2
_

k
n

k=1

Y
n,k
(t)

k
n

k=1
exp
_

t
2

2
n,k
2
_

k
n

k=1

Y
n,k
(t)

k
n

k=1
exp
_

t
2

2
n,k
2
_

k
n

k=1
_
1
1
2
t
2

2
n,k
_

k
n

k=1

Y
n,k
(t)
k
n

k=1
_
1
1
2
t
2

2
n,k
_

n
/

/
0
nach (9.6) und (9.7).
Sei also t R fest. Um (9.6) zu zeigen, geben wir > 0 vor. Es gilt per Denition

2
n,k

2
+
_
{|Y
n,k
|}
Y
2
n,k
dP
n
f ur 1 k k
n
und n N und mit Hilfe von (9.3) folgt damit
max
1kk
n

2
n,k

2
+ f ur alle hinreichend groen n N.
Dies impliziert
max
1kk
n

2
n,k
n
/

/
0. (9.8)
Ferner folgt f ur > 0 und 1 k k
n
unter Verwendung von E (Y
n,k
) = 0, (9.2) und (9.3), dass

Y
n,k
(t)
_
1
1
2
t
2

2
n,k
_

_
exp(itx) dP
Y
n,k
n

_
1 + itE (Y
n,k
)
1
2
t
2
E
_
Y
2
n,k
_
_

exp(itx)
_
1 + itx
1
2
t
2
x
2
_

dP
Y
n,k
n
Ma- und Wahrscheinlichkeitstheorie
9 Grenzwertsatze 75

_
min
_
(tx)
2
, [tx[
3
_
dP
Y
n,k
n
=
_
min
_
(tY
n,k
)
2
, [tY
n,k
[
3
_
dP
n

_
{|Y
n,k
|<}
[tY
n,k
[
3
. .
|t|
3
Y
2
n,k
dP
n
+
_
{|Y
n,k
|}
(tY
n,k
)
2
dP
n
[t[
3

n,k
..
1
+t
2
_
{|Y
n,k
|}
Y
2
n,k
dP
n
(9.9)
[t[
3
+t
2

f ur alle hinreichend groen n N und alle 1 k k


n
.
Da > 0 beliebig war und wir wegen (9.8) f ur festes t R stets
1 1
1
2
t
2

2
n,k
1 f ur alle 1 k k
n
f ur hinreichend groes n N erreichen, folgt mit Lemma 9.8 die behauptete Relation (9.6).
Um (9.7) zu zeigen, wenden wir ebenfalls Lemma 9.8 mit so groem n N an, dass 1 1
1
2
t
2

2
n,k
1
und erhalten

k
n

k=1
exp
_

t
2

2
n,k
2
_

k
n

k=1
_
1
1
2
t
2

2
n,k
_

k
n

k=1

exp
_

t
2

2
n,k
2
_
1 +
1
2
t
2

2
n,k

. (9.10)
F ur die rechte Seite von (9.10) verwenden wir nun die Ungleichung
[exp(z) 1 r[

k=2
z
k
k!
= [z[
2

k=2
z
k2
k!
[z[
2
exp([z[) f ur z C
mit z = 1/2 t
2

2
n,k
und erhalten so mit (9.5)

k
n

k=1
exp
_

t
2

2
n,k
2
_

k
n

k=1
_
1
1
2
t
2

2
n,k
_

1
4
t
4
_
k
n

k=1

4
n,k
_
exp
_
t
2

2
n,k
2
_

1
4
t
4
_
k
n

k=1

4
n,k
_
exp
_
t
2
_
f ur alle hinreichend groen n N. Da wegen (9.5) und (9.8)
k
n

k=1

4
n,k
max
1kk
n

2
n,k
_
k
n

k=1

2
n,k
_
. .
=1
n
/

/
0
folgt auch (9.7) und der Satz ist bewiesen.
Aufgabe 9.9 (Poisson-Grenzwertsatz). Es seien X
n
Bin(n, p
n
) mit n N unabhangige Zufallsvaria-
blen und es gelte np
n
n
/

/
(0, ). Es sei X Poi ().
1. Zeige mit Hilfe charakteristischer Funktionen, dass X
n
D
n
/

/
X. Es darf benutzt werden, dass
f ur z
n
C mit z
n
n
/

/
z C gilt (1 +z
n
/n)
n n
/

/
exp(z).
2. Folgere, dass
lim
n
P(X
n
= k) = exp()

k
k!
f ur k N
0
.
Ma- und Wahrscheinlichkeitstheorie
10 Bedingte Erwartungen 77
10 Bedingte Erwartungen
Es seien und zwei Mae auf einem mebaren Raum (, /).
Denition 10.1. Wir sagen ist absolut stetig bez uglich und schreiben << , wenn f ur alle A /
mit (A) = 0 auch (A) = 0 gilt.
Satz 10.2 (Radon-Nikodym). Seien und -endlich. Dann sind aquivalent:
1. <<
2. Es gibt ein f L
+
(, /, ) mit
(A) =
_
A
f d f ur alle A /,
d.h. hat die Dichte f bez uglich .
f kann reellwertig gewahlt werden (d.h. f(x) < f ur alle x ).
Beweis. Matheorie. Die Richtung 2. 1. ist oensichtlich.
Satz 10.3 (Existenz der bedingten Erwartung). Es sei X eine reelle integrierbare Zufallsvariable auf
einem Wahrscheinlichkeitsraum (, /, P). Sei /
0
/ eine Teil--Algebra.
1. Dann gibt es eine reelle Funktion f :
/
R mit
a) f ist /
0
-mebar.
b) Es gilt
_
A
f dP =
_
A
X dP
f ur alle A /
0
.
2. Ist g eine weitere Funktion mit a) und b), so folgt f = g P-fast sicher.
Beweis. 1. Bezeichne mit P
0
die Einschrankung von P auf /
0
. Wir behandeln zunachst den Fall
X 0. Dann denieren wir gema Satz 1.64 durch
(A) :=
_
A
X dP =
_

A
X dP, A /
0
ein endliches Ma auf /
0
. F ur jedes A /
0
mit P
0
(A) = 0 gilt oenbar auch P(A) = 0 und
somit folgt
(A) =
_

A
X
. .
=0 Pfast sicher
dP = 0.
Also gilt << und nach dem Satz von Radon-Nikodym oben gibt es eine /
0
-mebare Funktion
f 0, die reellwertig ist und
(A) =
_
A
f dP
0
=
_
A
f dP
f ur alle A /
0
erf ullt. Die letzte Gleichung kann dabei etwa mit /
0
-mebaren Elementarfunktionen

n
f eingesehen werden.
F ur Allgemeines X = X
+
X

konstruiert man nun f


+
und f

zu X
+
und X

entsprechend und
setzt f := f
+
f

.
Ma- und Wahrscheinlichkeitstheorie
78 10 Bedingte Erwartungen
2. Sei g eine weitere Funktion mit den Eigenschaften a) und b). Dann ist
_
A
f g dP =
_
A
f dP
_
A
g dP
=
_
A
X dP
_
A
X dP
= 0
f ur alle A /
0
. Mit Bemerkung 1.59 folgt f g = 0 P-fast sicher und somit die Behauptung.
Denition 10.4. Eine Funktion f wie in 1. des obigen Satzes heit die bedingte Erwartung von X unter
/
0
. Sie wird mit E (X [ /
0
) bezeichnet (und ist nach 2. P-fast sicher eindeutig).
Bemerkung 10.5. Ist /
0
= (X
1
, ..., X
n
), so schreibt man
E (X [ /
0
) = E (X [ X
1
, ..., X
n
)
und analog E (X [ X
1
, X
2
, ...) anstatt E (X [ (X
1
, X
2
, ...)).
Bemerkung 10.6. Insbesondere: Sind X und Y Zufallsvariablen auf (, /, P) und ist X integrierbar,
so steht E (X [ Y ) f ur E (X [ (Y )), d.h. die Funktion E (X [ Y ) ist (Y )-mebar und es gilt
_
A
E (X [ Y ) dP =
_
A
X dP
f ur alle A (Y ) = Y
1
(B(R)).
Beispiel 10.7. Es sei I = 1, ..., n oder I = N. Es sei
=
_
iI
B
i
eine disjunkte Zerlegung mit B
i
/ f ur alle i I. Wir setzen /
0
:= (B
i
[ i I). Dann ist A /
0
genau dann, wenn A Vereinigung von B

i
s oder = ist. Sei nun X eine Zufallsvariable auf (, /, P).
Dann gilt E (X [ /
0
) =

iI
b
i

B
i
mit
b
i
=
_
_
_
1
P(B
i
)
_
B
i
X dP falls P(B
i
) > 0,
beliebig in R falls P(B
i
) = 0.
Oenbar ist also E (X [ /
0
) eine Glattung von X.
Beweis. Die oben denierte Funktion ist als Elementarfunktion oensichtlich mebar. Auerdem gilt f ur
jedes j I:
_
B
j

iI
b
i

B
i
dP =
_
B
j
b
j
dP
= b
j
P(B
j
)
=
_
B
j
X dP.
Damit gilt diese Relation auch f ur alle A /
0
, da ein solches A eine Vereinigung von B
j
s ist.
Wir wollen nun noch eine Anwendung der bedingten Erwartungen prasentieren:
Denition 10.8. Eine Folge von reellen Zufallsvariablen Y
1
, Y
2
, ... auf (, /, P) heit Martingal, falls
E (Y
n+1
[ Y
1
, Y
2
, ..., Y
n
) = Y
n
f ur alle n N gilt.
Ma- und Wahrscheinlichkeitstheorie
10 Bedingte Erwartungen 79
Aufgabe 10.9. Zeige, dass Martingale eine Verallgemeinerung von Summen von unabhangigen Zufalls-
variablen in folgendem Sinne sind: Seien X
1
, X
2
, ... unabhangige Zufallsvariablen auf einem Wahrschein-
lichkeitsraum (, /, P) mit E (X
i
) = 0 f ur alle i N. Dann gilt f ur S
n
:=

n
i=1
X
i
, dass
E (S
n+1
[ S
1
, S
2
, ..., S
n
) = S
n
f ur alle n N.
Bemerkung 10.10. Um f ur gegebenes X und /
0
die bedingte Erwartung E (X [ /
0
) bieten sich prin-
zipiell zwei Moglichkeiten:
Man kann E (X [ /
0
) raten und dann die Eigenschaften a) und b) aus Satz 10.3 verizieren.
Man kann versuchen, E (X [ /
0
) mit Hilfe von Rechenregeln zu bestimmen.
Daher geben wir hier nun einige Rechenregeln an:
Satz 10.11 (Eigenschaften der bedingten Erwartung). Seien X, Y, X
1
, X
2
, ... integrierbare, reelle Zufalls-
variablen auf einem Wahrscheinlichkeitsraum (, /, P). Sei auerem /
0
/ eine Teil--Algebra und
a, b R. Dann gilt:
1. X a P-fast sicher impliziert E (X [ /
0
) a P-fast sicher.
2. Ist /
0
trivial, d.h. gilt P(A) 0, 1 f ur alle A /
0
(dies ist etwa f ur /
0
= , der Fall), so
gilt
E (X [ /
0
) E (X) P-fast sicher.
3. Es gilt
E (aX +bY [ /
0
) = aE (X [ /
0
) +bE (Y [ /
0
) Pfast sicher.
4. Ist X Y P-fast sicher, so auch E (X [ /
0
) E (Y [ /
0
) P-fast sicher. Insbesondere impliziert
X = Y P-fast sicher auch E (X [/
0
) = E (Y [ /
0
) P-fast sicher.
5. Es ist [E (X [ /
0
)[ E
_
[X[

/
0
_
P-fast sicher.
6. Ist /
1
/
0
eine weitere Teil--Algebra, so gilt
E (E (X [ /
0
) [ /
1
) = E (X [ /
1
) Pfast sicher.
7. Gilt X
n
n
/

/
X P-fast sicher und [X
n
[ Y P-fast sicher f ur alle n N, so folgt
E (X
n
[ /
0
)
n
/

/
E (X [ /
0
) Pfast sicher.
8. Ist X /
0
-mebar, so gilt E (X [ /
0
) = X P-fast sicher. Allgemeiner gilt: Ist X /
0
-mebar und
X Y integrierbar, so ist
E (XY [ /
0
) = X E (Y [ /
0
) Pfast sicher.
9. Ist /
1
/
0
eine weitere Teil--Algebra und sind (X, /
0
) und /
1
unabhangig, so gilt
E (X [ (/
0
/
1
)) = E (X [ /
0
) Pfast sicher.
Sind insbesondere X und /
1
unabhangig, so folgt mit /
0
= , sofort
E (X [ /
1
) = E (X [ /
0
) = E (X) Pfast sicher.
10. Sei I R ein oenes Intervall derart, dass X nur Werte in I annimmt, und sei g : I
/
R eine
konvexe Funktion. Dann ist E (X [ /
0
) I und falls g X ebenfalls integrierbar ist, so gilt
g (E (X [ /
0
)) E (g (X) [ /
0
) Pfast sicher.
11. Falls Y nur /-mebar (und nicht integrierbar ist), gibt es trotzdem noch eine mebare Funktion
g : R
/
R mit
E (X [ Y ) = g Y Pfast sicher.
g ist die Faktorisierung der bedingten Erwartung nach Y .
Ma- und Wahrscheinlichkeitstheorie
80 10 Bedingte Erwartungen
Beweis. Wir werden nur die Eigenschaften 2. und 3. beweisen. Wer vollstandige Beweise f ur alle Eigen-
schaften sucht, der sei auf [Bau01] verwiesen.
2. Es ist zu zeigen, dass E (X [ /
0
) E (X) die Eigenschaften a) und b) aus Satz 10.3 erf ullt. a) ist
oensichtlich, da konstante Funktionen /-mebar f ur jede -Algebra / sind (Urbilder konnen nur
und sein). F ur b) ist
_
A
E (X) dP =
_
A
X dP
f ur alle A /
0
zu zeigen. Da /
0
nach Voraussetzung trivial ist, unterscheiden wir:
Ist P(A) = 0, so sind beide Seiten der Gleichung identisch 0.
Ist P(A) = 1, so ist
_
A
E (X) dP = E (X) =
_
X dP =
_
A
X dP.
3. Auch hier ist zu zeigen, dass E (aX +bY [ /
0
) = aE (X) + bE (Y [ /
0
) die Eigenschaften a) und
b) aus Satz 10.3 erf ullt. a) ist oensichtlich, denn per Denition sind E (X [ /
0
) und E (Y [ /
0
)
/
0
-mebar. F ur b) berechnet man
_
A
aE (X [ /
0
) +bE (Y [ /
0
) dP
=a
_
A
E (X [ /
0
) dP+b
_
A
E (Y [ /
0
) dP
=a
_
A
X dP+b
_
A
Y dP
=
_
A
aX +bY dP
f ur alle A /
0
.
Beispiel 10.12. Die Eigenschaft 9. der bedingten Erwartung besagt insbesondere, dass die Unabhangig-
keit von X und /
0
E (X [ /
0
) E (X) Pfast sicher
impliziert. Daher gilt f ur unabhangige Zufallsvariablen X und Y auch
E (X [ Y ) = E
_
X [ Y
1
(B(R))
_
= E (X) Pfast sicher.
Ma- und Wahrscheinlichkeitstheorie
11 Gleichgradige Integrierbarkeit 81
11 Gleichgradige Integrierbarkeit
Wir wiederholen hier zunachst den bereits in Kapitel 5 gegebenen Zusammenhang zwischen den verschie-
denen Konvergenzbegrien:
X
n
X
f.s.
/
X
n
X
n
/

/
X
n
X
L
r
/
X
n
X
n
/

/
X
X
n
Satz 5.6
#
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
X
X
n
Satz 5.9
C




















X
n
X
P
/
X
n
X
n
/

/
X X
n
Satz 7.11
3
X
n
X
D
/
X
n
X
n
/

/
(11.1)
Auerdem haben wir in Satz 5.9 gezeigt, dass
X
n
L
p
n
/

/
X X
n
L
r
n
/

/
X falls r p (11.2)
und in Aufgabe 5.16 (mit Satz 5.9)
X
n
L
p
n
/

/
X E ([X
n
[
r
)
n
/

/
E ([X[
r
) falls r p (11.3)
bzw.
X
n
L
1
n
/

/
X E (X
n
)
n
/

/
E (X) . (11.4)
In diesem Kapitel wollen wir nun folgenden Fragen behandeln:
Welche Voraussetzungen an die Folge (X
n
)
nN
sind zusatzlich zu X
n
P
n
/

/
X notig, damit
X
n
L
p
n
/

/
X f ur ein vorgegebenes p [1, ) gilt?
Welche Voraussetzungen an die Folge (X
n
)
nN
sind zusatzlich zu X
n
D
n
/

/
X notig, damit
E
_
X
k
n
_
n
/

/
E
_
X
k
_
f ur ein vorgegebenes k N gilt?
Beispiel 11.1. Auf dem Wahrscheinlichkeitsraum
_
[0, 1] , B([0, 1]) ,
|
[0,1]
_
betrachten wir die Zufallsva-
riablen
X
n
:= n
[0,
1
n
]
f ur n
und X 0. Dann gilt
X
n
f.s.
n
/

/
X, X
n
P
n
/

/
X, X
n
D
n
/

/
X,
aber es liegt keine Konvergenz X
n
L
r
n
/

/
X f ur irgendein r [1, ) vor und auch
lim
n
E (X
n
) = lim
n
1 = 1 ,= E (X) .
Lemma 11.2. Es sei X eine integrierbare Zufallsvariable. Dann gilt:
> 0 > 0 s.d.
_
A
[X[ dP < f ur alle A / mit P(A) < .
Ma- und Wahrscheinlichkeitstheorie
82 11 Gleichgradige Integrierbarkeit
Beweis. Sei > 0 vorgegeben. Wir f uhren den Beweis in zwei Schritten:
1. Betrachte die Funktionenfolge
{|X|k}
[X[ f ur k N. Dann gilt

{|X|k}
[X[
f.s.
n
/

/
0
und die Funktionenfolge wird durch [X[ L
1
majorosiert. Daher folgt aus dem Satz von der
majorisierten Konvergenz
_
{|X|k}
[X[ dP <

2
f ur k N gro genug.
2. Nun wahlen wir ein solches k, welches zusatzlich (mit Hilfe der Markov-Ungleichung)
P([X[ k)
1
k
E ([X[)
. .
<
<

2
erf ullt. Nun setze := 1/k /2. Dann gilt f ur jedes A / mit P(A) < :
_
A
[X[ dP =
_
A{|X|<k}
[X[ dP+
_
A{|X|k}
[X[ dP

_
A
k dP+
_
{|X|k}
[X[ dP
kP(A) +

2
< .
Das zeigt die Behauptung.
Denition 11.3. Eine Folge von Zufallsvariablen (X
n
)
nN
heit gleichgradig integrierbar, wenn
lim
k
sup
nN
_
{|X
n
|k}
[X
n
[ dP = 0.
Bemerkung 11.4. Gleichgradige Integrierbarkeit bedeutet also, dass es f ur alle > 0 ein k N mit
_
{|X
n
|k}
[X
n
[ dP <
f ur alle n N gibt.
Bemerkung 11.5. Oben haben wir implizit angenommen, dass alle Zufallsvariablen auf einem gemein-
samen Wahrscheinlichkeitsraum (, /, P) deniert sind. Das ist so nicht notwendig: Jede Zufallsvariable
X
n
kann auf einem eigenen Wahrscheinlichkeitsraum (
n
, /
n
, P
n
) deniert sein; in diesem Fall ist in
der Denition dP durch dP
n
zu ersetzen.
Wir geben nun zunachst zwei hinreichende Bedingungen f ur gleichgradige Integrierbarkeit:
Lemma 11.6. Jede der folgenden Bedingungen ist hinreichend daf ur, dass die Folge (X
n
)
nN
von Zu-
fallsvariablen gleichgradig integrierbar ist:
Es gilt [X
n
[ Y f ur ein Y L
1
.
Es gibt ein > 0 derart, dass
sup
nN
E
_
[X
n
[
1+
_
< .
Ma- und Wahrscheinlichkeitstheorie
11 Gleichgradige Integrierbarkeit 83
Beweis. Die erste Bedingung impliziert
sup
nN
_
[X
n
[
{|X
n
|k}
dP
_
Y
{|Y |k}
dP
k
/

/
0
mit dem Lebesgueschen Satz von der majorisierten Konvergenz.
Die zweite Bedingung impliziert
_
{|X
n
|k}
[X
n
[ dP = k
_
{|X
n
|k}
[X
n
[
k
dP
k
_
{|X
n
|k}
[X
n
[
1+
k
1+
dP

1
k

_
[X
n
[
1+
dP
=
1
k

E
_
[X
n
[
1+
_

1
k

M
f ur M := sup
nN
E
_
[X
n
[
1+
_
. Dies zeigt die Behauptung.
Satz 11.7 (Charakterisierung gleichgradiger Integrierbarkeit). Eine Folge (X
n
)
nN
von Zufallsvariablen
ist gleichgradig integrierbar genau dann, wenn folgende Bedingungen erf ullt sind:
1. Es gilt
sup
nN
E ([X
n
[) < .
2. F ur alle > 0 gibt es ein > 0 derart, dass f ur alle A / mit P(A) < gilt:
_
A
[X
n
[ dP < f ur alle n N.
Beweis. 1. Sei k N derart, dass
_
{|X
n
|k}
[X
n
[ dP < 1 f ur alle n N. Da die Folge (X
n
)
nN
gleichgradig integrierbar ist, ist dies moglich. Nun gilt
E ([X
n
[) =
_
[X
n
[ dP =
_
{|X
n
|k}
[X
n
[ dP+
_
|X
n
|>k
[X
n
[ dP k + 1
f ur alle n N.
2. Zu > 0 sei k N derart, dass
_
{|X
n
|k}
[X
n
[ dP

2
f ur alle n N gilt. Dies ist wieder gemas der gleichgradigen Integrierbarkeit moglich. Nun
setzen wir := 1/k /2. Ist nun A / mit P(A) < vorgegeben, so gilt
_
A
[X
n
[ dP =
_
A{|X
n
|k}
[X
n
[ dP+
_
A{|X
n
|>k}
[X
n
[ dP
k P(A) +
_
{|X
n
|>k}
[X
n
[ dP
< .
Ma- und Wahrscheinlichkeitstheorie
84 11 Gleichgradige Integrierbarkeit
Zu > 0 wahle > 0 wie in 2. Dann nden wir zu diesem > 0 ein k N mit
1
k
sup
nN
E ([X
n
[) <
gema 1. Mit der Markov-Ungleichung folgt P([X
n
[ k) < f ur alle n N und damit nach 2.
_
{|X
n
|k}
[X
n
[ dP < f ur alle n N.
Dies zeigt die Behauptung.
Bemerkung 11.8. Lemma 11.2 zeigt nun: Es gen ugt, in 2. zu fordern, das
_
A
[X
n
[ dP < f ur alle n n
0
() .
Lemma 11.9. Gilt X
n
L
1
n
/

/
X, so ist die Folge (X
n
)
nN
von Zufallsvariablen gleichgradig inte-
grierbar.
Beweis. Es gen ugt, die Eigenschaften 1. und 2. aus Satz 11.7 zu zeigen.
1. Gemas Aufgabe 5.16 folgt unter den gemachten Voraussetzungen E ([X
n
[)
n
/

/
E ([X[) <
und somit insbesondere
sup
nN
E ([X
n
[) < .
2. Sei > 0 vorgegeben und wahle n
0
() N so gro, dass
_
[X
n
X[ dP <

2
f ur alle n n
0
() .
Dies ist nach Voraussetzung moglich. Jetzt wahlen wir gema Lemma 11.2 ein > 0 zu /2. Nun
gilt f ur jedes n n
0
() und jedes A / mit P(A) < , dass
_
A
[X
n
[ dP
_
A
[X
n
X[ dP+
_
A
[X[ dP
<

2
+

2
= .
Mit der Bemerkung von oben folgt nun die Behauptung.
Lemma 11.10. Es gelte X
n
0 und X 0 sowie X
n
P
n
/

/
X. Sind die Zufallsvariablen X
n
, X
L
1
, so sind folgende Aussagen aquivalent:
E (X
n
)
n
/

/
E (X).
X
n
L
1
n
/

/
X.
Beweis. Wir setzen Y
n
:= minX, X
n
punktweise. Dann gilt
0 Y
n
X L
1
(11.5)
und wegen 0 X Y
n
[X
n
X[ folgt aus Y
n
P
n
/

/
X.
Wir nehmen nun an, es lage keine Konvergenz E (Y
n
)
n
/

/
E (X) vor. Dann gilt

E
_
Y
n(k)
_
E (X)

> (11.6)
Ma- und Wahrscheinlichkeitstheorie
11 Gleichgradige Integrierbarkeit 85
f ur eine Teilfolge
_
Y
n(k)
_
kN
und ein > 0. Gema Satz 5.10 gibt es aber nun eine weitere Teilfolge
_
Y
n(k(j))
_
jN
mit
Y
n(k(j))
f.s.
j
/

/
X.
Mit dem Lebesgueschen Satz von der Lebesgueschen Konvergenz folgt aus (11.5), dass
E
_
Y
n(k(j))
_
j
/

/
E (X) ,
was im Widerspruch zu (11.6) steht.
Also gilt E (Y
n
)
n
/

/
E (X). Da aber
[X X
n
[ = max X, X
n
minX, X
n

= (X +X
n
minX, X
n
) minX, X
n

= X +X
n
+ 2Y
n
folgt somit auch
E ([X
n
X[) = ER(X) +E (X
n
) 2E (Y
n
)
n
/

/
0.
Folgt aus Aufgabe 5.16.
Bemerkung 11.11. Die Voraussetzung X
n
0 ist notwendig. Betrachte das Gegenbeispiel
X
n
:= n
2

[0,
1
n
]
n
2

[1
1
n
,1]
, X 0
auf dem Wahrscheinlichkeitsraum
_
[0, 1] , B([0, 1]) ,
|
[0,1]
_
. Dann gilt X
n
f.s.
n
/

/
0 und man sieht leicht
E (X
n
) = 0
n
/

/
0 = E (X), aber es liegt keine L
1
-Konvergenz vor.
Satz 11.12. Sei 1 p < und seien (X
n
)
nN
Zufallsvariablen aus L
p
. Gilt X
n
P
n
/

/
X f ur eine
reellwertige Zufallsvariable, so sind paarweise aquvalent:
1. Die Folge ([X
n
[
p
)
nN
ist gleichgradig integrierbar.
2. Es gilt X
n
L
p
n
/

/
X, d.h. es ist X L
p
und E ([X X
n
[
p
)
n
/

/
0.
3. Es gilt E ([X
n
[
p
)
n
/

/
E ([X[
p
) < .
Beweis. Wir zeigen die Behauptung per Ringschluss.
2. 3. Wurde bereits in Aufgabe 5.16 gezeigt.
1. 2. Da X
n
P
n
/

/
X gibt es gema Satz 5.10 eine Teilfolge
_
X
n(k)
_
kN
s.d.
X
n(k)
f.s.
k
/

/
X.
Dies impliziert nach Aufgabe 5.3

X
n(k)

p f.s.
k
/

/
[X[
p
.
Nun folgt aber mit dem Lemma von Fatou
E ([X[
p
) = E
_
liminf
k

X
n(k)

p
_
liminf
k
E
_

X
n(k)

p
_
sup
nN
E ([X
n
[
p
) ,
Ma- und Wahrscheinlichkeitstheorie
86 11 Gleichgradige Integrierbarkeit
wobei der letzte Ausdruck gema Satz 11.7 wegen der vorausgesetzten gleichgradigen Integrierbar-
keit endlich ist. Dies zeigt X L
p
. Nun wahlen wir zu > 0 ein > 0 derart, dass
_
A
[X
n
[
p
dP <
f ur alle A / mit P(A) < und f ur alle n N gilt; dies ist gema Satz 11.7 unter der gemachten
Voraussetzung moglich. Nach Lemma 11.2 konnen wir zusatzlich
_
A
[X[
p
dP < f ur alle A / mit P(A) <
erreichen. Wegen X
n
P
n
/

/
X gibt es ein n
0
N s.d. f ur alle n n
0
gilt:
P
_
[X
n
X[
. .
=:A
n
_
< .
Somit folgt nun f ur alle n n
0
wegen P(A
n
) < und der Minkowski-Ungleichung, dass
E ([X
n
X[
p
) =
_
[X
n
X[
p
dP
=
_
{|X
n
X|<}
[X
n
X[
p
dP+
_
{|X
n
X|}
[X
n
X[
p
dP

p
+
_
[
A
n
X
n

A
n
X[
p
dP
. .
=
A
n
X
n

A
n
X
p
p

p
+
_
|
A
n
X
n
|
p
+|
A
n
X|
p
_
p

p
+
_

1
p
+
1
p
_
p
=
p
+ 2
p

und dieser Ausdruck geht mit 0 ebenfalls gegen 0.


3. 1. Mit Aufgabe 5.3 haben wir
[X
n
[
p P
n
/

/
[X[
p
.
Mit Lemma 11.10 und der Voraussetzung folgt so
[X
n
[
p L
1
/
[X[
p
unter den gemachten Voraussetzungen und weiter mit Lemma 11.9 auch, dass die Folge ([X
n
[
p
)
nN
gleichgradig integrierbar ist.
Korollar 11.13. Sei k N und gelte X
n
L
k
n
/

/
X. Dann gilt auch
X
k
n
L
1
n
/

/
X
k
.
Beweis. Die Voraussetzung X
n
L
k
n
/

/
X impliziert gema (11.1)
X
n
P
n
/

/
X
und somit folgt nach Aufgabe 5.3 sofort
X
k
n
P
n
/

/
X
k
.
Ma- und Wahrscheinlichkeitstheorie
11 Gleichgradige Integrierbarkeit 87
Num zeigt Satz 11.12, dass die Folge
_
[X
n
[
k
_
nN
gleichgeradig integrierbar ist und somit folgt wiederum
aus Satz 11.12 f ur Y
n
:= X
k
n
und p = 1, dass
X
k
n
= Y
n
L
1
n
/

/
X
k
.
Korollar 11.14. Sei k N. Jede der folgenden Bedingungen ist hinreichend f ur
E
_
X
k
n
_
n
/

/
E
_
X
k
_
:
1. X
n
L
k
n
/

/
X.
2. X
n
P
n
/

/
X und die Folge
_
[X
n
[
k
_
nN
ist gleichgradig integrierbar.
3. X
n
P
n
/

/
X und es gibt ein > 0 s.d.
sup
nN
E
_
[X
n
[
1+
_
< .
Beweis. 1. Mit Korollar 11.13 folgt aus der Voraussetzung X
k
n
L
1
n
/

/
X
k
und Aufgabe 5.16 zeigt
nun die Behauptung.
2. Satz 11.12 zeigt, dass X
n
L
k
n
/

/
X gilt. Nun nutzen wir Teil 1.
3. Es gilt [X
n
[
p+
= ([X
n
[
p
)
1+

p
. Gema Lemma 11.6 ist also die Folge ([X
n
[
p
)
nN
gleichgradig inte-
grierbar. Nun nutzen wir Teil 2.
Korollar 11.15. Man kann in 1. und 2. aus Korollar 11.14 die Bedingung X
n
P
n
/

/
X durch
X
n
D
n
/

/
X ersetzen und die Aussage bleibt richtig.
Beweis. Folgt sofort mit dem Satz von Skorohod.
Ma- und Wahrscheinlichkeitstheorie
12 Stationare Prozesse mit diskreter Zeit 89
12 Stationare Prozesse mit diskreter Zeit
Bemerkung 12.1 (Vorbereitung). Sind mebare Abbildungen
(, /, P) (

, /

)
X
/
(

, /

) (

, /

)
Y
/
(, /, P) (

, /

)
Y X
4
gegeben, so wird auf (

, /

) das Bildma X (P) = P


X
durch X induziert. Mit diesem wiederum wird
ein Bildma Y (X (P)) =
_
P
X
_
Y
auf (

, /

) durch Y induziert. Die Vekn upfung Y X der beiden


Abbildungen induziert direkt ein Bildma (Y X) (P) = P
Y X
, welches mit Y (X (P)) =
_
P
X
_
Y
ubereinstimmt.
12.1 Grundbegrie
Denition 12.2. Eine reeller stochastischer Prozess mit diskreter Zeit ist eine Folge X
1
, X
2
, ... reeller
Zufallsvariablen auf einem Wahrscheinlichkeitsraum (, /, P). Ist die Indexmenge nicht N sondern etwa
R
+
= (0, ), so sprechen wir von stetiger Zeit.
Denition 12.3. Sei X
1
, X
2
, ... ein reeller stochastischer Prozess mit diskreter Zeit. F ur festes
heit
(X
1
() , X
2
() , ...)
ein Pfad des Prozesses.
Bemerkung 12.4. Sei X
1
, X
2
, ... ein reeller stochastischer Prozess mit diskreter Zeit. Die Abbildung
(X
1
() , X
2
() , ...)
ist mebar als
(, /, P)
/
_
R
N
, (B(R))
N
_
.
Denition 12.5. Sei X
1
, X
2
, ... ein reeller stochastischer Prozess mit diskreter Zeit. Das Bildma der
obigen Abbildung
(X
1
, X
2
, ...) (P) = P
(X
1
,X
2
,...)
auf
_
R
N
, (B(R))
N
_
ist die Verteilung des Prozesses.
Denition 12.6. Wir nennen einen reellen stochastischen Prozess X
1
, X
2
, ... mit diskreter Zeit stationar,
falls
P
(X
1
,X
2
,...)
= P
(X
k
,X
k+1
,...)
f ur alle k N gilt.
Lemma 12.7. F ur einen reellen stochastischen Prozess X
1
, X
2
, ... sind aquivalent:
1. Der Prozess ist stationar.
2. F ur alle n N, x
1
, ..., x
n
R und k N gilt
P(X
1
x
1
, ..., X
n
x
n
) = P(X
k
x
1
, ..., X
k+n1
x
n
) .
3. Es ist
P
(X
1
,X
2
,...)
= P
(X
2
,X
3
,...)
.
Beweis. Wir zeigen die Behauptung per Ringschluss.
Ma- und Wahrscheinlichkeitstheorie
90 12 Stationare Prozesse mit diskreter Zeit
2. 3. Die Mengen
B(n, x
1
, ..., x
n
) :=
_
(y
i
)
iN
[ y
1
x
1
, ..., y
n
x
n
_
sind f ur n N und x
1
, ..., x
n
R ein -stabiles Erzeugendensystem f ur (B(R))
N
. Die Eigenschaft
2. f ur k = 2 zeigt
P
(X
1
,X
2
,...)
(B(n, x
1
, ..., x
n
)) = P
(X
2
,X
3
,...)
(B(n, x
1
, ..., x
n
))
f ur alle n N und x
1
, ..., x
n
R. Mit Satz 1.29 folgt nun P
(X
1
,X
2
,...)
= P
(X
2
,X
3
,...)
.
3. 1. Es sei : R
N
/
R
N
die durch
(x
1
, x
2
, ...) := (x
2
, x
3
, ...)
denierte mebare Shift-Abbildung auf
_
R
N
, (B(R))
N
_
. Dann gilt

_
P
(X
1
,X
2
,...)
_
= P
(X
1
,X
2
,...)
= P
(X
2
,X
3
,...)
= P
(X
1
,X
2
,...)
nach Voraussetzung. Induktiv folgt diese Formel auch f ur
k
anstelle von mit beliebigem k N.
Dies zeigt, dass der Prozess X
1
, X
2
, ... stationar ist.
1. 2. Diese Implikation folgt mit der Denition und den Mengen B(n, x
1
, ..., x
n
) wie oben.
Bemerkung 12.8. Sind X
1
, X
2
, ... disrete Zufallsvariablen mit Werten in einer hochstens abzahlbaren
Teilmenge S R, so ist 2. aquivalent zu
4. F ur alle n N, x
1
, ..., x
n
R und k N gilt
P(X
1
= x
1
, ..., X
n
= x
n
) = P(X
k
= x
1
, ..., X
k+n1
= x
n
) .
Beispiel 12.9. Sind X
1
, X
2
, ... unabhangige identisch verteilte Zufallsvariablen, so ist X
1
, X
2
, ... ein
stationarer stochastischer Prozess mit diskreter Zeit, wie man mit obigem Lemma leicht sieht.
Bemerkung 12.10. Ist X
1
, X
2
, ... ein stationarer stochastischer Prozess mit diskreter Zeit, so folgt aus
obigem Lemma mit Teil 2., dass X
1
, X
2
, ... identisch verteilt sind. Sie m ussen aber nicht unabhangig sein!
Beispiel 12.11 (Stationare Markov-Ketten). Vergleiche hierzu auch [WB08, Kapitel 11].
Sei S = 1, ..., N ein endlicher Zustandsraum und P = (p
i,j
)
1i,jN
eine stochastische N N-Matrix,
d.h.

N
j=1
p
i,j
= 1 f ur alle 1 i N und p
i,j
0 f ur alle 1 i, j N.
Als konkretes Beispiel betrachten wir etwa die stochastische Matrix
P =
_
0 1
1
2
1
2
_
.
Wir konnen die Eintrage von P als Wahrscheinlichkeiten f ur das zufallige Herumwandern auf einem
Graphen verstehen, welcher sich hier wie folgt darstellt:
1 2
1
*
1 2 j
1
2
2
1
2
2
[
Ein Vektor = ( (1) , ..., (N)) heit invariante Verteilung, wenn P = gilt. Im konkreten Beispiel
ware
=
_
1
3
,
2
3
_
.
Eine Markov-Kette zu (, P) ist eine Folge von Zufallsvariablen X
1
, X
2
, ... mit der Eigenschaft
P(X
1
= x
1
, ..., X
n
= x
n
) = (x
1
) p
x
1
,x
2
... p
x
n1
,x
n
f ur alle n N und x
1
, ..., x
n
S.
F ur die Existenz solcher Folgen von Zufallsvariablen sei auf die Vorlesung Stochastische Prozesse ver-
wiesen.
Ma- und Wahrscheinlichkeitstheorie
12 Stationare Prozesse mit diskreter Zeit 91
Lemma 12.12. Eine Markov-Kette X
1
, X
2
, ... ist ein stationarer stochastischer Prozess mit diskreter
Zeit.
Beweis. Zu zeigen ist nur, dass der Prozess stationar ist. Dazu verwenden wir die Eigenschaft 4. von
oben. Es ist
P(X
k
= x
1
, ..., X
k+n1
= x
n
) =

y
1
,...,y
k1
S
P(X
1
= y
1
, ..., X
k1
= y
k1
, X
k
= x
1
, ..., X
k+n1
= x
n
)
=

y
1
,...,y
k1
S
(y
1
) p
y
1
,y
2
... p
y
k1
x
1
... p
x
n1
,x
n
=

y
2
,...,y
k1
S
_
_

y
1
S
(y
1
) p
y
1
,y
2
_
_
. .
=(P)
y
2
P
y
2
.,y
3
... p
y
k1
x
1
... p
x
n1
,x
n
=

y
2
,...,y
k1
S
(y
2
) P
y
2
.,y
3
... p
y
k1
x
1
... p
x
n1
,x
n
= ...
= (x
1
) p
x
1
,x
2
... p
x
n1
,x
n
= P(X
1
= x
1
, ..., X
n
= x
n
) .
f ur alle n N und x
1
, ..., x
n
S, womit die Behauptung folgt.
Bemerkung 12.13. Im Allgemeinen sind die Zufallsvariablen X
1
, X
2
, ... der Markov-Kette nicht un-
abhangig, im konkreten Beispiel oben gilt etwa
P(X
1
= 1, X
2
= 2) = 0 ,=
1
3

_
2
3

1
2
_
= P(X
1
= 1) P(X
2
= 1) .
12.2 Matreue Abbildungen
Denition 12.14. Sei (, /, P) ein Wahrscheinlichkeitsraum und T : (, /)
/
(, /) eine mebare
Abbildung. T heit matreu, wenn f ur alle A /
P
_
T
1
(A)
_
= P(A)
gilt.
Bemerkung 12.15. Dies ist genau dann der Fall, wenn T (P) = P oder anders geschrieben P
T
= P
gilt.
Beispiel 12.16 (s-adische Transformation). Es sei s N
2
fest. Auf dem Wahrscheinlichkeitsraum
_
[0, 1) , B([0, 1)) ,
|
[0,1)
_
, wobei B([0, 1)) = A [0, 1) [ A B(R) die Borelsche -Algebra des Inter-
valls [0, 1) und
|
[0,1)
die Einschrankung des Lebesguemaes auf B([0, 1)) bezeichnet, betrachten wir die
Abbildung
T
s
(x) := s x mod 1.
Diese Abbildung ist matreu.
Beweis. F ur Intervalle I = [a, b) [0, 1) ist
T
1
s
(I) =
s
_
k=1
I
k
disjunkt mit Intervallen I
k
der Lange (b a) /s. Daher gilt
_
T
1
s
(I)
_
= s (b a) /s = b a = (I)
und somit auch

|
[0,1)
(I) =
|
[0,1)
_
T
1
s
(I)
_
.
Da diese Intervalle ein -stabiler Erzeuger von B([0, 1)) sind, folgt mit Satz 1.29 die Behauptung.
Ma- und Wahrscheinlichkeitstheorie
92 12 Stationare Prozesse mit diskreter Zeit
Abbildung 12.1: Plot der Funktion T
s
f ur s = 2.
Beispiel 12.17 (Rotationen des Kreises). Hier betrachten wir T

: S
1
/
S
1
f ur [0, 1] auf der Sphare
S
1
= z C [ [z[ = 1 deniert durch
T

(z) = z exp(2i) .
Diese Abbildung kann auch als Abbildung auf dem Intervall [0, 1) betrachtet werden, namlich als
T

: [0, 1)
/
[0, 1) , T

(x) := (x +) mod 1.
Diese Abbildung ist oenbar auch matreu.
Abbildung 12.2: Plot der Funktion T

f ur =
1
4
.
Beispiel 12.18. Sei X
1
, X
2
, ... ein stationarer Prozess. Dann ist die Shift-Abbildung weiter oben de-
niert matreu bez uglich P
(X
1
,X
2
,...)
. Dies folgt direkt aus Lemma 12.7.
Satz 12.19. Sei T matreu auf (, /, P). Sei X eine reelle Zufallsvariable auf (, /, P). Dann ist der
Prozess X
i
:= X T
i1
, i = 1, 2, ..., also
X, X T, X T
2
, ...
stationar.
Beweis. Die Matreue von T impliziert
_
X, X T, X T
2
, ...
_
(P) =
_
X, X T, X T
2
, ...
_
(T (P))
=
_
X T, X T
2
, ...
_
(P) .
Mit Lemma 12.7 zeigt dies die Behauptung.
Beispiel 12.20. In Beispiel 12.16 ist also der Prozess
X, X T, X T
2
, ...
stationar f ur jede mebare Abbildung X : [0, 1)
/
R.
Ma- und Wahrscheinlichkeitstheorie
12 Stationare Prozesse mit diskreter Zeit 93
Aufgabe 12.21. Auf dem Wahrscheinlichkeitsraum
_
(0, 1] , B((0, 1]) ,
|
(0,1]
_
seien
B(n, k) =
_
k
2
n
,
k + 1
2
n
_
f ur n N und 0 k < 2
n
. Es sei
A
n
:=
2
n1
1
_
k=0
B(n, 2k)
f ur n N. Zeige, dass die Zufallsvariablen X
n
:=
A
n
, n N unabhangig sind und dass
P(X
n
= 0) = P(X
n
= 1) =
1
2
gilt f ur alle n N.
Bemerkung 12.22. Die obige Aufgabe zeigt, dass f ur T aus Beispiel 12.16 und X =
[1/2,1)
auf dem
Wahrscheinlichkeitsraum
_
(0, 1] , B((0, 1]) ,
|
(0,1]
_
die Zufallsvariablen XT
i1
, i = 1, 2, 3, ... unabhangig
sind und ein Modell f ur den unendlich wiederholten M unzwurf bilden.
Aufgabe 12.23. Es sei T wie in Beispiel 12.16 und X (x) = x auf dem Wahrscheinlichkeitsraum
_
(0, 1] , B((0, 1]) ,
|
(0,1]
_
.
Zeige, dass dann
X, T, T
2
, ...
nicht unabhangig sind.
12.3 Ergodensatz
Denition 12.24. Eine matreue Abbildung T auf (, /, P) heit ergodisch, wenn T
1
(A) = A f ur
ein A / auch P(A) 0, 1 impliziert.
Beispiel 12.25. Die Abbildung T (x) = x auf [0, 1) mit dem Lebesguema ist nicht ergodisch, da zum
Beispiel
T
1
__
0,
1
2
__
=
_
0,
1
2
_
aber
__
0,
1
2
__
=
1
2
gilt.
Beispiel 12.26. Die Abbildung T (x) := s x mod 1 auf
_
[0, 1) , B([0, 1)) ,
|
[0,1)
_
mit s N
2
ist
ergodisch.
Beweis. Wir zeigen die Behauptung f ur s = 2, die anderen Falle sind analog zu beweisen.
Es sei E = [0, 1/2). Nun gilt
T
1
(A) = A f ur A / A = (A E)
_
(A E) +
1
2
_
,
da T
1
(B) = (B E)
_
(B E) +
1
2
_
f ur jede Menge B B([0, 1)). Da die hinteren beiden Mengen
das selbe Ma haben, folgt
(A E) =
1
2
(A) = (A) (E)
und somit sind A und E unabhangig. Nach dem Blockungslemma sind auch A und E
c
unabhangig.
Eine analoge Rechnung mit T
2
(A) = A liefert, dass A und [i/4, (i + 1)/4) f ur i = 0, 1, 2, 3 unabhangig
sind.
Allgemeiner erhalten wir so, dass f ur jedes dyadische Intervall
D :=
_
i
2
k
,
i + 1
2
k
_
Ma- und Wahrscheinlichkeitstheorie
94 12 Stationare Prozesse mit diskreter Zeit
die Mengen A und D unabhangig sind. A ist also unabhangig von
/
0
:= endliche disjunkte Vereinigungen dyadischer Intervalle ,
einer Algebra, die B([0, 1)) erzeugt. Satz 3.7 impliziert nun, dass es f ur alle > 0 ein A
0
/
0
gibt mit
P(AA
0
) < .
In Aufgabe 3.8 wird unter anderem gezeigt, dass die Unabhangigkeit von Aund /
0
somit P(A) = P
_
A
2
_
impliziert, woraus folgt, dass T ergodisch ist.
Beispiel 12.27. Die Abbildung T

(x) := (x +) mod 1 auf


_
[0, 1) , B([0, 1)) ,
|
[0,1)
_
ist ergodisch ge-
nau dann, wenn [0, 1) irrational ist.
Ein Gegenbeispiel f ur = 1/2 liefert etwa
A =
_
1
4
,
1
2
_

_
3
4
, 1
_
.
Satz 12.28 (Ergodensatz nach Birkho - Kurzfassung). Sei T eine ergodische Abbildung und X eine
integrierbare Zufallsvariable auf (, /, P). Dann gilt
1
n
n

k=1
X T
k1
f.s.
n
/

/
E (X) ,
d.h. das Zeitmittel entlang des T-Orbits konvergiert fast sicher gegen das Raummittel.
Den Beweis ndet man etwa bei [Bil95].
Beispiel 12.29. Sei X =
A
f ur ein A /. Dann folgt aus dem Ergodensatz, dass
1
n
n

k=1

A
T
k1
f.s.
n
/

/
E (
A
) = P(A) ,
d.h. die relative Haugkeit der Besuche in A konvergiert fast sicher gegen die Wahrscheinlichkeit P(A).
Zuletzt prasentieren wir drei Anwendungen des Ergodensatzes:
1. Starkes Gesetz
Seien X
1
, X
2
, .. unabhangige, identisch verteilte Zufallsvariablen. Mit dem 0-1-Gesetz von Kolmo-
gorov kann man zeigen, dass die Shift-Abbildung : R
N
/
R
N
ergodisch bez uglich P
(X
1
,X
2
,...)
ist.
Mit X := pr
1
: (x
1
, x
2
, ...) x
1
folgt aus dem Ergodensatz, dass
1
n
n

k=1
X
k1
P
(X
1
,X
2
,...)
f.s.
n
/

/
E (X) = E (X
1
) .
Mit Vorschalten der Abbildung
(./, P)
(X
1
,X
2
,...)
/
_
R
N
, (B(R))
N
, P
(X
1
,X
2
,...)
_
folgt so das starke Gesetz der groen Zahlen
1
n
n

k=1
X
k1
(X
1
, X
2
, ...)
. .
=X
k
Pf.s.
n
/

/
E (X
1
)
unter schwacheren Voraussetzungen als in Kapitel 6.
2. 10-adische Transformation
Sei T (x) = 10 x mod 1. Wir haben oben bereits gesehen, dass diese Abbildung ergoisch ist. F ur
eine Ziernfolge a
1
, ..., a
j
0, 1, ..., 9
j
sei
A := x [0, 1) [ x = 0.a
1
a
2
...a
j
a
j+1
... ,
Ma- und Wahrscheinlichkeitstheorie
12 Stationare Prozesse mit diskreter Zeit 95
d.h. A sei die Menge aller Zahlen aus [0, 1), deren Dezimaldarstellung mit den Ziern a
1
, ..., a
j
beginnt.
Nun sei X =
A
. Dann ist E (X) = (A) = 10
j
der Erwartungswert bez uglich des Lebesguemaes.
Der Ergodenstaz liefert also
1
n
n

k=1
X T
k1
f.s.
n
/

/
10
j
,
d.h. die relative Haugkeit, dass a
1
...a
j
in der Dezimaldarstellung auftaucht, konvergiert fast sicher
gegen 10
j
. Dies gilt nun f ur alle Blocke a
1
...a
j
und daher gilt:
F ur fast alle Zahlen x [0, 1) taucht jeder Block a
1
...a
j
mit der Ha ugkeit 10
j
in der Dezimal-
darstellung auf. Solche Zahlen werden auch normale Zahlen genannt.
Allerdings liefert dieses Ergebnis nicht die Normalitat einer bestimmten Zahl, so ist die Frage danach
f ur exp(1) 2 oder 3 bis heute nicht geklart.
3. Markov-Ketten
Der Markov-Shift zu (, P) ist ergodisch, falls P irreduzibel ist, d.h. falls es f ur alle Paare i, j S
ein n N mit P
n
(i, j) > 0 gibt.
In diesem Fall sei s S fest und X :=
{s}
pr
1
, also
X (x
1
, ..., x
n
) =
_
1 falls x
1
= s,
0 sonst.
Der Ergodensatz liefert nun
1
n
n

k=1
X
k1
f.s.
n
/

/
E (X) = P(X
1
= s) = (s)
f ur die irreduzible Verteilung . Vorschalten der Abbildung
(X
1
() , X
2
() , ...)
liefert nun das starke Gesetz f ur Markov-Ketten
1
n
n

k=1

{s}
X
k
f.s.
n
/

/
(s) ,
d.h. die relative Haugkeit der Besuche in s konvergiert fast sicher gegen (s).
Ma- und Wahrscheinlichkeitstheorie
13 Losungen ausgewahlter Aufgaben 97
13 Losungen ausgewahlter Aufgaben
Aufgabe 1.82. Nach Voraussetzung existiert eine Folge (B
i
)
iN
/ mit (B
i
) < f ur alle i N und

i=1
B
i
= . Nun setzen wir
A
n
:= f
1
([0, n]) /
f ur n N, da f mebar ist. Weiter wahlen wir eine Abzahlung K : N
/
NN, K = (K
1
, K
2
). Dann ist
D
j
:= A
K
1
(j)
B
K
2
(j)
, j N
eine Familie von Mengen aus / mit
(D
j
) =
_
D
j
f d =
_
A
K
1
(j)
B
K
2
(j)
f d K
1
(j)
_
B
K
2
(j)
_
d <
f ur alle j N und

_
j=1
D
j
=

_
i=1

_
n=1
A
n
B
i
=

_
n=1
A
n

_
i=1
B
i
_
. .
=
=

_
n=1
A
n
= ,
da der Wertebereich von f in [0, ) enthalten ist. Also ist ebenfalls -endlich.
Aufgabe 2.37. Die Behauptung folgt daraus, dass
X
1
() = ,
X
1
(

) = ,
X
1
(A B) = X
1
(A) X
1
(B) ,
X
1
(A B) = X
1
(A) X
1
(B) ,
X
1
(A B) = X
1
(A) X
1
(B) ,
f ur alle A, B /

gilt.
Aufgabe 4.14. Sei f L

(, /, ). Dann gibt es eine Folge M


n
R
+
mit [f[ M
n
fast sicher f ur
alle n N und M
n
|f|

f ur n
/
. D.h. es gibt Mengen A
n
/ mit (A
n
) = 0 f ur alle n N
und [f (x)[ M
n
f ur alle x A
c
n
und n N.
Wir setzen A :=

n=1
A
n
. Dann ist (A) = 0 wie bereits gesehen und es gilt
[f (x)[ M
n
f ur alle x A
c
und alle n N.
Durch Bilden des Grenzwertes n
/
folgt
[f (x)[ |f|

f ur alle x A
c
.
Da (A) = 0 ist somit [f[ |f|

fast sicher gezeigt.


Aufgabe 5.13. Es sei (, /, P) = ([0, 1] , B([0, 1]) , ) mit dem eingeschrankten Lebesguema . Es sei
r 1 beliebig,.
Deniere
Y
n
() :=
[0,
1
n
]
()
1

, [0, 1] .
Oenbar konvergiert Y
n
punktweise gegen 0 und somit Y
n
f.s.
n
/

/
0. Allerdings ist wegen
|Y
n
|
r
r
=
1
n
_
0
1

d =
kein Y
n
ein Element aus L
r
und somit kann nicht Y
n
L
r
n
/

/
0 gelten.
Ma- und Wahrscheinlichkeitstheorie
98 13 Losungen ausgewahlter Aufgaben
Aufgabe 5.16. Aus der ersten Dreiecksungleichung (oder Minkowski-Ungleichung)
|f +g|
r
|f|
r
+|g|
r
f ur alle f, g L
r
folgt mit f = u v, g = v f ur u, v L
r
und umgekehrt bekanntlich die zweite
Dreiecksungleichung
[|u|
r
|v|
r
[ |u v|
r
.
Da X
n
L
r
n
/

/
X per Denition |X
n
X|
r
n
/

/
0 bedeutet, folgt damit
(E ([X
n
[
r
))
1
r
= |X
n
|
r
n
/

/
|X|
r
= (E ([X[
r
))
1
r
.
Anwenden der stetigen Funktion t t
r
liefert die erste Behauptung.
F ur r = 1 wissen wir nun bereits E (Y
n
)
n
/

/
E (Y ) unter den gemachten Voraussetzungen f ur positi-
ve Zufallsvariablen Y
n
und Y . Nun zerlegen wir X
n
= X
+
n
X

n
, X = X
+
X

mit X
+
n
, X

n
, X
+
, X

0.
Da X
n
L
1
n
/

/
X auch
X
+
n
L
1
n
/

/
X
+
und
X

n
L
1
n
/

/
X

impliziert, folgt so
E (X
n
) = E
_
X
+
n
X

n
_
= E
_
X
+
n
_
E
_
X

n
_
n
/

/
E
_
X
+
_
E
_
X

_
= E
_
X
+
X

_
= E (X)
und die Behauptung ist gezeigt.
Aufgabe 6.3. Es gilt
Cov (Y
1
, Y
2
) = E ((Y
1
E (Y
1
)) (Y
2
E (Y
2
)))
= E ((X
1
E (X
1
) E ((X
1
E (X
1
)))) (X
2
E (X
2
) E ((X
2
E (X
2
)))))
= E ((X
1
E (X
1
)) (X
2
E (X
2
)))
= Cov (X
1
, X
2
)
= 0.
Aufgabe 7.4. Oenbar ist die Verteilungsfunktion von =
|
[0,1]
stetig auf [0, 1] und es gen ugt, auf
([0, 1] , B([0, 1]) , ) zu arbeiten, daher ist zu zeigen, dass

n
([0, x])
n
/

/
([0, x]) = x f ur alle x [0, 1] .
Nun gilt

n
([0, x]) =
k + 1
n
wenn x
_
k
n
,
k + 1
n
_
.
Entsprechend erhalt man
[
n
([0, x]) ([0, x])[
1
n
f ur alle n N, womit die Konvergenz gezeigt ist.
Aufgabe 9.9. 1. Laut Satz 8.15 gen ugt es zu zeigen, dass

X
n
/
Y punktweise auf ganz R. In Beispiel
8.8 haben wir bereits berechnet, dass

X
n
(t) = (1 p
n
+p
n
exp(it))
n
f ur t R und dass

Y (t) = exp() exp(exp(it)) = exp((exp(it) 1))


f ur t R gilt. Eine leichte Umformung zeigt

X
n
(t) =
_
1 +
np
n
(exp(it) 1)
n
_
n
und somit folgt die Behauptung aus dem angegebenen Hinweis.
Ma- und Wahrscheinlichkeitstheorie
13 Losungen ausgewahlter Aufgaben 99
2. Nach 1. haben wir nun
X
n
D
n
/

/
Y,
d.h. P(X
n
t)
n
/

/
P(Y t) f ur alle t R N
0
, da N
0
die Menge der Punkte aus R ist,
die eine Masse bez uglich Poi () haben. Es folgt
P(a X
n
b)
n
/

/
P(a Y b) f ur alle a, b R N
0
, a < b.
Zu gegebenem k N
0
setzen wir a = k 1/2, b = k + 1/2 und sehen so
P(X
n
= k) =P(a X
n
b)
n
/

/
P(a Y b)
= P(Y = k)
= exp()

k
k!
,
da sowohl X
n
als auch Y als diskrete Zufallsvariablen im Intervall [a, b] nur in x = k Wahrschein-
lichkeitsmasse haben.
Ma- und Wahrscheinlichkeitstheorie
100 13 Losungen ausgewahlter Aufgaben
Ma- und Wahrscheinlichkeitstheorie
Literaturverzeichnis 101
Literaturverzeichnis
[Bau01] H. Bauer. Wahrscheinlichkeitstheorie. Gruyter, 2001.
[Bil95] P. Billingsley. Probability and Measure. Wiley & Sons, 1995.
[DH04] H. Dehling and B. Haupt. Einf uhrung in die Wahrscheinlichkeitstheorie und Statistik (Statistik
Und Ihre Anwendungen). Springer, 2004.
[Hal98] P. R. Halmos. Measure Theory. Springer, 1998.
[Kre05] U. Krengel. Einf uhrung in die Wahrscheinlichkeitstheorie und Statistik: F ur Studium, Berufs-
praxis und Lehramt. Vieweg+Teubner, 2005.
[WB08] F. Werner and K. Bolze. Grundlagen der Stochastik. Inozielles Vorlesungsskriptum, Georg-
August-Universitat Gottingen, WS 07/08.
Ma- und Wahrscheinlichkeitstheorie

Das könnte Ihnen auch gefallen