Sie sind auf Seite 1von 89

Stochastische Prozesse 2

WS 2021

Vorlesung von Priv.-Doz. Dr. J. Dippon

30. März 2022


Inhaltsverzeichnis
1. Martingaltheorie 3
1.1. Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Optional Sampling und Optional Stopping . . . . . . . . . . . . . . . . . . 6
1.3. Martingalkonvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1. P-fast-sichere Konvergenz . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2. L1 -Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3. L2 -Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4. Diskrete Stochastische Integration . . . . . . . . . . . . . . . . . . . . . . . 21

2. Grundbegri↵e aus der Theorie der Markov-Prozesse 23


2.1. Grundbegri↵e aus der Theorie der stochastischen Prozesse . . . . . . . . . 23
2.2. Definition und Konstruktion von Markovschen Prozessen . . . . . . . . . . 24
2.3. Zur Stetigkeit von Pfaden bei Markov-Prozessen . . . . . . . . . . . . . . . 28
2.4. Wiener- und Poisson-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5. Di↵usionsprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6. Markovsche Sprungprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3. Stationärer Prozesse 44
3.1. Stationäre Prozesse, Gauß-Prozesse, stationäre Gauß-Prozesse . . . . . . . 44
3.2. Ergodensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3. Zeitreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.1. Schätzung des Trends . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.2. Schätzung der saisonalen Komponente . . . . . . . . . . . . . . . . 56
3.3.3. Stationäre Zeitreihen . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.4. Vorhersage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4. Stochastische Integration 58
4.1. Martingale in stetiger Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2. Probleme bei der Defintion eines stochastischen Integrals . . . . . . . . . . 62
4.3. Das Itô-Integral bzgl. der Brown’schen Bewegung . . . . . . . . . . . . . . 63
4.4. Eine pfadweise Definition des Itô-Integrals und die Itô-Formel . . . . . . . 73

A. Hilfsmittel 82
A.1. Begri↵e und Sätze der Maß- und Integrationstheorie . . . . . . . . . . . . . 82
A.2. Hilfsmittel aus der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . 83
A.3. Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.4. Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Literatur 89

2
1. Martingaltheorie

1.1. Martingale
Definition 1.1.1. W-Raum (⌦, F, P ). Eine Folge (Xn )n2N von integrierbaren ZVn Xn :
(⌦, A, P ) ! (R, B) heißt bei gegebener monoton wachsender Folge (Fn )n2N von -Algebren
Fn ⇢ F mit Fn -B-Messbarkeit von Xn [wichtiger Fall Fn = F(X1 , . . . , Xn ) (n 2 N)]
a) ein Martingal bzgl. (Fn ), wenn

8 E(Xn+1 | Fn ) = Xn f.s.
n2N
Z Z
[d.h. 8 8 Xn+1 dP = Xn dP
n2N C2Fn C C
bzw. 8 8 E(1C Xn+1 ) = E(1C Xn )] ,
n2N C2Fn

b) ein Submartingal bzgl. (Fn ), wenn

8 E(Xn+1 | Fn ) Xn f.s.
n2N
Z Z
[d.h. 8 8 Xn+1 dP Xn dP
n2N C2Fn C C
bzw. 8 8 E(1C Xn+1 ) E(1C Xn )] ,
n2N C2Fn

c) ein Supermartingal bzgl. (Fn ), wenn ( Xn ) ein Submartingal bzgl. (Fn ) ist, also

8 E(Xn+1 | Fn )  Xn f.s.
n2N

Bemerkung (Dippon) Ein Martingal verhindert, dass Xn+1 gegeben einer Geschichte
zu sehr von Xn abweicht.

Bemerkung 1.1.1. Ein Martingal (Xn ) bzgl. (Fn ) ist auch ein Martingal bzgl.
(F(X1 , . . . , Xn )). Entsprechend für Sub-, Supermartingal.

3
Beweisidee. Sei X = (Xn )n2N ein Martingal bzgl. F = (Fn )n2N . Xn ist auch F(X1 , ..., Xn )
messbar und damit

E(Xn+1 | F(X1 , ..., Xn )) = E(E(Xn+1 | Fn ) | F(X1 , ..., Xn ))


= E(Xn | F(X1 , ..., Xn )) = Xn

Satz 1.1.1. W-Raum (⌦, F, P ), Folge (Vn )n2N von ZVn Vn : (⌦, F, P ) ! (R, B) . Die
P
n
Partialsummenfolge ( Vj )n2N ist genau dann ein Martingal bzw. Submartingal bzgl.
j=1
(F(V1 , V1 + V2 , . . . , V1 + . . . + Vn )) = (F(V1 , . . . , Vn )), wenn

8 Vn integrierbar und 8 E(Vn+1 | V1 , . . . , Vn ) = 0 bzw. 0 f.s.


n2N n2N

(Ist speziell Wn := Vn E(Vn ), so ist E(Wn+1 | Fn ) = 0 () Vn+1 unabhängig von Fn .)

Beweisidee. Unter Voraussetzung der Vn (Integrierbarkeit gegeben und Messbarkeit klar)


genügt es zu zeigen:

n+1
! n
X X
8n2N E Vj | Fn = Vj () 8n2N E(Vn+1 | Fn ) = 0 f.s.
i=1 j=1

Definition 1.1.2. Ein Spiel mit zufälligen Gewinnständen X1 , X2 , . . . nach dem 1., 2.,
. . . Schritt heißt fair, wenn EX1 = 0 und (Xn )n2N ein Martingal [bzgl. (F(X1 , . . . , Xn ))]
ist, d.h. EX1 = 0 und 8 E(Xn+1 | X1 = x1 , . . . , Xn = xn ) = xn für P(X1 ,...,Xn ) -f.a.
n
(x1 , . . . , xn ).

Satz 1.1.2. W-Raum (⌦, F, P ), Folge (Vn ) von


⇣Pquadratisch
⌘ integrierbaren ZVn Vn :
n
(⌦, F, P ) ! (R, B). Die Partialsummenfolge j=1 Vj sei ein Martingal.
Dann gilt 8 EVi Vj = 0.
i6=j

Beweisidee. O.b.d.A. j > i. E(Vj Vi ) existiert, da Vi , Vj quadratisch integrierbar sind


(CSB). Damit nach Satz 1.1.1

E(Vj Vi ) = E(E(Vj Vi | Vi )) = E(Vi E(Vj | Vi )) = E(Vi E(E(Vj | V1 , ..., Vj 1 ) | Vi )) = 0


| {z }
=0 f.s.

4

P
Beispiel für ein Martingal: Partialsummenfolge ( nj=1 Vj )n2N zu einer unabhängigen Folge
(Vn )n2N von integrierbaren reellen ZVn mit Erwartungswerten 0.
Denn nach Satz 1.1.1 genügt es E(Vn+1 | V1 , ..., Vn ) = 0 f.s. zu zeigen. Mit F(Vn+1 ) und
F(V1 , ..., Vn ) unabhängige -Algebren, folgt das Gewünschte sofort.

Definition 1.1.3. Ein stochastischer Prozess X = (Xn )n2N0 heißt vorhersagbar bezüglich
der Filtration F := (Fn )n2N0 , falls X0 konstant ist (es reicht auch X0 F0 -messbar) und

8 Xn ist Fn 1 -messbar
n2N

Satz 1.1.3 (Doob-Zerlegung). X = (Xn )n2N0 adaptierter, integrierbarer Prozess. Dann


existiert eine eindeutige Zerlegung X = M + A, wobei A vorhersagbar ist mit A0 = 0
(A entspricht dem Trend) und M ein Martingal ist (M entspricht dem Rauschen). X
ist genau dann ein Submartingal, wenn A monoton wachsend ist bzw. genau dann ein
Supermartingal, wenn A monoton fallend ist.

Beweisidee. Schreibe Xn als


n
X n
X
Xn = X0 + (Xk E(Xk | Fk 1 )) + (E(Xk | Fk 1 ) Xk 1 )
k=1 k=1
| {z } | {z }
=:Mn , mit M0 := X0 =:An mit A0 := 0

(Mn )n2N ist ein Martingal (zeige E(Mn Mn 1 | Fn 1 ) = 0) und (An )n2N ist nach Kon-
struktion vorhersagbar bzgl. (Fn ).

Eindeutigkeit: Seien X = M + A und X = M 0 + A0 zwei Zerlegungen wie oben.

0 = X X = M M 0 +A A0 () M M 0 = A0 A vorhersagbare Martingale.

Ist X ein vorhersagbares Maringal mit X0 = 0, so folgt


0 = E(Xn+1 Xn | Fn ) = Xn+1 Xn für alle n 2 N.
=) M M 0 ⌘ 0 und A A0 ⌘ 0, da M0 M00 = A0 A00 = 0. ⇤

5
1.2. Optional Sampling und Optional Stopping
Definition 1.2.1. W-Raum (⌦, F, P ). Monoton wachsende Folge (Fn )n2N von -Algebren
Fn ⇢ F. Eine ZV T : (⌦, F, P ) ! (N := N[{1}, P(N)) heißt Stoppzeit bzgl. (Fn ), wenn
8 [T = k] 2 Fk ; hierbei heißt T Stoppzeit im engeren Sinne, falls P [T < 1] = 1
k2N
[“Kein Vorgri↵ auf die Zukunft”].

Wichtiger Fall: Fn = F(X1 , . . . , Xn ) (n 2 N) mit ZVn Xn


Deutung (Xn ) . . . Folge der Gewinnstände in einem Spiel.
Ein Spieler ohne prophetische Gaben bricht das Spiel im zufälligen Zeitpunkt T aufgrund
des bisherigen Spielverlaufs ab.
Beispiel: T (!) = inf{n 2 N: Xn (!) 2 B}, ! 2 ⌦ — festes messbares B.

Definition 1.2.2. W-Raum (⌦, F, P ). Folge (Xn )n2N von ZVn Xn : (⌦, F, P ) ! (R, B);
Folge (Tn )n2N von Stoppzeiten bzgl. (Xn ) [d.h. bzgl. (F(X1 , . . . , Xn ))] mit T1  T2 
. . . < 1. Neue Folge: Folge (XTn )n2N von ZVn definiert durch

(XTn )(!) := XTn (!) (!), ! 2 ⌦ .

Übergang von (Xn ) zu (XTn ) heißt optional sampling [frei gewählte Stichprobenbildung]

Deutung . . . Testen des Spielverlaufs zu den Zeitpunkten Tn (!).

Satz (auskommentiert) Submartingal (Xn )n2N . Festes M 2 N. Folge (Tn )n2N von
Stoppzeiten bzgl. (Xn ) mit T1  T2  . . .  M . Die durch optional sampling erhalte-
ne Folge (XTn )n2N ist ebenfalls ein Submartingal. — Entsprechend für Martingal statt
Submartingal (Deutung: die Fairness eines Spielverlaufs wird nicht geändert).

Definition 1.2.3. Sei F := (Fn )n2N ein Filtration und ⌧ eine Stoppzeit. Dann heißt

F⌧ := {A 2 F : 8 A \ [⌧  n] 2 Fn }
n2N

die -Algebra der ⌧ -Vergangenheit.

F⌧ ist also die Menge aller Ereignisse in F, für die bis zum zufälligen Zeitpunkt ⌧ ent-
schieden werden kann, ob sie eingetreten sind.

Bemerkung 1.2.1. Sind und ⌧ zwei Stoppzeiten mit  ⌧ , so gilt F ✓ F⌧ .

Beweisidee. Sei A 2 F . Dann gilt

A \ [⌧  n] = A \ [  n] \ [⌧  n] 2 Fn .
| {z } | {z }
2Fn 2Fn

6

Satz 1.2.1. Ist ⌧ eine endliche Stoppzeit und X = (Xn ) ein adaptierter Prozess, so ist
X⌧ F⌧ -messbar.

Beweisidee. Es reicht zu zeigen, dass [⌧  k] 2 F⌧ für alle k 2 N. Da für alle n 2 N


[⌧  k] \ [⌧  n] = [⌧  k ^ n] 2 Fk^n ⇢ Fn für k 2 N beliebig, ist [⌧  k] in F⌧ . ⇤

Lemma 1.2.1. I ⇢ R abzählbar, (Xt )t2I ein Martingal, T 2 I, ⌧ eine Stoppzeit mit
⌧  T . Dann gilt
X⌧ = E(XT | F⌧ )

und speziell E(X⌧ ) = E(Xt ) für jedes t 2 I.

Beweisidee. Zeige E(X⌧ 1A ) = E(XT 1A ) für alle A 2 F⌧ über Summenschreibweise.


Sei A 2 F⌧ , dann ist [⌧ = t] \ A 2 Ft für alle t 2 I. Damit
X X X
E(X⌧ 1A ) = E(Xt 1[⌧ =t]\A ) = E(E(XT | Ft )1[⌧ =t]\A ) = E(XT 1[⌧ =t]\A ) = E(XT 1A )
tT tT tT
t2I t2I t2I

Weiter
8t2I E(X⌧ ) = E(E(XT | F⌧ )) = E(XT ) = E(Xt )

Satz 1.2.2 (Optional Sampling Theorem). X = (Xn )n2N0 Supermartingal,  ⌧ zwei


Stoppzeiten.
(i) Gibt es ein T 2 N mit ⌧  T , dann gilt

X E(X⌧ | F )

und speziell E(X ) E(X⌧ ). Ist X ein Submartingal, so gilt in den letzten beiden
Ungleichungen “”, für ein Martingal X entsprechend “=”.
(ii) Ist X nichtnegativ und ⌧ < 1 f.s., so gelten E(X⌧ )  E(X0 ) < 1, E(X ) 
E(X0 ) < 1, und X E(X⌧ | F ).
(iii) Ist X lediglich adaptiert und integrierbar (d.h. E(|Xt |) < 1 für alle t 2 N0 ), dann ist
X genau dann ein Martingal, wenn E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ .

7
Beweisidee. Schreibe X = M + A mit Doob-Zerlegung. Dann gilt
Lemma 1.2.1 A m.f.
(i) X = E(A + MT | F ) E(A⌧ + MT | F )
F ⇢F⌧
= E(A⌧ + E(MT | F⌧ ) | F ) = E(X⌧ | F ).
(ii) E(X⌧ )  E(X0 ) < 1 und E(X )  E(X0 ) < 1, da

Fatou (i)
E(X⌧ ) = E(lim inf X⌧ ^n )  lim inf E(X⌧ ^n )  E(X0 ).
=0

Für m > n und A 2 F ist [  n] \ A 2 F ^n und mit (i) angewandt auf ^n


bzw. ⌧ ^ m gilt

Fatou
E(lim inf X⌧ ^m 1[ n]\A )  lim inf E(X ^n 1[ n]\A ).
m m

Mit monotoner Konvergenz lässt sich E(X⌧ 1A )  E(X 1A ) für alle A 2 F folgern.
(iii) Mit Lemma 1.2.1 folgt die Hinrichtung.

Ist E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ , dann folgt mit der beschränkten
Stoppzeit ⌧ := s1A + t1Ac mit t, s 2 N0 , t > s, A 2 Fs

E(Xt 1A ) = E(Xt ) E(Xt 1Ac ) = E(Xs 1A ).

Definition 1.2.4. Sei X ein adaptierter Prozess und ⌧ eine Stoppzeit. Der gestoppte
Prozess X ⌧ = (Xn⌧ ) ist definiert durch
8
<X für n ⌧

Xn⌧ := X⌧ ^n =
:Xn für n < ⌧

D.h. der Prozess wird ab einen zufälligen Zeitpunkt ⌧ eingefroren.

Satz 1.2.3 (Optional Stopping Theorem von Doob). Sei X = (Xn )n2N0 ein bezüglich der
Filtration F := (Ft )t2N0 adaptierter Prozess und ⌧ eine Stoppzeit. Dann gilt: Ist X ein
Sub- bzw. Super- bzw. Martingal bezüglich der Filtration F, so auch der gestoppte Prozess
X ⌧ bezüglich F als auch bezüglich F⌧ .

Beweisidee. X ⌧ ist integrierbar, da

E(|Xn⌧ |)  E(max{|Xi | | i 2 {0, 1, ..., n})  E(|X1 | + ... + |Xn |) < 1.


O

8
Weiter
E(X⌧ ^n X⌧ ^(n 1) | Fn 1 ) = E((Xn Xn 1 )1[⌧ >n 1] | Fn 1 ) = 0.
Da Xn^⌧ nach Satz 1.2.1 Fn^⌧ -messbar ist X ⌧ an F⌧ = {Fn^⌧ | n 2 N0 } adaptiert und da
F⌧ ^n = {A 2 Fn | 8k<n A\[⌧  k] 2 Fk } ⇢ Fn , ist X ⌧ auch an F⌧ ⇢ {Fn | n 2 N0 } = F
adaptiert. ⇤

Im Optional Sampling Theorem kann auf die Beschränktheit der Stoppzeiten verzichtet
werden, wenn die Integrierbarkeit des betrachteten Martingals zur gleichgradigen Inte-
grierbarkeit verschärft wird.

Definition 1.2.5. Eine Familie (Xi )i2I , I 6= ;, von Zufallsvariablen heißt gleichgradig
integrierbar, falls
lim sup E(|Xi |1{|Xi |>c} ) = 0
c!1 i

Satz 1.2.4 (Optional Sampling und gleichgradige Integrierbarkeit). X = (Xn )n2N0 ein
gleichgradig integrierbares Martingal und  ⌧ endliche Stoppzeiten. Dann gilt

E(X⌧ ) < 1 und X = E(X⌧ | F )

und entsprechendes für Sub- bzw. Supermartingale X.

Bemerkung
a) Jede endliche Familie von integrierbaren Zufallsvariablen ist gleichgradig integrier-
bar.
b) Sind (Xt )t2I und (Xt )t2J gleichgradig integrierbar, so auch (Xt )t2I[J .
c) Existiert eine integrierbare Zufallsvariable Y mit |Xt |  Y für alle t 2 I, so ist
(Xt )t2I gleichgradig integrierbar.
d) Aus sup E(|Xt |) < 1 folgt im Allgemeinen nicht gleichgradige Integrierbarkeit.
t2I
(D.h. aus gleichmäßig L1 -integrierbar folgt im Allgemeinen nicht gleichgradige In-
tegrierbarkeit.)
(Betrachte ⌦ = [0, 1] mit Lebesgue-Maß und Xn = n·1[0, 1 ] . Dann E(|Xn |) = 1 < 1,
n
aber sup E(|Xn |1{|X|>c} ) = 1.)
n

e) Ist sup E(|Xt |p ) < 1 für ein p > 1, so ist (Xt )t2I gleichgradig integrierbar.
t2I
(D.h. aus gleichmäßiger Lp -Integrierbarkeit für ein p > 1 folgt gleichgradig integrier-
bar.)
✓ ◆
|X|p 1 1
E(|X|1{|X|>c} ) = E 1{|X|>c}  E(|X|p 1{|X|>c} )  E(|X|p ).
|X|p 1 cp 1 cp 1

9
1.3. Martingalkonvergenzsätze

1.3.1. P-fast-sichere Konvergenz

Satz 1.3.1 (Upcrossing Inequality von Doob). Sei (X1 , . . . , Xn ) ein — beim festen Index
n 2 N abbrechendes — Submartingal. Feste reelle Zahlen a, b mit a < b. Die ZV U [a, b]
gebe die Anzahl der aufsteigenden Überquerungen des Intervalls [a, b] durch X1 , . . . , Xn
an (d.h. die Anzahl der Übergänge der abbrechenden Folge von einem Wert  a zu einem
Wert b). Dann gilt

(b a)EU [a, b]  E(Xn a)+ E(X1 a)+ .

Beweisidee. Es kann O.B.d.A. angenommen werden, dass a = 0, X1 0, ..., Xn 0.


Wir definieren ZV T1 , ..., Tn+1 durch

T1 (!) := 1
(
min{i 2 {T2k 1 (!), ..., n} | Xi (!) = 0} , falls 9i2{T2k 1 (!),...,n}
Xi (!) = 0
T2k (!) :=
n , sonst
(
min{i 2 {T2k (!), ..., n} | Xi (!) b} , falls 9i2{T2k (!),...,n} Xi (!) b
T2k+1 (!) :=
n , sonst
Tn+1 (!) := n.

Dies sind aufsteigende Stoppzeiten. Nach Satz 1.2.2 (Opt. Sampl. Th.) für Submartingale
ist (XT1 , ..., XTn+1 ) ein Submartingal bzgl. (FT1 , ..., FTn+1 ).

n
X X X
Xn X1 = (XTk+1 X Tk ) = (XT2j+1 XT2j ) + (XT2j XT2j 1 )
k=1 | {z } | {z }
b·U [0,b] E(...) 0

() E(X1 ) E(Xn ) bE(U [0, b]). ⇤

Satz 1.3.2 ((Sub-)Martingalkonvergenztheorem von Doob). W-Raum (⌦, F, P ). (Xn ) sei


ein Submartingal mit limn E|Xn | < 1. Dann existiert eine integrierbare reelle ZV X1 mit

Xn ! X1 P -f.s.

(Ist das Submartingal gleichgradig integrierbar, dann folgt Konvergenz in L1 (siehe Satz
1.3.6.))

10
Zum Beweis von Satz 1.3.2 benötigen wir Satz 1.3.1.

Beweisidee. Wir definieren die folgenden Mengen:

A(a, b) := {lim inf Xn < a < b < lim sup Xn } 2 F für 1<a<b<1
[
A := {lim inf Xn < lim sup Xn } = A(a, b) 2 F
a<b
a,b2Q

Sei Un [a, b] die Anzahl der Upcrossings von [a, b] durch (X1 , ..., Xn ). Dann gilt mit Satz
1.3.1 für alle n 2 N
Z
(b a) Un [a, b] dP  (b a)E(Un [a, b])  E((Xn a)+ )  E(|Xn |) + a  const < 1
A(a,b)

Da Un [a, b] % 1 auf A(a, b) (nach Def.) folgt mit dem Satz der monotonen Konvergenz
durch Widerspruch zu obiger Endlichkeit: P (A(a, b)) = 0.
Damit ist
X
P (A)  P (A(a, b)) = 0.
a<b
a,b2Q

Es existiert also eine numerische ZV X ⇤ mit Xn ! X ⇤ P -f.s., wobei

Fatou
E(|X ⇤ |) = E(| lim inf Xn|)  lim inf E(|Xn |)  lim sup E(|Xn |)  c < 1.

D.h. es existiert eine reellwertige integrierbare ZV X1 mit X1 = X ⇤ P -f.s. und Xn ! X1


P -f.s. ⇤

Im Folgenden stellen wir einige Anwendungen des Submartingalkonvergenztheorems vor.


Korollar 1.3.1 (zum Submartingalkonvergenztheorem von Doob). Ist (Un ) eine Folge
integrierbarer nichtnegativ-reeller Zufallsvariablen auf (⌦, F, P ) und (Fn ) eine monoton
wachsende Folge von Unter- -Algebren von F mit Fn -B+ -Messbarkeit von Un (n 2 N)
und gilt
E(Un+1 | Fn )  (1 + ↵n )Un + n (n 2 N)
P P
wobei ↵n , n 2 R+ mit ↵n < 1, n < 1, dann konvergiert (Un ) f.s. — (Un ) ist
“fast ein nichtnegatives Supermartingal”. Auch (EUn ) konvergiert.

Beweisidee. Es kann gezeigt werden, dass

n
! 1 ! 1
Y1 n 1
X k
Y
Zn := (1 + ↵i ) Un (1 + ↵i ) k
i=1 k=1 i=1

11
ein Supermartingal definiert. Weiter kann gezeigt werden, dass ( Zn ) die nötigen Vor-
aussetzungen für das Submartingalkonvergenztheorem von Doob erfüllt. Damit folgt die
Behauptung. ⇤

P
Satz 1.3.3. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit V (Vn ) < 1.
Dann ist X
(Vn E(Vn | V1 , . . . , Vn 1 )) f.s. konvergent.
P
Falls zusätzlich (Vn ) unabhängig, dann ist (Vn EVn ) f.s. konvergent.

Beweisidee. O.b.d.A. sei E(Vn ) = 0, sonst betrachte Vn E(Vn ). Wir definieren

Jensensche-
Wn := Vn E(Vn | V1 , ..., Vn 1 ), wobei E(|Wn |)  2E(|Vn |) < 1.
Ungleichung

D.h. Wn ist integrierbar.


(Ist Vn quadratisch integrierbar, so lässt sich E(Vn | V1 , ..., Vn 1 ) interpretieren als beste
Vorhersage von Vn gegeben der Vorgeschichte, oder als Projektionsoperator im Hilber-
traum L2 , d.h. Vn wird auf den Unterraum spanhV1 , ..., Vn 1 i projiziert.)

✓ ◆
P
n
Mit Satz 1.1.1 lässt sich zeigen, dass Wk ein Martingal bzgl. F = (F(V1 , ..., Vn ))n2N
k=1 n2N ✓ n ◆
P
ist, da E(Wn+1 | V1 , ..., Vn ) = 0 für alle n 2 N gilt und es gilt sup E | Wk | < 1.
n k=1
(Ausführlicher :
Wn ist quadratisch integrierbar, da E(Wn2 )  4E(Vn2 ) < 1 (mit der algebraischen Iden-
tität (a + b)2  2a2 + 2b2 und der Jensenschen Ungleichung).
Da wegen Satz 1.1.2 8i,j2N E(Wi Wj ) = 0 folgt, gilt
i6=j

n
!!2 n
! n 1
X CSB X X X
2
sup E | Wk |  sup E | Wk |  sup 4 E(Vk2 ) 4 V (Vk ) < 1.
n n n | {z }
k=1 k=1 k=1 k=1
V (Vk )

P
n
Damit lässt sich Satz 1.3.2 anwenden und es folgt Wk f.s. konvergent.
k=1
Falls (Vn ) zusätzlich unabhängig, folgt E(Vn | V1 , ..., Vn 1 ) = Vn . ⇤

12
Bemerkung (Dippon) Satz 1.3.3 ist ein universelles Hilfsmittel um Konvergenz von
Reihen von ZV zu beweisen, bzw. enthält hinreichende Voraussetzungen für die Konver-
genz von Reihen von ZV.
P
Satz 1.3.4. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit n 2 V (Vn ) < 1.
Dann n
1X
(Vj E(Vj | V1 , . . . , Vj 1 )) ! 0 f.s.
n j=1

1
P
n
Falls zusätzlich (Vn ) unabhängig, dann n
(Vj EVj ) ! 0 f.s.
j=1
(Kriterium von Kolmogorov zum starken Gesetz der großen Zahlen)

Beweis von Satz 1.3.4 mit Satz 1.3.3 und dem folgenden — etwas spezialisierten — Lemma
1.3.1

Vn
Beweisidee. Nach Satz 1.3.3 für statt Vn gilt
n
X Vn E(Vn | V1 , ..., Vn 1 )
f.s. konvergent.
n

Daraus folgt mit dem Lemma von Kronecker


n
1X
(Vi E(Vi | V1 , ..., Vi 1 )) ! 0 P -f.s.
n i=1

Der Fall (Vn ) unabhängig, folgt wie oben. ⇤

Lemma 1.3.1 (Lemma von Kronecker). Folge (cn )n2N reeller Zahlen.

X cn n
1X
konv. =) cj ! 0 (n ! 1).
n n j=1

1.3.2. L1 -Konvergenz

Satz 1.3.5. Sei Y eine integrierbare Zufallsvariable und (Fi )i2I eine beliebige Familie
von Sub- -Algebren, wobei I eine beliebige nichtleere Indexmenge. Dann ist die Familie
X = (Xi )i2I mit Xi := E(Y |Fi ) gleichgradig integrierbar.

Beweisidee. Da Y integrierbar, existiert ein c > 0, so dass E(|Y |1{|Y |>c} ) < ". ⇤

13
Beispiel: Sukzessive Prognose. Ist Y eine integrierbare Zufallsvariable und F = (Fn )
eine Filtration, so definiert
Xn := E(Y |Fn )
ein gleichgradig integrierbares Martingal.
Man kann die bedingten Erwartungswerte Xn als Prognosen bzw. Approximation von Y
in Lp au↵assen. Speziell im Hilbertraum L2 wird Xn als die orthogonale Projektion von Y
auf den abgeschlossenen Unterraum der Elemente mit Fn -B-messbaren Zufallsvariablen
(als Repräsentanten) gesehen und ist damit das bestapproximierende Element im Sinne
der L2 -Norm. (D.h. E((Xn Y ) · Z) = 0 für alle Z Fn -B-messbar.)
Die Frage ist: Konvergiert meine Prognose gegen Y ? Satz 1.3.6 antwortet: Für L1 unter
gewissen Voraussetzungen ja!

Satz 1.3.6. Für ein Martingal (Xn ) sind äquivalent:


(i) Xn ! X1 := limn!1 Xn in L1
(ii) 9X1 2 L1 mit Xn = E(X1 |Fn ) (X1 heißt Abschluss des Martingals (Xn ))
(iii) (Xn ) ist gleichgradig integrierbar
(Gleichgradige Integrierbarkeit verschärft die L1 -Beschränktheit, ist also etwas stärker)

Beweisidee.
(iii) =) (i) (Xn ) ist in L1 beschränkt, denn wegen der gleichgradigen Integrierbarkeit
von (Xn ) folgt

9c>0 E(|Xn |)  E(|Xn |1{|Xn |>c} ) + E(|Xn |1{|Xn |c} )  " + c.

Nach Satz 1.3.2 existiert lim Xn = X f.s. und X 2 L1 .

Definiere die lipschitz-stetige Funktion fc (x) auf R:


8
>
< c , falls x > c
fc (x) := x , falls |x|  c
>
:
c , falls x < c

Da lim Xn = X f.s., folgt auch fc (Xn ) ! fc (X) f.s. und mit dem Satz der dominier-
ten Konvergenz gilt

"
9N 2N 8n N E(|fc (Xn ) fc (X)|) < .
3

14
Außerdem gilt für alle n 2 N wegen (Xn ) gleichgradig integrierbar und X 2 L1

"
E(|fc (Xn ) Xn |) <
3
"
E(|fc (X) X|) <
3
4-Ungl.
Insgesamt also E(|Xn X|) < " für n hinreichend groß und damit Xn ! X
in L1 .
(i) =) (ii) Sei C 2 Fm und n m. Dann gilt

Jensen n!1
|E(Xm 1C ) E(X1C )| = |E(Xn 1C ) E(X1C )|  E(|Xn X|1C )  E(|Xn X|) !0

und damit E(Xm 1C ) = E(X1C ) f.s. für alle C 2 Fm .


Z
(ii) =) (iii) Definiere µ(A) := |X| dP = E(|X|1A ) für A 2 F, d.h. µ ⌧ P und damit
A

8">0 9 >0 8A2A (P (A) < =) µ(A) < ").

Mit Markov und Jensen folgt

1 1
sup P (|Xn | > c)  sup E(|Xn |)  E(|X|).
n c n c

Es kann also c > 0 so gewählt werden, dass sup P (|Xn | c) < ist. Damit
n

sup E(|Xn |1{|Xn |>c} )  sup E(|X|1{|Xn |>c} ) < ".


n n

(Ausführlicher :

sup E(|Xn |1{|Xn | c} )  sup E(E(|X| | Fn )1{|Xn | c} )


n n

= sup E(|X|1{|Xn | c} ) = µ(|Xn | c) < ".


n

)

Definition 1.3.1. Sei F = (Fn )n2 N0 eine Filtration und X = (Xn )n2 N0 ein F-Martingal.
Dann heißt X Rückwärtsmartingal bezüglich F.

15
Bemerkung (Dippon) Genau wie beim Martingal haben wir auch beim Rückwärtsmartingal
eine aufsteigende Folge von -Algebra, d.h. die Fn werden mit zunehmendem n immer
feiner und damit werden auch die ZV Xn mit wachsendem n immer feiner.
Beim Martingal ist F0 die gröbste -Algebra und F1 muss nicht in der Filtration enthal-
ten sein. Beim Rückwärtsmartingal ist F0 die feinste -Algebra und F 1 muss nicht in
der Filtration enthalten sein.

Bemerkung 1.3.1. Ein Rückwärtsmartingal ist immer gleichgradig integrierbar.

Beweisidee. Folgt aus Satz 1.3.5 mit X n = E(X0 | Fn ). ⇤

Satz 1.3.7 (Konvergenzsatz für Rückwärtsmartingale). Sei X = (Xn )n2 N0 ein Rück-
wärtsmartingal bezüglich F. Dann existiert

X 1 = lim X n P-f.s. und in L1


n!1

T1
Es gilt X 1 = E(X0 |F 1 ), wobei F 1 := n=1 F n.

Beweisidee. Analog zu dem Beweis vom Martingalkonvergenzsatz von Doob. ⇤

Korollar 1.3.2 (Starkes Gesetz der großen Zahlen von Kolmogorov). Für eine un-
abhängige Folge (Xn )n2N identisch verteilter integrierbarer reeller ZVn gilt
n
1X
Xk ! EX1 (n ! 1) f.s.
n k=1

1 Pn P
n
(Beachte: Xk selbst ist kein Martingal! Die Summe Xk ist ein Martingal, wenn
n k=1 k=1
die Xk zentriert sind, konvergiert im Allgemeinen aber nicht.)

Beweisidee. Z1 , Z2 , ... seien u.i.v. ZV mit E(|Z1 |) < 1. Wir definieren für n 2 N
n
1X
X n := Zi , F n := ({X n , Zn+1 , Zn+2 , ...}) = ({X n , X n 1 , X n 2 , ...}).
n i=1

X = (X n )n2N ist ein Rückwärtsmartingal.


Mit dem Konvergenzsatz für Rückwärtsmartingale folgt dann

X n !X 1 = E(X 1 |F 1) f.s. und in L1 .

16
T
1
Sei T = ({Zm | m n}) die terminale -Algebra der unabhängigen ZV Z1 , Z2 , ...
n=1
Als Limes von (X n )n2N ist X 1 auch messbar bzgl. T ⇢ F 1 . Zusammen mit dem
0-1-Gesetz von Kolmogorov für terminale -Algebren ergibt sich

X 1 = E(X 1 | T ) = const,

d.h. E(X 1 |F 1) = E(X 1 ) = E(Z1 ) f.s. ⇤

1.3.3. L2 -Konvergenz
Definition 1.3.2. Ein Martingal X heißt quadratintegrierbares oder L2 -Martingal,
falls
2
8 E(Xn ) < 1
n

Ein Martingal X heißt L2 -beschränkt, falls

sup E(Xn2 ) < 1


n

(L2 -Beschränkheit ist stärker als Quadratintegrierbarkeit und stärker als gleichgradige
Integrierbarkeit.)
Bemerkung 1.3.2. Da die Zuwächse eines L2 -Martingals X im Sinne des Hilbertraumes
L2 orthogonal sind, kann X orthogonal zerlegt werden:
n
X
Xn = X0 + (Xk Xk 1 )
k=1

und n
X
E(Xn2 ) = E(X02 ) + E((Xk Xk 1 )2 )
k=1

(E(Xn2 ) ist immer endlich, aber nicht notwendigerweise beschränkt!)

Beweisidee. Betrachte für k < l < m < n das Skalar

hMn Mm , M l Mk i := E((Mn Mm ) · (Ml Mk ))

und bedinge auf Fl . Dann folgt hMn Mm , Ml Mk i = 0 und es gilt ein Satz vom Typ
Pn
Pythagoras: E(Mn2 ) = M02 + E((Mk Mk 1 )2 ). ⇤
k=1

17
Satz 1.3.8. Ein L2 -Martingal X ist genau dann L2 -beschränkt, falls
1
X
(i) E((Xk Xk 1 )2 ) < 1
k=1

In diesem Fall gilt

(ii) X1 := lim Xn existiert f.s. und in L2


n!1

(iii) Xn = E(X1 |Fn )

Beweisidee.
(i) Folgt mit Bemerkung 1.3.2
(ii) Aus L2 -Beschränkheit folgt L1 -Beschränkheit. Nach Doob existiert also
X1 := lim Xn P -f.s.
n!1

E((X1 Xn )2 ) = E((lim inf Xn+r Xn )2 )


r!1
n+r
X
Fatou
 lim inf E((Xk Xk 1 )2 )
Typ Pythagoras r!1
k=n+1
1
X (i)
= E((Xk Xk 1 )2 ) ! 0 (n ! 1)
k=n+1

(iii) Die L2 -Beschränkheit von X impliziert die gleichgradige Integrierbarkeit von X. Mit
Satz 1.3.6 folgt die Behauptung.

18
Beispiel (Kalman-Bucy-Filter) Wir haben zwei lineare dynamische Systemte für
k 2 N:

(Zustandsgleichung) Xk+1 = Ak Xk + "k


(Beobachtungsgleichung) Y k = B k X k + ⌘k

mit

Xk ... Zustand des Systems mit Werten in Rn zum Zeitpunkt t = k


(z.B. Positions- und Geschwindigkeitsvektor)
Ak ... (bekannte) n ⇥ n-Matrizen, evtl. zeitabhängig
"k ... Rn -wertige ZV mit EW = 0 und (bekannten) Kovarianzmatrizen K"k
Bk ... (bekannte) m ⇥ n-Matrizen, evtl. zeitabhängig
⌘k ... Rm -wertige Beobachtungsfehler mit EW = 0 und (bekannten)
Kovarianzmatrizen K⌘k

X1 , "i , ⌘i unabhängig.

Problem: Basierend auf den Beobachtungen Y1 , Y2 , ... sollen die unbekannten Zustände
X1 , X2 , ... durch Xb1 , X
b2 , ... geschätzt werden.
Naheliegender Ansatz: X bn := E(Xn | Y1 , ..., Yn ).
Dann ist X bn (Y1 , ..., Yn )-messbar und minimiert die Größe E(k⇠n Xn k2 ) unter allen
(Y1 , ..., Yn ) messbaren ZV ⇠n .
Fragen:
bn , n 2 N explizit berechnet werden?
1. Kann X
bn , n 2 N effizient berechnet werden?
2. Kann X
bn für n ! 1?
3. Wie verhält sich X

Wir betrachten ein einfaches Modell:


Wir beobachten eine ZV X ⇠ N (0, 2 ) ( 2
bekannt) durch

Yi = X + ⌘i , i bekannt
|{z}
⇠N (0, 2
i)

bn = E(X | Y1 , ..., Yn )
X

bn ) ein L2 -beschränktes Martingal bzgl. F = (Fn )n2N mit Fn =


Da (X (Y1 , ..., Yn ) ist,

19
b1 mit
existiert nach 1.3.8 eine quadratintegrierbare ZV X

bn = E(X
X b1 | Fn ) und bn ! X
X b1 in L2 und P -f.s.
|{z} |{z}
E(X|Fn ) E(X|F1 )

b1 , wenn
Dann gilt X = X 2
i nicht zu schnell gegen unendlich konvergiert, bzw. wenn
P 1
1
2
= 1.
i=1 i

Begründung:
1. Zeige dies, indem X bn := E(X | Y1 , ..., Yn ) als Minimierungsproblem aufgefasst wird
(E(X | Y1 , ..., Yn ) Projektion von X auf Unterraum spanhY1 , ..., Yn i).
2. Zeige dies, indem die bedingte Dichte von X gegeben Y1 , ..., Yn verwendet wird um
E(X | Y1 , ..., Yn ) zu berechnen (möglich, da X, Y1 , ..., Yn gemeinsame Dichte besit-
zen).

Dies lässt sich weiter verallgemeinern, um die Calman-Bucy-Filter-Filtergleichungen


für folgendes einfaches System zu erhalten:

(Zustandsgleichung) Xn := AXn 1 + H"n + g


(Beobachtungsgleichung) Yn := CXn + K⌘n

wobei X0 , ⇠i , ⌘i unabhängig und "i ⇠ N (0, 1), ⌘i ⇠ N (0, 1), X0 ⇠ N (m, 2 ), Y0 ⌘ 0.


A, H, C, K und 2 seien bekannt.
bn , Vn ) mit Induktion hergeleitet werden, wobei
Es kann PXn |Y1 ,...,Yn = N (X

1 1 C2
(KB1) = 2 +
Vn A Vn 1 + H 2 K 2
bn
X AXbn 1 + g CYn
(KB2) = 2 2
+ 2
Vn A Vn 1 + H K

(KB1) definiert eine Funktion f mit Vn = f (Vn 1 ) und es ist möglich zu zeigen, dass
Vn ! V , wobei V der positive Fixpunkt von f ist, d.h. f (V ) = V mit V > 0.

20
1.4. Diskrete Stochastische Integration
Definition 1.4.1. Sei (Xn )n2N0 ein reeller an die Filtration F := (Fn )n2N0 adaptierter
Prozess und (Hn )n2N ein reellwertiger vorhersagbarer Prozess, d.h. Hn ist Fn 1 -messbar.
Wir definieren den stochastischen Prozess H • X durch (ähnlich wie Riemannsummen)
n
X
(H • X)n := Hm (Xm Xm 1 ) für n 2 N0
m=1
Xn
=: Hm X m
m=1

und nennen H • X das diskrete stochastische Integral von H bezüglich X. Ist X ein
Martingal, so nennen wir H • X auch die Martingaltransformierte von X.
Ein Prozess H = (Hn ) heißt lokal beschränkt, wenn jedes Hn beschränkt ist.

Satz 1.4.1. Sei jetzt zusätzlich E(|X0 |) < 1. Dann gilt:


(i) X ist genau dann ein Martingal, wenn für jeden lokal beschränkten vorhersagbaren
Prozess H das stochastische Integral H • X ein Martingal ist.
(ii) X ist genau dann ein Submartingal (Supermartingal), wenn H • X ein Submartingal
(Supermartingal) ist für jedes lokal beschränkte vorhersagbare H 0.

Beweisidee.
00
=)00 Da H lokal beschränkt existieren die Erwartungswerte und mit der Vorhersagbar-
keit von H folgt

E((H • X)n+1 | Fn ) = E((H • X)n | Fn ) + E(Hn+1 (Xn+1 Xn ) | Fn ) = (H • X)n

00
(=00 Sei n0 2 N0 , dann ist H = (1{n=n0 } )n2N lokal beschränkt und vorhersagbar. Nach
Annahme ist dann H • X ein Martingal und es gilt

nX
0 1

0= Hm Xm = E((H • X)n0 | Fn0 1 )


m=1

= E((H • X)n0 1 | Fn0 1 ) + E(Xn0 X n0 1 | Fn0 1 )


= E(Xn0 | Fn0 1 ) X n0 1

21
Definition 1.4.2. Seien X, Y zwei adaptierte Prozesse. Dann heißt der durch
n
X
[X, Y ]n := X i Yi , n2N
i=1

definierte Prozess [X, Y ] der Kovariationsprozess von X und Y . Falls X, Y zusätzlich


quadratintegrierbar sind, existiert (nach dem Zerlegungssatz von Doob) der Kompensator
(Martingalanteil des Kovarianzprozesses)
n
X
hX, Y in := E( Xi Yi | Fi 1 ), n2N
i=1

und definiert den vorhersagbaren Kovariationsprozess hX, Y i. Im Spezialfall X = Y


spricht man von der quadratischen Variation bzw. der vorhersagbaren quadrati-
schen Variation.

Satz 1.4.2. Für adaptierte Prozesse X, Y, Z und vorhersagbare Prozesse G, H gilt


(i) H • X ist linear in H und X
(ii) [X, Y ] und hX, Y i sind symmetrisch und linear in X und Y
(iii) G • (H • X) = (GH) • X
(iv) [H • X, Y ] = H • [X, Y ]
(v) hH • X, Y i = H • hX, Y i (falls die vorhersagbaren Kovariationsprozesse definiert
sind)
(vi) Partielle Integration:

XY = X0 Y0 + X • Y + Y • X
= X0 Y0 + X • Y + Y • X + [X, Y ]

wobei der vorhersagbare Prozesse X durch Xn 1 , n 2 N definiert ist

Satz 1.4.3 (Zeitdiskrete Itō-Formel). Ist X ein adaptierter Prozess und f : R ! R eine
di↵erenzierbare Funktion, dann gilt
n
X
f (Xn ) = f (X0 ) + (f (Xi ) f (Xi 1 ))
i=1
n
X
0
= f (X0 ) + (f (X ) • X)n + (f (Xi ) f (Xi 1 ) f 0 (Xi 1 ) Xi )
i=1

22
2. Grundbegri↵e aus der Theorie der
Markov-Prozesse

2.1. Grundbegri↵e aus der Theorie der stochastischen


Prozesse
Definition 2.1.1. W-Raum (⌦, F, P ), Indexbereich I . Eine Familie {Xt ; t 2 I} von
Zufallsvariablen Xt : (⌦, F, P ) ! (⌦0 , A0 ) [oder auch (⌦, F, P, {Xt ; t 2 I})] heißt sto-
chastischer Prozess (zufällige Funktion). ⌦0 , genauer (⌦0 , A0 ), heißt Zustandsraum.
Bezeichnung Xt (!) =: X(!, t) .
X(!, ·) . . . Funktion I ! ⌦0 . . . Pfad des Prozesses

Definition 2.1.2. Messräume (⌦0 , A0 ), (⌦00 , A00 ). Abbildung q : ⌦0 ⇥ A00 ! [0, 1] heißt
Übergangswahrscheinlichkeitsmaß [Markovscher Kern] von ⌦0 nach ⌦00 , wenn
a) 8 0 q(x, ·) W-Maß auf A00
x2⌦

b) 8 q(·, C) A0 [0, 1] \ B-messbar


C2A00

Wichtiger Fall: (⌦0 , A0 ) = (⌦00 , A00 ) = (R, B)

Definition 2.1.3. W-Raum (⌦, F, P ); Messräume (⌦0 , A0 ), (⌦00 , A00 ) .


Zufallsvariable X: (⌦, F, P ) ! (⌦0 , A0 ) ; Zufallsvariable Y : (⌦, F, P ) ! (⌦00 , A00 ) .
Eine Abbildung q : ⌦0 ⇥ A00 ! [0, 1] heißt (reguläre) bedingte Verteilung von Y
bzgl. X, wenn q Übergangswahrscheinlichkeitsmaß von ⌦0 nach ⌦00 ist und wenn
Z Z
0 00 00
8 8 P [X 2 A , Y 2 A ] = q(x, A )PX (dx) = P (Y 2 A00 | X = x) dPX (x)
A0 2A0 A00 2A00 A0
A0

Hierfür Schreibweise PY |X .
D.h. q ist eine Abbildung dessen 1. Argument Werte aus ⌦0 nimmt, und dessen 2. Argu-
ment Ereignisse aus A00 nimmt.

Die Existenz der bedingten Verteilung ist gesichert zum Beispiel für (⌦00 , A00 ) = (Rk , Bk ),
im Allgemeinen muss sie aber nicht existieren.

23
Schreibweisen:

q(x, A00 ) =: PY |X (x, A00 ) =: P (Y 2 A00 |X = x) =: PY |X=x (A00 )


q(·, A00 ) =: PY |X (·, A00 ) =: P (Y 2 A00 |X) (ist ZV)
q(x, ·) =: PY |X (x, ·) =: PY |X=x (ist W-Maß)

P [Y 2 A00 , X = x]
Falls P [X = x] > 0 , dann PY |X (x, A00 ) =
P [X = x]

2.2. Definition und Konstruktion von Markovschen


Prozessen
Definition 2.2.1. Ein stochastischer Prozess (⌦, A, P, {Xt ; t 2 R+ }) mit Zustandsraum
R heißt ein Markovscher Prozess, wenn die folgende sogenannte elementare Markov-
Eigenschaft erfüllt ist:

(1) 8 8 8 P [Xtn 2 B|Xtn 1 , . . . , Xt1 ] = P [Xtn 2 B|Xtn 1 ]


B2B n2{2,3,...} 0t1 <...<tn

P(Xtn 1 ,...,Xt1 )
-fast überall

(Hier werden zwei ZV verglichen!)

Bemerkung 2.2.1 (zu Definition 2.2.1). Es gilt:


a) P [Xtn 2 B|Xtn 1 , . . . , Xt1 ] := PXtn |(Xtn 1 ,...,Xt1 )
(·, B) . . . Funktion auf Rn 1

b) Falls P [Xtn 2 B|Xtn 1 2 Bn 1 , . . . , Xt1 2 B1 ] = P [Xtn 2 B|Xtn 1 2 Bn 1 ] für alle


n 2 {2, 3, . . .}, 0  t1 < . . . < tn , B, Bn 1 , . . . B1 2 B (falls definiert), dann ist (Xt )
ein elementarer Markov-Prozess (und umgekehrt).

Definition 2.2.2. Eine Familie {qt ; t 2 R+ } von Markovschen Kernen


2 8 3
> qt (x, ·) W-Maß auf B
6 < (2)
> 8
x2R 7
qt : R ⇥ B ! [0, 1] 6 d.h. 7
4 > 5
>
: (3) 8 qt (·, B) B-[0, 1] \ B-messbar
B2B

mit (der Verträglichkeitsbedingung, Halbgruppeneigenschaft)


Z
(4) 8 8 8 qt+s (x, B) = (qt qs )(x, B) := qs (y, B)qt (x, dy)
s,t 0 x2R B2B R

[Gleichung von Chapman-Kolmogorov]

heißt Markovsche Halbgruppe von Kernen oder Übergangsfunktion.

24
qt+s (x, B) ist dieZWs. nach t+s Zeitschritten zum Zeitpunkt 0 vom Startpunkt x ausgehend
in B zu landen. qs (y, B)qt (x, dy) beschreibt die Ws., zum Zeitpunkt 0 von x ausgehend
R
nach t Zeitschritten in einer infinitesimal kleinen Intervall dy zu landen und von dort aus
nach s Zeitschritten in B zu landen.
(Beachte: qt (x, ·) ist ein W-Maß. Wird bezüglich qt (x, ·) über alle y 2 R integriert, so
schreiben wir qt (x, dy).)
Bemerkung 2.2.2. a) Definition 2.2.2 ist sinnvoll. Mit qs , qt ist auch qt qs ein Mar-
kovscher Kern.
b) qt (x, B) mit t 2 R+ , x 2 R, B 2 B, in Definition 2.2.2 ist eine stationäre (oder
zeitlich homogene) Übergangswahrscheinlichkeit von der Stelle x in die Menge B in
einem beliebigen Zeitintervall der Länge t.

Beweisidee.
a) Zuerst muss gezeigt werden, dass qt qs auch ein Markovscher Kern ist. Der Nachweis
von (2) folgt schnell aus der Definition von qs bzw. qt . Um die dritte Eigenschaft ei-
nes Maßes zu zeigen, wird die monotone Konvergenz zum Vertauschen von Integral
und Summe benötigt.
Der Nachweis von (3) folgt über die Approximation von q(·, B) durch Linearkombi-
nationen von Indikatorfunktionen.
Zuletzt muss noch gezeigt werden, dass mit der Chapman-Kolmogorov-Gleichung
tatsächlich eine Halbgruppe (Kommutativität, Assoziativität) definiert ist. Dies
folgt aber direkt.

Beispiele zu Definition 2.2.2. Sei x 2 R, B 2 B.


(
1, falls x 2 B
a) q0 (x, B) :=
0 sonst,

Z
1 (y x)2
qt (x, B) := p e 2t dy, t>0
2⇡t B

{qt : t 2 R+ } . . . sogenannte Halbgruppe der Brownschen Bewegung.


Das bedeuted: Die bedingte Verteilung ist normalverteilt mit Mittelwert x und Va-
1 (y x)2
rianz t und p e 2t ist die Übergangsdichte zur Übergangsverteilung.
2⇡t
b) Festes 2 (0, 1) . B x := {y x: y 2 B} .

X t)k
t(
qt (x, B) := qt (0, B x) := e , t 2 R+
k!
k2N0 \(B x)

25
{qt : t 2 R+ } . . . sogenannte Poissonsche Halbgruppe.

Beweisidee.
(2) Dass qt (x, ·) ein W-Maß ist folgt daraus, dass die bedingte Verteilung normalverteilt
ist.
(3) Die Messbarkeit folgt aus der Stetigkeit von qt (·, B).
(4) Umformen der rechten Seite mit Hilfe von Fubini, einer Substitution und der Faltung
N (x, s) ⇤ N (0, t) = N (x, s + t) ergibt die linke Seite.

Satz 2.2.1 (Konstruktion eines Markovschen Prozesses aus Ausgangsverteilung und Über-
gangsfunktion). Gegeben seien ein W-Maß µ auf B und eine Übergangsfunktion {qt :
t 2 R+ } mit 8
>
< 1, falls x 2 B
q0 (x, B) = (x 2 R, B 2 B) .
>
:
0 sonst

Sei {Ft1 ,...,tn : Rn ! R; 0  t1 < . . . < tn , n 2 N} eine Familie von Verteilungsfunk-


tionen mit

(5) Ft1 ,...,tn (x1 , . . . , xn )


Z Z Z Z
:= [ [. . . [ [ qt n tn 1 (yn 1 , dyn )]qtn 1 tn 2 (yn 2 , dyn 1 )] . . .]
R ( 1,x1 ]
( 1,xn 1] ( 1,xn ]

qt 1 t0
(y0 , dy1 )]µ(dy0 ) .
|{z}
:= 0

a) Die obige Familie von Verteilungsfunktionen erfüllt die Verträglichkeitsbedingung im


Existenzssatz von Kolmogorov (siehe Anhang A.4), d.h.

Ft1 ,...,tn ,tn+1 (x1 , . . . xn , 1) = Ft1 ,...,tn (x1 , . . . , xn )

für alle verschiedenen t1 , . . . , tn , tn+1 2 R+ , alle (x1 , . . . , xn ) 2 Rn , alle n 2 N ,


wobei Ft1 ,t2 (x1 , x2 ) = Ft2 ,t1 (x2 , x1 ) usw.
b) Sei (⌦, A, P, {Xt : t 2 R+ }) ein — nach dem Existenzsatz von Kolmogorov existie-
render — stochastischer Prozess mit

(⇤) Ft1 ,...,tn (x1 , . . . , xn ) = P [Xt1  x1 , . . . , Xtn  xn ] ,

t1 , . . . , tn 2 R+ verschieden, (x1 , . . . , xn ) 2 Rn , n 2 N .

26
Dieser ist ein Markov-Prozess mit Anfangsverteilung PX0 = µ und stationärer
Übergangswahrscheinlichkeit qt (x, A) (t 2 R+ , x 2 R , A 2 B) , d.h.

8 8 qt (x, A) = PXt+s |Xs =x (A) ,


t2R+ s 0

d.h. Z
0 00
8 8 8 P [Xs 2 A , Xt+s 2 A ] = qt (x, A00 )PXs (dx) .
t2R+ s 0 A0 ,A00 2B A0

Beweisidee.
a) Wir betrachten nur den Fall n = 2 und wollen zeigen: Ft1 ,t2 (1, x2 ) = Ft2 (x2 ).
Nach der Chapman-Kolmogorov Gleichung (4) gilt
Z
qt 2 t1 (y1 , ( 1, x2 ]) qt1 (y0 , dy1 ) = qt1 +(t2 t1 ) (y0 , ( 1, x2 ]) = qt2 (y0 , ( 1, x2 ])
( 1,1)

und damit folgt die gewünschte Gleichheit.


Der Beweis für n 2 folgt analog.
b1) Wir zeigen PX0 = µ:
Z Z
(⇤) (5)
PX0 (( 1, x0 ]) = Ft0 (x0 ) = q0 (y0 , dy1 )µ(dy0 ) = µ(( 1, x0 ])
R ( 1,x0 ]

b2) Letzte Gleichung in b) (äquivalent zur zweitletzten Gleichung):


Fall t = 0: Klar!
Sei t > 0. Es genügt die Aussagen für Intervalle der Form A = ( 1, x] zu zeigen.
Dabei verwenden wir einmal die Standard Machinery of Measure Theory bzgl. einer
der Übergangsfunktionen und die Interpretation von Integralen als Funktionen von
A0 bzw. A00 und damit als endliche Maße, für die (wieder auf obigem Erzeuger) der
Maßeindeutigkeitssatz verwendet werden kann.
b3) Es ist die elementare Markov-Eigenschaft zu zeigen:

P (Xtn 2 B | Xtn 1 = xn 1 , ..., Xt1 = x1 ) = P (Xtn 2 B | Xtn 1 = xn 1 )


b2)
= qt n tn 1 (xn 1 , B)

Nachrechnen.

27
2.3. Zur Stetigkeit von Pfaden bei Markov-Prozessen
Definition 2.3.1. Ein stochastischer Prozess (⌦, A, P, {Xt : t 2 R+ }) heißt stetig-
modifizierbar, wenn ein stochastischer Prozess (⌦, A, P, {Yt : t 2 R+ }) existiert mit

(1) 8 P -f.s. Xt = Yt ,
t2R+

(2) 8 Y (!, ·) 2 C[0, 1) .


!2⌦

Bemerkung (Motivation) Sei ⌦ = [0, 1], A = [0, 1] \ B, P = LB-Maß|A , I = [0, 1].


Wir definieren
(
1 , falls ! = t
Xt (!) := , (!, t) 2 [0, 1] ⇥ [0, 1]
0 , sonst
Yt (!) := 0, (!, t) 2 [0, 1] ⇥ [0, 1].

Dann gilt 8t2[0,1] Xt = Yt P -f.s. und

8n2N 8t1 ,...,tn 2[0,1] (Xt1 , ..., Xtn ) = (Yt1 , ..., Ytn ) P -f.s.
ti 6=tj | {z }
also PXt ,...,Xtn =PYt ,...,Ytn
1 1

Aber: X(!, ·) ist unstetig für alle ! 2 (0, 1], während Y (!, ·) stetig ist für alle ! 2 [0, 1].
Wir sagen:
{Yt | t 2 [0, 1]} ist eine stetige Modifikation von {Xt | t 2 [0, 1]}.

Satz 2.3.1 (Kinney, Dynkin). Der in Satz 2.2.1 konstruierte Markov-Prozess — mit
Übergangsfunktion {qt ; t 2 R+ } — ist stetig-modifizierbar, falls

(3) 8 qt (x, [x ", x + "]c ) = o(t), t ! +0, gleichmäßig in x 2 R .


">0

qt (x, [x ", x + "]c )


(D.h. lim = 0, oder qt (x, [x ", x + "]c ) mus schneller gegen 0 gehen,
t!0 t
als t gegen 0 geht.)

Beweisidee. Zum Beweis benötigen wir Lemma 2.3.1 und folgendes Hilfslemma:

28
Für relle ZV X, Y gilt:
Z Z
P ((X, Y ) 2 B | X = x) dPX (x) = P ((x, Y ) 2 B | X = x) dPX (x)
A A

für alle B 2 B2 und A 2 B.

Beweisidee: Wie schon zuvor werden linke und rechte Seite für festes A 2 B
als endliche Maße auf B2 betrachtet und somit genügt es die Gleichung für
B = ( 1, x1 ] ⇥ ( 1, x2 ], x1 , x2 2 R zu zeigen.

Wir definieren nun


(
Xt (!) , falls t 2 S = { 2in | i 2 N0 , n 2 N}
Yt (!) := ,
lim Xs (!) , falls t 2 R+ \ S
s!t 0

für ! 2 ⌦0 gemäß Lemma 2.3.1


Yt (!) := 0 für ! 2 ⌦ \ ⌦0 .

Nach Lemma 2.3.1 ist Yt 2 C([0, 1)) für alle ! 2 ⌦.


Für t 2 S gilt Xt = Yt P -f.s. Für t 2 R+ \ S existiert eine Folge (sn ) ⇢ S mit sn % t, da
S dicht in R ist. Mit Hilfe des Hilfslemmas und Voraussetzung (3) kann gezeigt werden
Z
8">0 P (|Xt Xsn | > ") = P (|Xt Xsn | > " | Xsn = x) PXsn (dx) 
R

für n n0 ( ) und für alle x 2 R.


D.h. Xsn ! Xt in Ws., aber auch nach Definition und Lemma 2.3.1 Xsn ! Yt in Ws. und
damit Xt = Yt P -f.s. für alle t 2 R+ . ⇤

Lemma 2.3.1. Voraussetzung von Satz 2.3.1 sei erfüllt. S := {i/2n : i 2 N0 , n 2 N} .


Dann existiert ⌦0 2 A mit P (⌦0 ) = 1 derart, dass

8 X(!, ·)|S fortsetzbar zu einer Funktion 2 C[0, 1) .


!2⌦0

Beweisidee. Mit den Voraussetzungen aus Satz 2.3.1 existiert zu " > 0 und t > 0 ein
↵" (t) 2 R+ derart, dass sup qt (x, [x ", x + "]c )  ↵" (t) und ↵" (t) & 0 mit ↵"t(t) ! 0 für
t & 0.

29
Für n 2 N0 , i 2 {0, 1, ..., 2n 1}, " > 0 definieren wir uns

i 1 j
Am := [max |Xt X in | > "], tm := n
+ n · m | j 2 {1, 2, ..., 2m }
t2tm 2 2 2 2
A := [ sup |Xt X in | > "]
2
t2S\[ 2in , i+1
2n
]

Mit Hilfe der Voraussetzung aus Satz 2.3.1 kann gezeigt werden, dass
8m2N 8n2N 8i2{0,1,...,2n 1} 8">0 P (Am )  2↵ 2" (2 n ) gilt und da Am % A, folgt mit der
Stetigkeit des W-Maßes P

n
8n2N 8i2{0,1,...,2n 1} 8">0 P (A)  2↵ 2" (2 )

↵" (t)
Mit der -Additivität und der Voraussetzung, dass t
! 0 für t & 0 folgt

n!1
8">0 P( maxn sup |Xt X in | > ") !0
i2{0,1,...,2 1} t2S\[ i i+1 2
,
2n 2n
]

(Da wir mit S schneiden ist sichergestellt, dass wir eine messbare Menge betrachten, da
wir das Supremum über eine abzählbare Menge bilden.)
Dies lässt sich (erneut mit der -Additivität) erweitern zu

&0
8N 2N 8">0 P( sup |Xt Xs | > ") ! 0
t,s2S\[0,N ]
|t s|<

Konvergenz in Ws. impliziert die Existenz einer TF ( k ), für die sogar P -f.s. Konvergenz
gilt und damit ist für alle N 2 N und P -f.a. ! 2 ⌦ der Pfad X(!, ·) S\[0,N ] gleichmäßig
stetig. Aufgrund der Gleichmäßigkeit hängt der Grenzwert auch nicht von der konkreten
Wahl der Folge ( k ) ab und die Behauptung ist gezeigt. ⇤

Satz 2.3.2 (Kinney). Der in Satz 2.2.1 konstruierte Markov-Prozess — mit Übergangsfunktion
{qt : t 2 R+ } — ist modifizierbar (halbseitig stetig modifizierbar) zu einem Prozess mit
Pfaden, die rechtsseitig stetig sind und linksseitige Limiten besitzen, falls für jedes " > 0

(4) 8 qt (x, [x ", x + "]c ) = o(1), t ! +0, gleichmäßig in x 2 R .


">0

Diese Voraussetzung ist schwächer als in (3), da sie keine Forderung an die Konvergenz-
geschwindigkeit stellt.

Man könnte diesen Satz auch für umgekehrt linksseitige Stetigkeit und rechtsseitige Limi-
ten formulieren.

30
2.4. Wiener- und Poisson-Prozess
Definition 2.4.1. Ein stochastischer Prozess X = {Xt : t 2 R+ } mit reellen Zufallsva-
riablen Xt heißt Wiener-Prozess (standardisierte Brownsche Bewegung), wenn
gilt:

8 X0 (!) = 0 ,
!2⌦
8 t 7! Xt (!) , t 2 R+ , ist eine stetige Funktion,
!2⌦

(d.h. X hat stetige Pfade)


X hat unabhängige Zuwächse (d.h. für 0  t1 < t2 < . . . < ti , i 2 N , sind die Zuwächse
Xt2 Xt1 , . . . , Xti Xti 1 unabhängig), wobei 8 Xt Xs N (0, t s)-verteilt.
0s<t

Definition 2.4.2. Ein stochastischer Prozess X = {Xt : t 2 R+ } mit reellen Zu-


fallsvariablen Xt heißt — inhomogener — Poisson-Prozess mit Parameterfunktion
m : R+ ! R+ , wenn gilt: m monoton nichtfallend, stetig, m(0) = 0, 8 X0 (!) = 0,
!2⌦
8 t 7! Xt (!), t 2 R+ , ist eine rechtsseitig stetige, monoton nichtfallende Funktion
!2⌦
mit Sprüngen der Höhe 1, X hat unabhängige Zuwächse, wobei

8 Xt Xs ⇡(m(t) m(s))-verteilt. (Poissonverteilt)


0s<t

Im Spezialfall m(t) = t mit festem > 0 heißt X (homogener) Poisson-Prozess mit


Parameter .
Für den Poisson-Prozess existiert keine stetige Modifikation.

Satz 2.4.1. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 (d.h. die Anfangsvertei-
lung ist auf 0 konzentriert) und der Halbgruppe der Brownschen Bewegung konstruierbare
Markov-Prozess ist stetig-modifizierbar. Die stetige Modifikation ist ein Wiener-Prozess.

Beweisidee. Dies ist zugleich der Beweis der Existenz des Wiener-Prozesses und hat als
tiefliegendes Argument den Satz von Kinney und Dynkin:
a) Mit Satz 2.3.1 lässt sich die stetige Modifizierbarkeit begründen (einfaches Nach-
rechnen mit passenden Substitutionen).
b) Sei (⌦, A, P, {Yt | t 2 R+ }) eine stetige Modifikation von X = {Xt | t 2 R+ }
b1) X0 = 0 P -f.s. nach 2.2.1 wegen µ({0}) = 1, d.h. Y0 = 0 P -f.s. und damit O.b.d.A.
Y0 = 0 für alle ! 2 ⌦.
b2) {qt | t 0} sind translationsinvariant, d.h. 8y2R qt (x, B) = qt (y + x, y + B)
(nachrechnen).

31
Damit kann die (paarweise) Unabhängigkeit der Zuwächse gezeigt werden.
(Ausführlicher:
Z
P (Yt1 2 A1 , Yt2 Yt1 2 A2 ) = P (Yt1 2 A1 , Yt2 Yt1 2 A2 | Yt1 = x) PYt1 (dx)
R
Hilfslemma aus Beweis von Satz 2.3.1
= qt 2 t1 (0, A2 )P (Yt1 2 A1 )
Translationsinvarianz

D.h. speziell für A1 = R ergibt sich P (Yt1 Yt 2 2 A 2 ) = q t 2 t1 (0, A2 ) und damit

P (Yt1 2 A1 , Yt2 Yt1 2 A2 ) = P (Yt1 2 A1 ) · P (Yt2 Yt1 2 A2 ).

)
b2)
b3) Für B 2 B ist P (Yt+s Yt 2 B) = qs (0, B) und damit gilt für die Zuwächse
Yt+s Yt ⇠ N (0, s).
b4) Nach Konstruktion von Y gilt: 8!2⌦ Y (!, ·) 2 C([0, 1)).

Bemerkung 2.4.1 (N. Wiener). Fast sicher sind die Pfade eines Wiener-Prozesses nir-
gends di↵erenzierbar, also auch für kein (Zeit-)Intervall (positive Länge) rektifizierbar.

P
n
Beweisidee. Zeige für Vj,n := |W i W i 1 |j nacheinander
n n
i=1

1. V2,n  max |W i W i 1 | · V1,n


i=1,...,n n n

2. max |W i W i 1 | ! 0 in Ws. für n ! 1.


i=1,...,n n n

3. E(|V2,n 1|2 ) ! 0 für n ! 1.


4. sup V1,n = 1 P -f.s.
n
5. L V1,n ! 1.

Die folgende Bemerkung ist nicht so wichtig

Bemerkung 2.4.2. Der Wiener-Prozess mit Halbgruppe {qt ; t 2 R+ } (der Brownschen


Bewegung) besitzt die sog. starke Markov-Eigenschaft: Für jede Stoppzeit (Optionszeit,
Markovzeit) T : ⌦ ! R+ , definiert durch

8 [T  t] 2 F(Ws : 0  s  t),
t2R+

32
jedes s 2 R+ und jedes B 2 B gilt

P [WT +s 2 B|FT ] (def. auf ⌦) = qs (WT , B)

fast sicher, wobei

FT := {A 2 F(Ws ; s 0) : A \ [T  t] 2 F(Ws ; 0  s  t) 8 t 0}.

Satz 2.4.2. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Poissonschen
Halbgruppe mit Parameter 2 (0, 1) konstruierbare Markov-Prozess ist modifizierbar zu
einem Prozess mit Pfaden, die rechtsseitig stetig sind und linksseitige Limites besitzen.
Dieser Prozess ist ein (homogener) Poisson-Prozess mit Parameter .

Beweisidee.
a) Der Nachweis kann direkt erfolgen mit Satz 2.3.2

qt (x, [x ", x + "]c ]) = qt (0, [ ", "])  1 e t


& 0 für t & 0 glm. in x.

b) Der Nachweis Nt Ns ⇠ ⇡(m(t) m(s))-verteilt erfolgt wie im Beweis zu Satz 2.4.1.


Bemerkung 2.4.3. Ein (homogener) Poisson-Prozess gemäß Definition 2.4.2 mit Para-
meter 2 (0, 1) ist ein Zählprozess (oder Erneuerungsprozess) (Nt )t2R0 , definiert durch

Nt := sup{n 2 N0 | Sn  t},
Pn
zu Partialsummen Sn := i=1 Xi mit nicht-negativen unabhängigen exp( )-verteilten
“Lebensdauern” Xi und umgekehrt; fast sicher nimmt er also nur Werte 2 N0 an und hat
nur Sprünge der Höhe 1, und zwar abzählbar unendlich viele.

33
2.5. Di↵usionsprozesse

Bemerkung (Vorbetrachtung) Betrachte die Halbgruppe der Brownschen Bewegung


{qt | t 2 R+ } mit
(
1 , falls x 2 B
q0 (x, B) :=
0 , sonst
Z
1 (y x)2
qt (x, B) := f (t, x, y) dy mit f (t, x, y) = p e 2t , x, y 2 R, t > 0
B 2⇡t

Für alle x 2 R ist f (·, x, ·) Lösung der Wärmeleitungsgleichung

1
ut = uyy , t > 0, y 2 R
2
auch Vorwärtsgleichung des Wiener-Prozesses genannt mit = 1.
Für alle y 2 R ist f (·, ·, y) Lösung von der Wärmeleitungsgleichung

1
(⇤⇤) ut = uxx , t > 0, x 2 R
2
auch Rückwärtsgleichung des Wiener-Prozesses genannt mit = 1.
Die Verteilungsfunktion erfüllt
Z (
y
0 (t ! +0) , falls y < x
F (t, x, y) := f (t, x, ⌘) d⌘ !
1 1 (t ! +0) , falls y > x

In der Grenze für t ! +0 liefert das die Dirac’sche -Funktion, genauer die -Distribution.

Sei w : R ! R beschränkt und stetig, dann ist


Z
(t, x) := w(y)f (t, x, y) dy
R

eine Überlagerung oder Superposition der Lösungen von (⇤⇤) entsprechend der Gewichts-
funktion w. Auch löst (⇤⇤) mit Anfangsbedingung

(+0, x) = w(x), x 2 R.

34
Definition 2.5.1. Ein Markov-Prozess mit Anfangsverteilung µ und Übergangsfunktion
{qt ; t 2 R+ } (konstruiert gemäß Satz 2.2.1) heißt Di↵usionsprozess, wenn die folgenden
Bedingungen (von Kolmogorov und Feller) erfüllt sind:

1
(1) 8 8 qt (x, [x ", x + "]c ) ! 0 (t ! +0)
">0 x2R t

Z
1
(2) 8 8 (y x)qt (x, dy) ! a(x) (t ! +0)
">0 x2R t |{z}
[x ",x+"] 2R

Z
1
(3) 8 8 (y x)2 qt (x, dy) ! b(x) (t ! +0) .
">0 x2R t |{z}
[x ",x+"] 2 R+

Da wir in (2) und (3) für t ! 0 den Quotienten 00 betrachten, besteht eine Chance, dass
der Quotient gegen einen Wert konvergiert.
a(x) . . . sogenannter Driftkoeffizient (momentaner mittlerer Trend des im Zustand x
befindlichen Prozesses; Trendfunktion; lokaler Trend im Punkt x)
b(x) . . . sogenannter Di↵usionskoeffizient (momentane mittlere quadratische Abwei-
chung; Varianzfunktion; lokale Varianz im Punkt x).

Bemerkung 2.5.1. a) Es genügt wegen (1), in (2) und (3) statt 8 " > 0 nur 9 " > 0
zu fordern.
b) Der Wiener-Prozess mit 2 := V (W1 ) = 1 (standardisierte Brownsche Bewegung) ist
ein pfadstetiger Di↵usionsprozess mit a(x) ⌘ 0, b(x) ⌘ 1; zugehörige Rückwärtsgleichung
(s.O.) ... Wärmeleitungsgleichung.
c) Der sog. Ornstein-Uhlenbeck-Prozess ist ein pfadstetiger Di↵usionsprozess mit
a(x) = ↵x (↵ > 0), b(x) = const > 0.

Beweisidee.
a) Für 0 < "0 < "00 gilt
Z Z
1 2 10
(y x) qt (x, dy)  const qt (x, dy) ! 0
t [x "00 ,x+"00 ]\[x "0 ,x+"0 ] t [x "0 ,x+"0 ]c

für t & 0 nach (1).


35
Satz 2.5.1 (Kolmogorov). Sei {qt : t 2 R+ } eine Übergangsfunktion mit (1), (2), (3).
Sei w : R ! R (könnte eine Dichte sein, muss aber nicht) beschränkt und stetig.
Z
(4) (t, x) := w(y)qt (x, dy), t > 0, x 2 R .
R

x und xx sollen existieren und auf (0, 1) ⇥ R stetig sein. Dann existiert t, und
genügt auf (0, 1) ⇥ R der partiellen Di↵erentialgleichung

b
(5) t = |{z}
a x + xx (Rückwärtsgleichung)
2
|{z}

Funktionen von x mit der Anfangsbedingung

(6) lim (t, x) = w(x), x 2 R


t!+0

und die Rückwärtsgleichung (5) hängen nicht vom Zufall ab; der Markov-Prozess aber
wird vom Zufall getriggert.

Beweisidee.
a) Zunächst muss gezeigt werden, dass der Rückwärtsgleichung (5) genügt.
Z Z Z Z
(⇤)
(t + h, x) = w(z)qt+h (x, dz) = w(z)qt (y, dz)qh (x, dy) = (t, y)qh (x, dy)
ZR R R R

(t, x) = (t, x)qh (x, dy)


R

(⇤) kann mit Hilfe der Standard Machinery of Measure Theory und mit Hilfe der
Chapman-Kolmogorov- Gleichungen gezeigt werden.
Dann kann mit obigen Gleichungen und der Taylor-Schreibweise der Di↵erenzen-
(t + h, x) (t, x)
quotient so umgeformt und abgeschätzt werden, bis
h
(t+h,x) (t,x)
h
! a(x) x (x, t) + b(x)
2 xx (t, x) für h & 0 eingesehen werden kann.

Ähnlich für h % 0. Also ex. t und es gilt (5).


b) Wir zeigen nun, dass der Anfangsbedingung genügt:
1. Weg (analytisch): Da w stetig ist, existiert für festes x 2 R und " > 0 beliebig
ein > 0 mit |w(x) w(y)| < " für |x y| < . Zusammen mit der Beschränkheit
von w folgt

36
Z
| (t, x) w(x)| = w(y) w(x) qt (x, dy)
R
Z
 |w(y) w(x)|1[x ,x+ ] (y) qt (x, dy)
ZR
+ |w(y) w(x)|1[x ,x+ ]c (y) qt (x, dy)
R

< " + const · qt (x, [x , x + ]c )

Da " > 0 beliebig, folgt (t, x) ! w(x) für t & 0.

2. Weg (maßtheoretisch): Sei x 2 R fest, dann gilt nach (1)

qt (x, [x , x + ]c ) ! 0 für t & 0


qt (x, [x , x + ]) ! 1 für t & 0

d.h. für die Verteilungsfunktion F von qt (x, ·) gilt


(
1 , für y > x
F (y) ! ,t & 0
0 , für y < x

d.h. qt (x, ·) ! x schwach für t & 0, also


Z Z
8w beschr. u. stetig auf R w(y) qt (x, dy) ! w(y) x (dy)
R R
| {z }
=w(x)

Bemerkung (Dippon) Aufgrund der Anfangsverteilung und der Übergangsfunktion,


wobei PXt+s |Xs unabhängig von s ist, ist ein Markov-Prozess konstruierbar (Satz 2.2.1), der
umgekehrt (bis auf gewisse Nullbedingungen) die Anfangsverteilung und Übergangsfunktion
festlegt.
Unter gewissen Regularitätsvoraussetzungen für a und b (messbar, Ex. von axx und bx ,
lokale lipschitz-Stetigkeit, b und 1b beschränkt) ist die Rückwärtsgleichung (5) mit An-
fangsbedingung (6) eindeutig lösbar. Die Zuordnung w 7! legt dann gemäß (4) die
Übergangsfunktion
Z {qt | t > 0} fest. Bei Lösung eines Anfangswertproblems in der Form
(t, x) = !(y) qt (x, dy) ist f (t, x, ·) die Dichte des W-Maßes qt (x, ·). Ein Markov-Prozess
R | {z }
f (t,x,y)dy
ist also durch Anfangsverteilung und Funktionen a, b mit Regularitätseigenschaften festge-

37
legt (in seinen endlich dimensionalen Verteilungen). In Anwendungen werden daher meist
a und b und nicht {qt | t > 0} vorgegeben.
Insgesamt bedeuted das, dass mit einer Di↵usion , welche der Rückwärtsgleichung (5)
und der Anfangsbedingung (6) genügt, sich ein Markov-Prozess rekonstruieren lässt.

Beispiel (zu Satz 2.5.1)


a) Wiener Prozess (siehe Bemerkung 2.5.1)
b) Ornstein-Uhlenbeck-Prozess (siehe Bemerkung 2.5.1)
c) Beispiel in Zusammenhang mit dem Wiener Prozess:
Ein Partikel startet zum Zeitpunkt t = 0 im Punkt x0 > 0 und bewegt sich gemäß
einem Wiener-Prozess, wird aber beim erstmaligen Erreichen im Punkt x = 0 ab-
sorbiert.
Wir suchen qt : R+ ⇥ B+ ! [0, 1] und wissen es muss gelten

8x2R+ q0 (x, ·) = ein auf x-konzentriertes W-Maß =: x

8t2R+ qt (0, ·) = ein auf 0-konzentriertes W-Maß =: x

Ziel: Konstruktion eines Markov-Prozesses mit Übergangsfunktion {qt | t 2 R+ }.


Wir formulieren den Satz 2.5.1 für Zustände x 2 R+ anstatt x 2 R. Hier gilt dann
a(x) = 0, b(x) = 1 für x > 0.
Durch den reformulierten Satz 2.5.1 und die Wahl von a und b erhalten wir neue par-
tielle Di↵erentialgleichungen und zum Teil auch neue Randbedingungen die durch
Anwenden der Theorie der partiellen Di↵erentialgleichungen und dem Eindeutig-
keitssatz zur Fortsetzung von W-Maßen zu folgendem Ergebnis führt:

qt (x, {0}) eventuell auch > 0


Z
1 (y x)2 (y+x)2
qt (x, B) = p e 2t e 2t dy für t > 0, x > 0, B 2 B \ (0, 1)
2⇡t B

(Ausführlicher:
8
>
> Dann gilt t = 12 xx für x > 0 und t > 0 (Rückwärtsgleichung)
>
>
>
<
(⇤) w : R+ ! R+ beschränkt und stetig gilt
> Für beliebiges
> Z
>
>
>
: (t, x) := w(y) qt (x, dy) , t 2 R+ , x 2 R+
R+

38
Für w(0) = 0 gilt mit dem reformulierten Satz 2.5.1

8x2R+ lim (t, x) = (0, x) = w(x) existiert


t&0

Mit zusätzlicher Randbedingung


8t2R+ lim (t, x) = (t, 0) = w(0) = 0 existiert
x&0

Die Theorie der partiellen Di↵erentialgleichung liefert


Z ✓ ◆
1 (y x)2 (y+x)2
(⇤⇤) (t, x) = p e 2t e 2t w(y) dy
R 2⇡t

Betrachtet man (⇤) für jedes beschränkte und stetige w : R+ ! R+ , so kann man
mit Hilfe des Eindeutigkeitssatzes zur Fortsetzung von W-Maßen zeigen, dass die
Familie {qt (x, ·) | t 0, x 2 R+ } auf B+ eindeutig festgelegt ist. Vergleich von (⇤)
und (⇤⇤) liefert

qt (x, {0}) eventuell auch > 0


Z
1 (y x)2 (y+x)2
qt (x, B) = p e 2t e 2t dy für t > 0, x > 0, B 2 B \ (0, 1)
2⇡t B

Insbesondere gilt für t > 0, s > 0, x > 0


Z px
1 t s2
qt (x, (0, 1)) = 2 · p e 2 ds
2⇡t Z0
1
1 s2
qt (x, {0}) = 2 · p e 2 ds
2⇡t pxt

Folgerung:
Z x
1 s2
q1 (x, (0, 1)) = P ( max wt  x) = 2 p e 2 ds, x>0
0t1 2⇡ 0

)
d) Für {Xt | t 2 R+ } = {|Wt | | t 2 R+ }, wobei W ein standard Wiener-Prozess ist der
in 0 startet, gilt
Z
1 (y x)2 (y+x)2
qt (x, A) = p e 2t + e 2t dy für x 2 R+ , t > 0, A 2 B+
2⇡t A

39
Denn für qet Übergangsfunktion des Wiener Prozesses gilt

1
qt (x, A) = (e qt (x, ±A) + qet ( x, ±A)
2
= qet (0, A x) + qet (0, A + x)
= qet (x, A) + qet ( x, A)

Außerdem gilt

qt+s (x, B) = qet+s (x, B) + qet+s ( x, B)


= qet+s (x, B) + qet+s (x, B)
Z
= qs (y, B)eqt (x, dy)
Z R

= qs (y, B)qt (x, dy)


R+

Diese Bemerkung ist nicht so wichtig

Bemerkung 2.5.2. Sei C̃(R) der Banach-Raum der gleichmäßig stetigen beschränkten
Funktionen w : R ! R mit sup-Norm || · ||. Sei {qt : t 2 R+ } eine Übergangsfunktion mit
qt (x, ·) ! qt (x0 , ·) schwach für x ! x0 2 R (t 2 R+ ) und

8 qt (x, [x ", x + "]c ) ! 0 (t ! +0)


">0

gleichmäßig in x 2 R (vgl. Satz 2.3.2). Die Familie { t; t 2 R+ } der beschränkten linearen


Operatoren t : C̃(R) ! C̃(R) (!) mit
Z
( t w)(x) := w(y)qt (x, dy), t > 0, x 2 R, w 2 C̃(R),
R

0 := Identität auf C̃(R)

ist eine einparametrige Kontraktions-Halbgruppe, d.h. erfüllt

|| t w||  ||w|| 8w 2 C̃(R) (|| t ||  1), t 2 R+ ,


t+s = t s, s, t 2 R+ ,
|| tw w|| ! 0 (t ! +0), w 2 C̃(R).

2.6. Markovsche Sprungprozesse


Definition 2.6.1. Ein Markov-Prozess {Xt : t 2 R+ } auf (⌦, A, P ) mit Anfangsverteilung
µ und Übergangsfunktion {qt : t 2 R+ } (konstruiert gemäß Satz 2.2.1) heißt reiner

40
Sprungprozess, wenn gilt:
Für (P -fast) alle ! 2 ⌦ ist X(!, ·) stückweise konstant und rechtsseitig stetig mit isolierten
Sprungstellen als einzigen Unstetigkeitsstellen.
Satz 2.6.1. Reiner Sprungprozess wie in Definition 2.6.1. (Wegen der stationären Über-
gangswahrscheinlichkeiten qt (x, B) können im folgenden die Indizes beim stochastischen
Prozess einheitlich um eine positive Konstante erhöht werden.)
T (!) := inf{⌧ 2 R+ |X⌧ (!) 6= X0 (!)}, ! 2 ⌦, . . . Wartezeit bis zum 1. Sprung. (da X
ein rechtsseitig stetiger Prozess ist, wird das Infimum angenommen).
a) Es existiert : (R, B) ! (R+ , B+ ) mit

8 PT |X0 =x = exp ( (x)),


x2R

8
< 1 e (x)t
(t 0)
d.h. 8 P [T  t|X0 = x] =
x2R : 0 (t < 0)

Falls (x) = 0, ist PT |X0 =x konzentriert auf {1}.


b) 8 8 8 P [T  t, XT := X(·, T (·))  y|X0 = x]
x2R t2R+ y2R
= P [T  t|X0 = x] · P [XT  y|X0 = x]
(Unabhängigkeit von T und XT unter der Bedingung X0 = x; XT ist eine reellwertige
ZV, die doppelt vom Zufall abhängt).
c) T ⇤ := Wartezeit bis zum 2. Sprung
8 P [T ⇤  t|X0 = x] = o(t) (t ! +0)
x2R
d) wie oben; x 2 R ; B 2 B mit x 2
/ B ; K(x, B) := P [XT 2 B|X0 = x] .
Dann (für kleine t)

qt (x, {x}) = 1 (x)t + o(t)


qt (x, B) = (x)t · K(x, B) + o(t) (t ! +0).

Beweisidee.
a) {Xt | t 2 R+ } sei an Markov-Prozess mit stationären Übergangswahrscheinlichkeiten.
Daraus folgt die Gedächtnislosigkeit von PT |X0 =x . Dies ist charakteristisch für die
Exp-Verteilung mit Parameter 0.
b) XT ist unabhängig davon, wie lange der Prozess schon im Punkt x ist (nachrechnen).
c) Plausibel wegen

a)
(⇤) P (T  t | X0 = x) = (x) · t + o(t) für t & 0

41
(folgt mit Potenzreihenentwicklung von e-Funktion).
d) 1. Gleichung plausibel wegen (⇤).
2. Gleichung plausibel wegen 1. Gleichung.

Beispiel (Markov’sche Sprungprozesse)



a) Poisson-Prozess mit (x) ⌘ > 0.
b) Zusammengesetzter Poisson-Prozess:

Schadensfälle treten gemäß einem Poisson-Prozess {Nt | t 2 R+ } mit Parameter


> 0 auf (Nt = Anzahl der bis zum Zeitpunkt t gemeldeten Schadensereignisse).
P
n
Damit ist (Nt ) der Erneuerungsprozess zur Folge der Partialsummen Yi , n 2 N 0 ,
i=1
P
0 P
n
Yi := 0, wobei Yi die zufällige Schadenshöhe zum i-ten Schaden und Yi die
i=1 i=1
Gesamtschadenshöhe bis zum n-ten Schaden ist. Wir nehmen an

Y1 , Y2 ,... undabhängig identisch verteilt, (nicht notwendigerweise) 0


T1 , T2 ,... unabhängig identisch Exp( )-verteilt

wobei T1 der ZP des 1. Schadens, T2 die Wartezeit bis zum 2. Schaden, ... ist. Weiter
seien {T1 , Y1 , T2 , Y2 , ...} stochastisch unabhängig.
P
Nt
Zt = Yi (Gesamtschadenshöhe bis zum ZP t) ist ein zusammengesetzter Poisson-
i=1
Prozess und ein reiner Sprungprozess mit Anfangsverteilung µ konzentriert auf {0}
(da P (N0 > 0) = 0), mit Übergangswahrscheinlichkeiten {qt | t 2 R+ }.

Für Yi ⌘ 1, gilt Zt = Nt ⇠ P oi( t) und Ti ⇠ Exp( ) undabhängig und identisch


verteilt.
1
X
qt (x, B) = qt (0, B x) = P (Y1 + ... + Yk 2 B x) · P (Nt = k),
| {z }
k=0 k
=e t ( t)
k!

wegen obiger Unabhängigkeitsannahme. Für konkrete Verteilungen der Schadenshöhe


lässt sich P (Y1 + ... + Yk 2 B x) durch Faltung berechnen.
Hier gilt: (x) ⌘ > 0 und K(x, B) = P (Y1 2 B x), x 2 R, B 2 B, x 2 / B.
M | |{z}
c) Wir betrachten die Warteschlange |{z} M | 1, d.h. Kunden kommen gemäß
⇠Exp( ) ⇠Exp(µ)
einen Poisson-Prozess {Nt | t 2 R+ } mit Parameter an einem Schalter an. Die

42
Bedienzeiten der Kunden ist unabhängig identisch Exp( )-verteilt.
Q := {Q(t) | t 2 R+ } mit Q(t) zufällige Länge der Schlange zum ZP t.

Da die Zwischenwartezeiten und Bedienzeiten unabhängig sind und LB-Dichten zu


den dazugehörigen Verteilungen existieren, hat Q f.s. Sprünge der Höhe ±1. Auf-
grund der Gedächtnislosigkeit ist Q ein reiner Sprungprozess. Es gilt

P (Ns+t Ns 1) = t + o(t) für kleine t


| {z }
⇠P oi( t)
P (Ns+t Ns 2) = o(t) für kleine t

8x2N0 P (Ns+t Ns = 1 | Q(s) = x) = t + o(t) für kleine t


8x2N P (Ns+t Ns = 1 | Q(s) = x) = µt + o(t) für kleine t
P (Ns+t Ns = 1 | Q(s) = 0) = 0 für kleine t

Q ist ein sogenannter Geburts- und Todesprozess mit konstanter Geburtsrate und
konstanter Todesrate µ, wobei hier

8x2N0 qt (x, {x + 1}) = t + o(t) t&0


8x2N qt (x, {x 1}) = µt + o(t) t&0
qt (0, { 1}) = 0 t&0
8x2N0 qt (x, {x}) = 1 ( + µ)t + o(t) t&0
qt (0, {0}) = 1 t + o(t) t&0

mit Intensitätsfunktion
(
+ µ , falls x 2 N
(x) =
, falls x = 0

43
3. Stationärer Prozesse

3.1. Stationäre Prozesse, Gauß-Prozesse, stationäre


Gauß-Prozesse
Definition 3.1.1. Ein stochastischer Prozess {Xt : t 2 R} heißt (stark, strikt) stati-
onär, wenn
8 8 P(Xt1 +s ,...,Xtn +s ) unabhängig von s 2 R .
n2N (t1 ,...,tn )2R

Entsprechend für Indexbereiche R+ , Z, N0 .

Definition 3.1.2. Ein stochastischer Prozess {Xt : t 2 R} mit Zustandsraum C und


E|Xt |2 < 1, EXt = const, t 2 R , heißt stationär im weiteren Sinne (stationär von
2. Ordnung), wenn die Kovarianz

E(Xt EXt )(X t0 EX t0 ), t, t0 2 R ,

nur von t t0 abhängt. Entsprechend für Indexbereiche R+ , Z, N0 .

Bemerkung (Dippon) Aus Definition 3.1.1 folgt direkt, dass die Xt identisch verteilt
sind (wähle n = 1).
Aus Definition 3.1.2 folgt direkt, dass alle Xt dasselbe 1. und 2. Moment besitzen (wähle
t = t0 ), identische Verteiltheit folgt nicht mehr.
Es gibt Prozesse, die Definition 3.1.1 erfüllen, aber nicht Definition 3.1.2 und umgekehrt.
D.h. keine von beiden ist eine Verschärfung der anderen.
Stationarität schwächt den Begri↵ der Unabhängigkeit ab.
Beispiel zu Definition 3.1.2. Bei einer Folge quadratisch integrierbarer paarweise un-
korrelierter reeller Zufallsvariablen Zn , n 2 Z, mit EZn = const⇤ , V (Zn ) = const. > 0
ist (Xn )n2Z mit

1
Xn = (Zn + . . . + Zn r ) , bei festem r 2 N,
r+1

ein sogenannter MA-Prozess (moving average . . . gleitender Durchschnitt).

44
Begründung der Stationarität:

E(Xn ) = E(Zn ) = const⇤


0 = Cov(Zm , Zn ) = E(Zm Zn ) E(Zm )E(Zn ) = E(Zm Zn ) (const⇤ )2
1
E(Xm Xn ) = E((Zm + ... + Zm r )(Zn + ... + Zn r ))
(1 + r)2

=) Cov(Xm , Xn ) = E(Xm Xn ) E(Xn )E(Xm )


1
= · (1 + r)2 (const⇤ )2 (const⇤ )2 = 0
(1 + r)2

Satz 3.1.1. Sei {Xt : t 2 R} ein im weiteren Sinne stationärer Prozess mit EXt = 0, t 2
R . Ist die Kovarianzfunktion (Autokovarianzfunktion) ⇢ : R ! C mit ⇢(t) = EXt+s X s
stetig, dann existiert — eindeutig — ein Maß R auf B (das sogenannte Spektralmaß des
Prozesses) mit Z
⇢(t) = ei t R(d ), t 2 R .
R

Hierbei ⇢(0) = R(R) (⇢(0) = V ar(Xs ) = E(Xs2 )) . — Falls die Zufallsvariablen Xt reell
sind, dann ist R symmetrisch bezüglich 0, und es gilt
R
⇢(t) = R
cos( t) R(d ), t 2 R .

Ist ⇢(0) = 1, so ist das Spektralmaß ein W-Maß.

Beweisidee. Das tiefliegende Argument dieses Satzes ist der Satz von Bochner!
1. Wir zeigen ⇢ ist eine positiv semi-definite Funktion:
X
8n2N 8(t1 ,...,tn )2Rn 8(z1 ,...,zn )2Cn ⇢(tj tk )zj zk 0
j,k={1,...,n}
| P
{z }
= E(Xtj zj X tk zk )
j,k={1,...,n}

Da ⇢ : R ! C stetig, mit ⇢(0) = 1 und wie eben gezeigt ⇢ positiv semi-definit ist,
folgt mit dem Satz von Bochner, dass ⇢ die charakteristische Funktion eines Wahr-
scheinlichkeit-Maßes ist. Die Folgerung kann auch umgekehrt getro↵en werden.

Der Satz von Bochner:


Es ist ⇢ : R ! C stetig, mit ⇢(0) = 1 und ⇢ positiv semi-definit, genau dann
wenn, ⇢ die charakteristische Funktion eines W-Maßes ist.

45
2. Sei Xt reell, t 2 R+ , dann ist auch ⇢ reellwertig und es gilt
Z
⇢(t) = cos( t) R(d )
R
Z
Diese Gleichung und ⇢(t) = ei t R(d ) gelten für R0 mit R0 (B) := R( B), B 2 B
R
(Beweis mit Approximation des Integranten ! cos( t) durch Linearkombinatio-
nen gerader Indikatorfunktionen). Nach dem Eindeutigkeitssatz für charakteristische
Funktionen muss dann R = R0 gelten und damit ist R symmetrisch.

Bemerkung (Dippon) Intuition:


Falls R eine Dichte bzgl. des LB-Maßes besitzt, so kann ⇢ als Fouriertransformierte der
Dichte des Spektralmaßes R interpretiert werden (bis auf einen Faktor p12⇡ ).
Andererseits kann dann die Dichte des Spektralmaßes R auch als Fouriertransformierte
der Kovarianzfunktion ⇢ interpretiert werden.
D.h. die Fouriertransformierte von ⇢ kann als Spektrum von ⇢ interpretiert werden, daher
der Name Spektralmaß.

Korollar 3.1.1. Zu dem im weiteren Sinne stationären Prozess {Xt : t 2 R} mit


EXt = 0, t 2 R, dem sogenannten Input-Prozess, werde durch eine lineare Transfor-
P
mation (Filter) der Output-Prozeß {Yt : t 2 R} mit Yt = nk=1 ck Xt ⌧k , t 2 R , gebildet,
wobei ck 2 C, ⌧k 2 R (k = 1, . . . , n) fest. Dann ist {Yt : t 2 R} stationär im weiteren
Sinne. Für die Kovarianzfunktionen ⇢, ⇢ˆ und die Spektralmaße R, R̂ von {Xt } bzw. {Yt }
gilt
X Z X
⇢ˆ(t) = cj ck ⇢(t ⌧j + ⌧k ), t 2 R ; R̂(B) = | cj e i⌧j |2 R(d ) , B 2 B .
B

Beweisidee. Es ist E(Yt ) = 0 für alle t 2 R und


P
⇢b(t) = E(Yt+s · Y s ) = cj ck ⇢(t ⌧j + ⌧k ) unabhängig von s. Also ist {Yt | t 2 R}
j,k2{1,...,n}
Z
stationär im weiteren Sinne. Weiter gilt für ⇢(t ⌧j + ⌧k ) = ei(t ⌧j +⌧k ) R(d )
R
Z X
⇢b(t) = cj ck ei(⌧k ⌧j ) i t
e R(d )
R j,k2{1,...,n}
Z X n
i t i⌧j
= e | cj e |2 R(d )
R j=1
| {z }
R⇤ (d )

46
Z
b mit ⇢b(t) =
Nach Satz 3.1.1 existiert ein eindeutiges Spektralmaß R b ) und
ei t R(d
R
b = R⇤ .
damit gilt R ⇤

Definition 3.1.3. Ein reeller stochastischer Prozess (⌦, A, P, {Xt : t 2 R}) heißt Gauß-
Prozess, wenn alle seine endlich-dimensionalen Verteilungen P(X , . . . , X ) , t1 < . . . <
t1 tn
tn , Gaußsch sind, d.h. wenn für jede lineare Abbildung l : Rn ! R die reelle Zufallsvariable
l (Xt1 , . . . , Xtn ) normalverteilt ist (mit unter Umständen zu 0 ausgearteter Varianz). —
Entsprechend für andere Indexbereiche I(⇢ R), insbesondere R+ und [0, 1].

Satz 3.1.2. Die endlich-dimensionalen Verteilungen eines Gauß-Prozesses {Xt ; t 2 I}


sind eindeutig festgelegt durch die Erwartungsfunktion m : I ! R und die Kovari-
anzfunktion : I ⇥ I ! R — definiert durch

m(t) := EXt ,
(s, t) := Cov (Xs , Xt ) := E(Xs EXs )(Xt EXt ).

Mögliche Kovarianzfunktionen sind genau die symmetrischen positiv-semidefiniten reell-


wertigen Funktionen auf I ⇥ I .

Beweisidee. Seien t1 , ..., tn 2 I. Der Gaußsche Zufallsvektor (Xt1 · · · Xtn )T hat den Er-
wartungswertvektor (E(Xt1 ) · · · E(Xtn ))T = (m(t1 ) · · · m(tn ))T und Kovarianzmatrix
(Cov(Xti , Xtj ))i,j2{1,...,n} = ( (Xti , Xtj ))i,j2{1,...,n} und ist nach MWT in seiner Verteilung
dadurch festgelegt.
: I 2 ! R ist symmetrisch und positiv semidefinit.
Eine beliebige reellwertige Funktion m : I ! R und eine beliebige symmetrische positiv
semidefinite Funktion : I ⇥ I ! R lassen sich als Erwartungsfunktion und Kovarianz-
funktion eines Gaußschen Prozesses deuten. Denn diese legen die endlichdimensionalen
Gaußsche Verteilungen fest, die dem Verträglichkeitssatz von Kolmogorov genügen. ⇤

Bemerkung 3.1.1. Im Falle eines Gaußschen Prozesses mit Zustandsraum C fallen Sta-
tionarität und Stationarität im weiteren Sinne zusammen.

Lemma 3.1.1. Für einen Gaußschen (d.h. Gaußsch verteilten) n-dimensionalen Zufalls-
vektor (X1 , . . . , Xn ) liegt genau dann Unabhängigkeit von {X1 , . . . , Xn } vor, wenn die
X1 , . . . , Xn paarweise unkorreliert sind, d.h. wenn die Kovarianzmatrix

(Cov (Xi , Xk ))i, k2{1,...,n}

eine Diagonalmatrix ist.

47
Beweisidee. Sei X = (X1 · · · Xn )T ein n-dimensionaler Gaußscher Zufallsvektor mit Er-
wartungswertvektor E(X) = (E(X1 ) · · · E(Xn ))T und Kovarianzmatrix
C = (E[(Xi E(Xi ))(Xj E(Xj ))])i,j2{1,...,n} .
Nach MWT ist P(X1 ,...,Xn ) eindeutig festgelegt durch Erwartungswertvektor und Kovari-
anzmatrix. Außerdem ist C positiv semi-definit. Dann folgt die Behauptung des Lemmas.

Beispiele für Gauß-Prozesse


a) Gaußprozess des weißen Rauschens . . . unabhängige Familie {Xt : t 2 R}
N (0, 1)-verteilter reeller Zufallsvariablen. m(t) = 0; (s, t) = 1 für s = t, (s, t) = 0
sonst (s, t 2 R) .
Der Gaußprozess des weißen Rauschens ist stationär.
b) Wiener-Prozess (standardisierte Brownsche Bewegung) {Wt : t 2 R+ }
[gemäß Definition 3.1.1]. m(t) = 0 ; (s, t) = min{s, t} (s, t 2 R+ ) .
Der Wiener-Prozess ist nicht stationär.
c) Brownsche Brücke {Xt : t 2 [0, 1]} mit Xt := Wt tW1 (mit standardisierter
Brownscher Bewegung {Wt : t 2 [0, 1]}). m(t) = 0 ; (s, t) = min{s, t} st (s, t 2
[0, 1]) .
Die Brownsche-Brücke ist nicht stationär.
d) Ornstein-Uhlenbeck-Prozess {Xt : t 2 R+ } mit Xt = e ↵t W e2↵t (mit standar-
disierter Brownscher Bewegung {Wt : t 2 R+ }). m(t) = 0 ; (s, t) = e ↵|s t| .
Der Ornstein-Uhlenbeck-Prozess ist stationär.

Satz 3.1.3. Sei {Xt : t 2 R+ } ein reeller Gauß-Prozess mit EXt = 0, t 2 R+ . Hat die
Kovarianzfunktion : R+ ⇥ R+ ! R die Gestalt

↵|s t|
(s, t) = e (s, t 0)

mit Konstanten ↵ 0, 0, dann ist {Xt : t 2 R+ } stationär, stetig-modifizierbar und


ein Markov-Prozess — und umgekehrt. Im Falle ↵ > 0, = 1 ist das Spektralmaß die
Cauchy-Verteilung mit Dichte
↵ 2
s 7! (↵ + s2 ) 1
, s 2 R.

a) Im Falle ↵ = 0, = 1 ist das Spektralmaß das auf 0 konzentrierte W-Maß.
b) Im Falle ↵ > 0, > 0 liegt bei Pfadstetigkeit ein — hier stationärer — sog.
Ornstein-Uhlenbeck-Prozess (Di↵usionsprozess mit Driftkoeffizient a(x) = ↵x,
Di↵usionskoeffizient b(x) = 2↵ ) vor.
c) Im Falle ↵ = 0 gilt bei Pfadstetigkeit Xt = X0 , t 0, mit N (0, )-verteiltem X0 .

48
Beweisidee. Beim Gauß-Prozess legen die Erwartungsfunktion und Kovarianzfunktion die
endlich-dimensionale Verteilung fest. Die stochastischen Prozesse
p
{e ↵t
W e2↵t | t 2 R+ } und { e ↵t
W e2↵t | t 2 R+ }

mit ↵, 0 ...
(dies sind Transformationen im Zeit- und Zustandsraum des Wiener-Prozesses. Durch
die Zeittransformation ( ) e2↵t läuft die Zeit mit exponentieller Geschwindigkeit (falls
p
↵, > 0) und durch die Zustandstransformation ( ) e ↵t wird der Zustandsbereich
gedämpft. Dadurch wird der Prozess stationär.)
... bestitzen die im Satz 3.1.3 angegebenen Erwartungs- und Kovarianzfunktion und die
weiteren genannten Eigenschaften.

Die Stationarität im weiteren Sinne ist klar. Da X ein Gauß-Prozess ist, liegt sogar Sta-
tionarität im strikten Sinne vor. Der Prozess besitzt auch die angegebenen Drift- und
Di↵ussionskoeffizienten.

Umkehrung siehe Quellen.

↵|t|
Die charakteristische Funktion der Cauchy-Verteilung lautet t 7! e .

Falls ↵ = 0 ist Xt = W für alle t 0 und X0 ⇠ N (0, ). ⇤

3.2. Ergodensätze
Stationarität bedeutet im Folgenden strikte Stationarität gemäß Definition 3.1.1. Zugrun-
degelegt wird ein W-Raum (⌦, F, P ).
Definition 3.2.1. Die Transformation T : (⌦, F) ! (⌦, A) heißt maßerhaltend, wenn T
F-A-messbar ist und P = P T 1 (T 1 Urbildfunktion), d.h.

1
8 P (A) = P (T (A)).
A2A

(A ⇢ F)
Lemma 3.2.1. Zu jeder stationären Folge (Xn )n2N0 reeller ZVn existieren eine reelle ZV
X auf (⌦, F, P ) und eine maßerhaltende Transformation T : ⌦ ! ⌦ derart, dass

Xn = X T n , n 2 N0

49
(T 0 = Identität, T 1 = T, T 2 = T T usw.) — und umgekehrt.

Beweisidee. Sei (Xn )n2N0 eine stationäre Folge von ZV mit

RN0 := Menge der Folgen w = (wn )n2N0 in R


A := -Algebra in RN0 , die erzeugt wird vom System der Mengen
B0 ⇥ B1 ⇥ ... ⇥ Bn ⇥ R ⇥ R ⇥ ..., n 2 N0 , B i 2 B
Q := Verteilung von (Xn )n2N0 ,
festgelegt durch Werte auf diesem (durchschnittsstabilen) Erzeugersystem

Wähle O.b.d.A. W-Raum (⌦, F, P ) = (RN0 , A, Q). Dann ist mit Xn : ⌦ ! R,


Xn (w) = wn , n 2 N0 , (X0 , X1 , ...) die Identität auf ⌦ = RN0 , wobei Xn die Projektion
von ⌦ auf die n-te reelle Achste ist.
Sei T : ⌦ ! ⌦ mit T (!) = (!1 , !2 , ...) und X(!) := X0 (w) = w0 . Dann gilt

(X T n )(w) = X(T n (w)) = X((wn , wn+1 , ...)) = wn = Xn (w),

also Xn = X T n .
T ist maßerhaltend (und messbar), denn mit Stationarität und da (X0 , X1 , ...) Identität

1
P (T (A)) = P ((X1 , X2 , ...) 2 A) = P ((X0 , X1 , ...) 2 A) = P (A).

Die Umkehrung ist klar (im Wesentlichen der letzte Schritt). ⇤

Definition 3.2.2. Sei T : ⌦ ! ⌦ eine maßerhaltende Transformation.

1
FT := {A 2 F : T (A) = A}

1
(T Urbildfunktion) ist die sog. -Algebra der T -invarianten Mengen.

Lemma 3.2.2. Eine messbare Abbildung X : (⌦, F) ! (R, B) ist genau dann FT -B-
messbar, wenn X T = X.

Beweisidee.
00
=)00 Sei X FT -B-messbar, dann ist T 1 (X 1 (B)) = X 1 (B) für alle B 2 B. Ange-
nommen es existiert ein ! 2 ⌦ mit x1 = X(!) 6= (X T )(!) = x2 . Dann ist
! 2 X 1 ({x1 }) und ! 2 (X T ) 1 ({x2 }), aber dann auch ! 2
/ X 1 ({x2 }), was ein
Widerspruch zu (X T ) 1 (B) = X 1 (B) für alle B 2 B ist.

50
00
(=00 Ist X = X T , dann ist auch X 1 (B) = (X T ) 1 (B) für alle B 2 B, d.h.
(X T ) 1 (B) = X 1 (B) für alle B 2 B und damit X 1 (B) 2 FT .

Satz 3.2.1 (Individueller Ergodensatz, Birkho↵ 1931). Sei (Xn )n2N0 eine stationäre Folge
integrierbarer reeller ZVn. Dann gilt

n 1
1X
Xi ! E(X0 |AT ) P -fast sicher (f.s.),
n i=0 | {z }
| {z } räumliches Mittel
arithmetisches Mittel

mit T gemäß Lemma 3.2.1.

Beweisidee. Es kann mit Lemma 3.2.2 gezeigt werden, dass o.B.d.A. E(X0 | AT ) = 0.
nP1
Setze ZO := lim sup n1 Sn und ZU := lim inf n1 ( Sn ) mit Sn = Xi. Dann genügt es für
n n i=0
FO = [ZO > "] bzw. FU = [ZU < "] zu zeigen, dass P (FO ) = P (FU ) = 0, denn daraus
folgt lim sup n1 Sn  0 bzw. lim inf n1 Sn 0 und damit n1 Sn ! 0.

Wir zeigen P (F0 ) = 0:


Es gilt Z T = Z, also FO 2 AT . Wir setzen

Xn" := (Xn ")1FO


Sn" := X0" + ... + Xn" 1

Mn" := max{0, S1" , ..., Sn" }


Fn" := [Mn" > 0]

Dann gilt Fn" % FO und X0" 1Fn" % X0" 1FO mit |X0" 1Fn" |  |X0 | + " 2 L1 . D.h. mit dem Satz
der dominierten Konvergenz folgt

n!1
E(X0" 1Fn" ) ! E(X0" 1FO ) = E(X0" ).

Mit Lemma 3.2.3 folgt E(X0" 1[Mn" >0] ) 0 und

n!1
0  E(X0" 1Fn" ) ! E(X0" ) = " · P (FO )  0,

also muss P (FO ) = 0 gelten. ⇤

51
Bemerkung 3.2.1. Sei {Xt : t 2 R+ } ein stationärer Prozess mit Zustandsraum R. Dann
existiert eine integrierbare reelle ZV X̃ derart, dass
Z s
1
Xt dt ! X̃ (s ! 1) f.s.,
s 0

wobei E X̃ = EX0 .

Beweis von Satz 3.2.1 mit

Lemma 3.2.3 (maximal ergodic theorem). Sei X eine integrierbare reelle ZV und T :
P
⌦ ! ⌦ eine maßerhaltende Transformation. Mit Sk := ki=01 X T i und

Mn := max{0, S1 , . . . , Sn }

gilt (1 Indikatorfunktion)
E(X 1[Mn >0] ) 0, n 2 N.

Beweisidee. Für Mn := max{0, S1 , ..., Sn } folgt X0 Sk+1 Mn T für alle


k 2 {1, ..., n 1}. Da aber auch S1 = X0 und Mn T 0 gilt, folgt

(1) X0 max{S1 , ..., Sn } Mn T.

Weiter gilt

(2) [Mn > 0]c ⇢ [Mn Mn T  0]

und damit folgt

(1) (2)
E(X0 1[Mn >0] ) E((max{S1 , ..., Sn } Mn T )1[Mn >0] ) E(Mn Mn T ) = 0,

da dank der maßerhaltenden Eigenschaft von T gilt E(Mn T ) = E(Mn ) (Standard


Machinery of Measure Theory). ⇤

Definition 3.2.3. Eine stationäre Folge (Xn )n2N0 reeller ZVn mit maßerhaltender Trans-
formation T : ⌦ ! ⌦ (gemäß Definition ) heißt ergodisch, wenn für A 2 A

1
T (A) = A =) P (A) = 0 oder 1.

52
Korollar 3.2.1. Sei (Xn )n2N0 eine stationäre ergodische Folge integrierbarer reeller ZVn.
Dann gilt
n 1
1X
Xi ! EX0 f.s.
n i=0
D.h. der Grenzwert ist ausgeartet, bzw. konzentriert auf einen Punkt und damit f.s. reell.

Bemerkung 3.2.2. Eine unabhängige Folge identisch verteilter (reeller) ZVn ist eine
stationäre ergodische Folge.

Beweisidee.
a) Stationarität nach Definition 3.1.1 klar!
b) Nach Lemma 3.2.1 kann Xn dargestellt werden als Xn = X T n auf (⌦, A, P ),
wobei ⌦ = RN , A durch Zylinermengen erzeugt und P das Produkt-W-Maß (wegen
Unabhängigkeit) ist. Dann gilt

1 n
A 2 AT () T (A) = A () 8n2N T (A) = A,

d.h. [(X0 , X1 , ...) 2 A] = A hängt nicht von den ersten endlich vielen Folgegliedern
ab und damit ist A ein terminales Ereignis und somit nach dem 0-1-Gesetz von
Kolmogorov P (A) 2 {0, 1}.

Korollar 3.2.2 (Kolmogorovsches starkes Gesetz der großen Zahlen). Für eine unabhängige
Folge (Xn )n2N0 identisch verteilter integrierbarer reeller ZVn gilt

n 1
1X
Xi ! EX0 f.s.
n i=0

Satz 3.2.2 ((Lp -Ergodensatz, von Neumann, 1931). Sei (Xn )n2N0 eine stationäre Folge
Lp -integrierbarer reeller ZVn (p 1). Dann gilt

n 1
1X
Xi ! E(X0 |FT ) in Lp (P )
n i=0

mit T gemäß Lemma 3.2.1. Ist (Xn )n2N0 sogar ergodisch, so gilt

n 1
1X
Xi ! E(X0 ) in Lp (P ).
n i=0

53
Beweisidee. Es gilt: Eine Folge Xn konvergiert in Lp genau dann, wenn sie in Wahrschein-
lichkeit konvergiert und |X|p -gleichgradig integrierbar ist.

p
1 nP1
Sei Yn := Xn E(X0 | FT ) gleichgradig integrierbar. Nach dem individuellen
n k=0
Ergodensatz von Birkho↵ ist Yn ! 0 P -f.s., also auch Yn ! 0 in Lp . ⇤

Beispiel (Anwendung des Ergodensatzes; Rekurrenz von Irrfahrten) Sei (Xn )n2N0
P
n
ein stationärer Prozess mit Werten in Rd . Wir betrachten die Irrfahrt Sn := Xk , S0 = 0.
k=1
Weiter sei Rn := |{S1 , ..., Sn }| die Anzahl der bis zum ZP n von der Irrfahrt besuchten
Punkte und A := {8n2N Sn 6= 0} ein Fluchtereignis, d.h. das Ergeinis, dass die Irrfahrt
nie mehr zum Punkt 0 zurückkehrt. Dann gilt

1
lim Rn = P (A | AT ) P -f.s.
n!1 n

Der Beweis ist nicht ganz so wichtig.


Beweisidee: Mit Lemma 3.2.1 können wir den Prozess schreiben als Xn = X T n auf
N
((Rd )N0 , (B(Rd )) N0 , P ). Es gilt
n
X
Rn 1A T k .
k=1

Mit dem Ergodensatz von Birkho↵ folgt dann


n
1 1X
lim inf Rn lim inf 1A T k = P (A | AT ) P -f.s.
n n n n k=1

Andererseits gilt mit Am := {Sl 6= 0 für jedes l 2 {1, ..., m}}

n
X m
Rn  m + 1Am T k.
k=1

Da Am & A und |1Am |  1 folgt mit dem Satz von der dominierten Konvergenz für
bedingte Erwartungswerte P (Am | AT ) ! P (A | AT ) f.s. und zusammen mit dem
Ergodensatz folgt dann
m n
1 m 1X
lim sup Rn  lim lim sup + 1A T k = lim 0 + P (Am | AT ) = P (A | AT ).
n n m n n n k=1 m m

Damit folgt die Behauptung.

54
3.3. Zeitreihen
Definition 3.3.1. Eine Zeitreihe ist ein stochastischer Prozess X = {Xt : t 2 T } mit
Indexbereich T = N oder = Z mit reell- oder komplexwertigen Zufallsvariablen Xt .

Bemerkung: Aus technischen Gründen wird häufig T = Z gewählt. Typische Model-


lierung/Zerlegung einer Zeitreihe X in eine deterministische Trendkomponente m, eine
deterministische saisonale Komponente s und einen stochastischen Anteil Z, von dem
angenommen wird, dass er stationär ist:

X t = m t + s t + Zt

Hier ist mt der Trend, st der saisonale Trend und Zt das Rauschen, von dem man annimmt,
dass er stationär verteilt ist (ein Spezialfall wäre das weiße Rauschen).

55
Der ganze folgende Abschnitt ist nicht so wichtig

3.3.1. Schätzung des Trends


Lineares Trendmodell:
k
X
m(t) = ai mi (t), t2Z
i=0

für gegebene reellwertige Funktionen m0 , . . . , mk : Z ! R und Koeffizienten a0 , . . . , ak 2


R, die für gegebene Daten X1 , . . . , Xn durch die Methode der kleinsten Quadrate bestimmt
werden können: !2
Xn Xk
min Xt ai mi (t)
a0 ,...,ak
t=1 i=0

Die mit diesen optimalen Koeffizienten gebildete Trendfunktion werde mit m̂ bezeichnet.
Beispiel: mi (t) = ti , i = 0, . . . , k.

3.3.2. Schätzung der saisonalen Komponente


Ist die Periodenlänge d 2 N bekannt und gilt für den Stichprobenumfang n = md für ein
geeignetes m 2 N, so wird für r = 1, . . . , d
m
1 X
s̃r = Xr+(j 1)d
m j=1

periodisch auf r = d + 1, . . . , n fortgesetzt. Durch

d
1X
ŝr := s̃r s̃j , r = 1, . . . , d
d j=1

Pd
kann erreicht werden, dass für die saisonalen Anteile ŝ1 , . . . , ŝd stets r=1 ŝr = 0. An-
schließend wird ŝr auf r = d + 1, . . . , n periodisch fortgesetzt.

3.3.3. Stationäre Zeitreihen

Definition 3.3.2. Eine Zeitreihe {et : t 2 Z} heißt weißes Rauschen, falls Eet = 0,
var(et ) = 2 2 (0, 1) und die et unkorreliert sind.

Das weiße Rauschen {et : t 2 Z} bildet einen stationären Prozess mit Autokovarianzfunk-
tion ⇢, wobei ⇢(0) = 2 und ⇢(h) = 0 für h 2 Z \ {0}.

Definition 3.3.3. Eine stationäre Zeitreihe {Xt : t 2 Z} heißt ARMA(p, q)-Zeitreihe


mit den Ordnungen p, q 2 N0 und Koeffizienten a1 , . . . , ap und b1 , . . . , bq mit a0 6= 0 und

56
bq 6= 0, falls für ein weißes Rauschen {et : t 2 Z} gilt:
p q
X X
8 Xt + a⌫ X t ⌫ = bµ e t µ + et
t2Z
⌫=1 µ=1

3.3.4. Vorhersage
Vorhersagen sind schwierig, insbesondere wenn sie die Zukunft betre↵en. Karl Valentin
Soll Xt+k auf der Basis von Xt , . . . , X1 vorhergesagt werden, so liefert die bedingte Ver-
teilung PXt+k |Xt ,...,X1 die vollständige Beschreibung dieser Frage. Soll spezieller ein kon-
kreter Wert vorhergesagt b
R werden, so kann dies z.B. durch bedingte Erwartung Xt+k :=
E(Xt+k |Xt , . . . , X1 ) = R x PXt+k |Xt ,...,X1 (dx) geschehen. Da die gemeinsame Verteilung
der Zufallsvariablen X1 , . . . , Xt , Xt+k meist nicht bekannt oder nur schwer zu schätzen
ist, verwendet man in der Praxis häufig Schätzer für Xt+k , die sich als Linearkombination
von Xt , . . . , X1 darstellen lassen.

Satz 3.3.1. Sei X = {Xt : t 2 Z} ein reeller zentrierter stationärer Prozess mit Auto-
kovarianzfunktion ⇢. Der beste lineare Prädiktor Xbt+k von Xt+k (k 2 N), basierend auf
Xt , . . . , X1 , ist gegeben durch
t
X
bt+k :=
X ai Xt+1 i ,
i=1

wobei die Koeffizienten a1 , . . . , at die Gleichungen


t
X
8 ai ⇢(|i j|) = ⇢(j + k 1)
j2{t,...,t}
i=1

erfüllen.

Ist ⇢ bekannt, so ergibt sich a = (a1 . . . , at ) als Lösung des linearen Gleichungssystems
Aa = b, wobei A = (Aij ) mit Aij = ⇢(|i j|) und b = (bj ) mit bj = ⇢(j +k 1). Eine solche
Lösung a existiert immer, ist aber u.a. nicht eindeutig bestimmt. Im Gegensatz dazu ist
aber die Vorhersage X bt+k immer eindeutig. Ist ⇢ unbekannt, so kann stattdessen mit dem
Schätzer ⇢b gearbeitet werden. Die Levinson-Rekursion stellt eine effizientes Verfahren zur
Berechnung des linearen Prädiktors zur Verfügung. Lässt sich eine vorliegende Zeitreihe
in einen Trendanteil, einen saisonalen Anteil und einen stationären Anteil zerlegen, so
kann eine Vorhersage dieser Zeitreihe durch Extrapolation des Trendanteils, saisonalem
Einfluss und vorhergesagtem Wert des stationären Anteils angegeben werden.

57
4. Stochastische Integration

4.1. Martingale in stetiger Zeit


Definition 4.1.1. Sei T ⇢ R. Eine Filtration auf T ist eine wachsende Familie F :=
{Ft | t 2 T } von -Algebren. Ein stochastischer Prozess X = {Xt | t 2 T } heißt adaptiert
zu F, falls
8 Xt ist Ft -messbar
t2T

Definition 4.1.2. Eine -Algebra F heißt vollständig, falls

8 8 B2F
A2F mit P (A)=0 B⇢A

Wir gehen in Zukunft immer davon aus, dass alle betrachteten -Algebren vollständig
sind.

Definition 4.1.3. X sei ein an die Filtration F adaptierter stochastischer Prozess mit
E|Xt | < 1 (für Maßintegrale fallen Endlichkeit für Xt und für |Xt | zusammen) für alle
t 2 T . X ist ein Martingal (oder Submartingal oder Supermartingal) bzgl. F, falls

8 E(Xt |Fs ) = Xs P -f.s.


st
s,t2T

(mit “ ” bzw. “” anstatt “=”). Wird die Filtration nicht explizit erwähnt, ist immer
die kanonische Filtration F = {Ft | t 2 T } mit Ft = ({Xs | s  t}) gemeint, manchmal
ist aber eine feinere Filtration notwendig.

Unter Regularitätsvoraussetzungen an die Pfade, wie z.B. Rechtsstetigkeit, lassen sich


viele Aussagen zu zeitdiskreten (Sub-/Super-) Martingalen auf zeitstetige (Sub-/Super-)
Martingale übertragen.

Satz 4.1.1 (Optional Sampling Theorem). Sei X = (Xt )t 0 ein rechtsstetiges Martingal
und , ⌧ zwei Stoppzeiten mit  ⌧ . Ist ⌧ beschränkt (und damit auch ) oder X
gleichgradig integrierbar, so sind X und X⌧ 2 L1 und

E(X⌧ |F ) = X

58
Satz 4.1.2 (Optional Stopping Theorem). Sei X = (Xt )t 0 ein rechtsstetiges Martin-
gal und ⌧ eine Stoppzeit. Dann ist das gestoppte Martingal X ⌧ := (Xt^⌧ )t 0 wieder ein
Martingal. Ist ⌧ beschränkt oder X gleichgradig integrierbar, so sind X⌧ 2 L1 und

E(X⌧ ) = E(X0 )

Satz 4.1.3. Ist X = (Xt )t 0 ein adaptierter integrierbarer und rechtsstetiger Prozess, so
ist X genau dann ein Martingal, falls E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ .

Satz 4.1.4 (Doob’sche Maximalungleichungen). Sei X = (Xt )t2[0,1) ein (rechts-)stetiges


nicht-negatives Submartingal. Dann gilt:
(i) ✓ ◆
1
8 8 P sup Xt  p t!1
lim E(Xtp )
p 1 >0 t 0

(ii)
8 sup Xt  p0 lim kXtp kLp
p>1 t 0 t!1
Lp
1 1
wobei p0 die zu p konjugierte Zahl ist, d.h. p
+ p0
= 1.

Beweisidee.
(i) Wir betrachten zunächst X auf I 2 N0 . Sei > 0 beliebig aber fest. Wir definieren
die Stoppzeit ⌧ := inf{k 2 I | Xk } ^ n. Mit dem Optional Sampling Theorem
⇤ :=
und Xn sup Xk folgt
kn
1
P (Xn⇤ ) p
E(Xnp ),

wobei n der späteste Zeitpunkt der Menge {k  n} ist.

Jetzt sei D ⇢ [0, 1) eine dichte Teilmenge und Dn ⇢ D endlich mit Dn % D. Mit
der Rechtsstetigkeit (wird benötigt, damit sup messbar) von X folgt durch Limes-
Bildung und mit dem bereits gezeigten

1
P (sup Xt )  lim p
E(Xtp ).
t 0 t!1

Für den Spezialfall p = 1 gilt

1
8 >0 P ( sup |Xt | ) E(|XT |).
t2[0,T ]

Dies ist eine schöne Abschätzung für den Wiener Prozess über endliche Intervalle.

59
(ii) Sei p > 1 und K > 0 und n 2 N. Dann kann zusammen mit (i) durch Abschätzen
der mit K gestutzten Integrale

p
kXn⇤ kLp  kXnp kLp
p 1

gezeigt werden. Dies kann durch Dn % monoton wachsende Folge endlicher Mengen
und Limes-Bildung auf (0, 1) erweitert werden.

Lemma 4.1.1. Sei p 1 und für alle n 0 seien (Xtn )t 0 Martingale in Lp dergestalt,
dass
8 9 et
Xtn ! X in Lp (n ! 1)
t 0 et 2Lp
X

Dann gilt
e t )t
(i) (X 0 ist ein Martingal
(ii) Falls zusätzlich X 1 , X 2 , . . . P -f.s. stetig und p > 1, existiert eine stetige Modifikation
X von X e mit
n p
8 Xt ! Xt in L (n ! 1)
t 0

Definition 4.1.4. Der stochastische Prozesse M ist ein lokales (Sub-/Super-)Martin-


gal (schwächer als Martingal), falls es eine Folge (⌧n )n2N von Stoppzeiten mit ⌧n " 1 P -f.s.
gibt, so dass jeder gestoppte Prozess M ⌧n ein (Sub-/Super-)Martingal ist.

Definition 4.1.5. Eine Folge ⇡ = (⇡ n )n2N heisst zulässige Zerlegungsfolge des Inter-
valles [0, 1), falls ⇡ n = {0 = tn0 < tn1 < tn2 < . . .} mit ⇡ 1 ⇢ ⇡ 2 ⇢ . . ., ferner sup ⇡ n = 1 für
jedes n und |⇡ n | := {min |t0 t| : t, t0 2 ⇡ n } ! 0 (n ! 1), wobei t0 2 ⇡ n der Nachfolger
von t 2 ⇡ n . Durch ⇡Tn := (⇡ n \ [0, T ]) [ {T } wird eine zulässige Zerlegung des Intervalles
[0, T ] definiert.

Satz 4.1.5. Sei M ein stetiges lokales Martingal. Dann existiert ein eindeutig bestimmter
stetiger monoton wachsender adaptierter Prozess (Kompensator) ([M ]t )t 0 mit [M ]0 = 0
, so dass
(Mt2 [M ]t )t 0 ein stetiges lokales Martingal ist,

wobei (Mt2 ) ein lokales Submartingal und [M ]t von beschränkter Totalvariation ist. Dieser
Prozess ([M ]t )t 0 , der sogenannte quadratische Variationsprozess von M , besitzt die
Darstellung X
8 lim (Mt0 Mt )2 = [M ]T P -stochastisch
T 0 n!1
n
t,t0 2⇡T

für jede zulässige Zerlegungsfolge ⇡ = (⇡ n )n2N des Intervalles [0, 1).

60
Beweisidee.
1. Sei M ein stetiges lokales Martingal mit 9C>0 8t 0 |Mt |  C f.s. Dann ist M
ein (eigentliches) stetiges Martingal (nutze dafür lokalisierende Folge von SZ und
bedingte Version vom Satz von der dominierten Konvergenz). Mit
⇡Tn := (⇡ n \ [0, T ]) [ {T } definieren wir
X
UTn := (Mt0 Mt ) 2
n
t2⇡T
X
NTn := 2 Mt (Mt0 Mt ), (Martingaltransformierte von M bzgl. M , ⇡Tn endlich)
n
t2⇡T

Dann ist (UTn )n2N für alle T 0 eine L2 -Cauchy-Folge und damit auch (NTn ).
2. Sei M ein stetiges lokales Martingal und (⌧N )N 2N eine lokalisierende Folge von SZ
und
⌧N0 := inf{t 0 | |Mt | N } ! 1 (N ! 1).

wieder eine SZ (da M stetig).


0
N := ⌧N ^ ⌧N ist ebenfalls wieder eine Stoppzeit und ebenfalls lokalisierend für M ,

d.h.

8N 2N (Mt n )t 0 ein durch N beschränktes stetiges eigentliches Martingal

Mit 1., Lemma 4.1.1 und da n ! 1 gibt es einen stetigen stochastischen Prozess
[M ]T mit
8T 0 UTn ! [M ]T in L2

Außerdem ist M 2 [M ] ein stetiges lokales Martingal.


3. Eindeutigkeit:
Wir nehmen an, es gäbe zwei monoton wachsende adaptierte Prozesse mit A0 = A00
so, dass M 2 A und M 2 A0 lokale Martingale sind. Dann ist auch
(M 2 A0 ) (M 2 A) = A A0 ein lokales Martingal. Da A und A0 monoton
wachsend, sind die Pfade von N := A A0 f.s. von beschränkter Totalvariation auf
jedem beschränkten Intervall in [0, 1) und damit folgt [N ] ⌘ 0 P -f.s. und N 2 [N ]
ist ein stetiges lokales Martingal mit N0 = 0 nach dem bisher gezeigten. Über eine
lokalisierende Folge kann dann Nt = 0 P -f.s. gezeigt werden.

61
Satz 4.1.6. Sei M ein stetiges lokales Martingal mit M0 = 0 und ⌧ eine Stoppzeit mit
E([M ]⌧ ) < 1. Dann ist E(M⌧ ) = 0, M ⌧ ein L2 -beschränktes Martingal und

E(M⌧2 ) = E([M ]⌧ )

4.2. Probleme bei der Defintion eines stochastischen


Integrals
Rb
Wir versuchen, ein stochastisches Integral a Ws dWs im Sinne von Riemann-Stieltjes zu
(n) (n) (n)
definieren. Sei n := {a = t0 < t1 < . . . < tn = b} eine Partition von [a, b] und
(n) (n)
k n k := maxi=1,...n {|ti ti 1 |} der Feinheitsgrad dieser Partition. D.h. wir versuchen
eine Integration bzgl. der Zuwächse, bzw. bzgl. den Pfaden für jedes !, bzw. eine Pfadweise
Integration einzuführen. Da Brown’sche Bewegungen o.B.d.A. stetig sind, besteht die
berechtigte Ho↵nung, dass das funktionieren könnte. Leider stellt sich heraus, dass das
nicht der Fall ist.
Satz 4.2.1. Für sog. quadratische Variation der Brown’schen Bewegung W über dem
Intervall [a, b] gilt
n
X
[W ][a,b] := lim (Wt(n) Wt(n) )2 = b a in L2 (P ),
n!1 i i 1
i=1

falls k n k ! 0 für n ! 1.
(Der Grenzwert existiert nicht im (P )-f.s. Sinne.)
Korollar 4.2.1. Die Totalvariation einer Brown’schen Bewegung W ist auf jedem Inter-
vall [a, b], a < b, f.s. nicht endlich, d.h.
( n
)
X (n) (n)
|W |[a,b] := sup |Wt(n) Wt(n) | | a = t0 < t1 n = b, n 2 N
< . . . t(n) = 1 f.s.
i i 1
i=1

Damit ist klar, dass eine pfadweise Definition eines stochastischen Integrals im Sinne von
Riemann-Stieltjes (ohne weitere Einschränkungen) nicht möglich ist. Alternativ kann eine
Definition unter Verwendung der L2 - oder stochastischen Konvergenz angestrebt werden.
Satz 4.2.2. Es gilt für die Auswertung am linken bzw. rechten Gitterpunkt:
n
X 1
Ln := Wt(n) (Wt(n) Wt(n) ) ! (Wb2 Wa2 (b a)) in L2 (P ),
i=1
i 1 i i 1 2
Xn
1
Rn := Wt(n) (Wt(n) Wt(n) ) ! (Wb2 Wa2 + (b a)) in L2 (P ),
i=1
i i i 1 2

falls k nk ! 0 für n ! 1.

62
Rt
Bemerkung 4.2.1. 1) Wird der Limes von Ln oder Rn zur Definition von 0 Ws ds ver-
wendet, so erhält man als stochastisches Integral Lt := 12 (Wt2 t) bzw. Rt := 12 (Wt2 +t).
Der Prozess R = (Rt )t 0 ist im Gegensatz zu L = (Lt )t 0 jedoch kein Martingal (bzgl.
der vom Integrator W erzeugten Filtration). Soll das zu definierende stochastische Inte-
gral die Martingaleigenschaft besitzen, sollte der Integrand bei den approximierenden
Riemann-Stieltjes-Summen am linken Gitterpunkt ausgewertet werden.
Rt
2) Eine sinnvolle Definition des stochastischen Integrals Xt = 0 W1 dWs , 0  t  1 sollte
den Prozess (W1 Wt )0t1 , liefern. Da dieser Prozess jedoch auch kein Martingal ist,
betrachtet man Integranden, welche zur Filtration des Integrators nicht adaptiert sind,
als nicht zulässig.

4.3. Das Itô-Integral bzgl. der Brown’schen Bewegung


Definition 4.3.1. Sei
n
X
E := {H : ⌦ ⇥ [0, 1) ! R | Ht (!) = hi 1 (!)1(ti 1 ,ti ]
(t)}
i=1

der Vektorraum der einfachen vorhersagbaren stochastischen Prozesse (zufällige


Stufenfunktion mit Sprüngen zu deterministischen Zeitpunkten), wobei n 2 N, 0 = t0 <
t1 < . . . < tn und hi 1 beschränkte Fti 1 -messbare Zufallsvariablen für jedes i = 1, . . . , n,
versehen mit der (Pseudo-)Norm
Z 1 n
X
kHk2E := E Hs2 ds = E(h2i 1 )(ti ti 1 )
0 i=1

E ist eine Klasse von Stoch. Prozessen, die auf Grund ihrer Konstruktion stückweise
konstant und linksseitig stetig sind. Darum sind diese auch pfadweise integrierbar und die
Pseudo Norm ist wohldefiniert.
Definition 4.3.2. Das stochastische Integral
✓Z t ◆
H • W = (H • Wt )t2[0,1] = Hs dWs
0 t2[0,1]

von H 2 E bzgl. der Brown’schen Bewegung W wird definiert durch


n
X
H • Wt := hi 1 (Wti ^t Wti 1 ^t
), t 2 [0, 1]
i=1

Dies ist wieder ein stochastischer Prozess, wobei • stärker bindet, d.h. wir sagen für H •Wt
”H integriert bzgl. W zum Zeitpunkt t”.

63
Satz 4.3.1. (i) Die Abbildung

I(H)1 := I W (H)1 := H • W1 : (E, k · kE ) ! (L2 (P ), k · k2 )

ist eine lineare Isometrie. Hierbei ist I(H)1 als elementares stochastisches Integral
eine ZV.
(ii) Der Prozess H • W ist ein L2 -beschränktes stetiges F-Martingal (ein pfadstetiges
Martingl bzgl. der von W erzeugten Filtration).

Beweisidee.
(i) Mit Hilfe der Teleskopsummen-Darstellung von I(H)tn , welches hier zu betrachten
reicht, gilt
n
X
kI(H)1 k2L2 (P ) = kI(H)tn k2L2 (P ) = E(hi 1 )2 (ti ti 1 ) = kHk2E
i=1

Da die Linearität klar ist, folgt dass I : (E, k · kE ) ! (L2 (P ), k · kL2 (P ) ) eine lineare
Isometrie ist.
(ii) Wir nutzen Satz 4.1.3. Sei ⌧ eine beschränkte Stoppzeit. Mit W ⌧ ist Martingal nach
Satz 4.1.2 folgt mit Bedingen auf Ft 1
n
X n
X
E(I(H)⌧ ) = E(hi 1 (Wt⌧i Wt⌧i 1
)) = 0 = 0 = E(I(H)0 ).
i=1 i=1

D.h. I(H)⌧ ist ein Martingal.


Da I nach (i) eine Isometrie ist, folgt H • W = I(H) ist ein L2 -beschränktes Mar-
tingal. Außerdem ist I(H) ein Pfadstetiger Prozess, da W ein Pfadstetiger Prozess
ist.

Bemerkung (Dippon) Wir wollen E vervollständigen zu dem Raum, der alle vorher-
sagbaren stochastischen Prozesse mit endl. Norm (die noch zu definieren ist) enthält. Auf
diesem Raum wollen wir auch unsere Integralbegri↵e fortsetzen.
Definition 4.3.3. Ein reellwertiger stochastische Prozess X = (Xt )t 0 heißt
(i) produktmessbar, falls X : (⌦ ⇥ R+ ) ! R, (!, t) 7! Xt (!) messbar ist bezüglich
F ⌦ B([0, 1))-B, kurz X 2 L,
(ii) progressiv messbar, falls für jedes t 0 die Abbildung ⌦ ⇥ [0, t] ! R : (!, t) 7!
Xt (!) messbar ist bezüglich Ft ⌦ B([0, t])-B, kurz X 2 ⇧,

64
(iii) vorhersagbar (messbar), falls (!, t) 7! Xt (!) messbar ist bezüglich der vorher-
sagbaren -Algebra

({X | X ist ein linksstetiger adaptierter Prozess}),

kurz X 2 P.
Dies sind mögliche Erweiterungen von E.

Bemerkung (Dippon) Ist Xt ein stochastischer Prozess, so ist Xt für alle t > 0
Ft -B-messbar. Die Produktmessbarkeit verschärft diese Eigenschaft weiter. Weiter gilt:
X vorhersagbar messbar =) X progressiv messbar =) X produktmessbar.
Außerdem gilt: X adaptiert und linksstetig, dann auch X vorhersagbar messbar. Dies
folgt mit Rechtsstetigkeit nicht unbedingt.

Bemerkung 4.3.1. 1) Jedes H 2 E ist vorhersagbar. Damit ist auch H • W (nach dem
Martingaltransformationssatz) wieder ein Martingal. Um auch bei unstetigen Integra-
toren die Martingaleigenschaft des Integral zu sichern, wird die Vorhersagbarkeit des
Integranden benötigt (siehe Vorlesung Stochastische Analysis).
2) Ist H progressiv messbar, so ist es auch produktmessbar und adaptiert. Umgekehrt,
ist H produktmessbar und adaptiert, so ist H nicht notwendigerweise auch progressiv
messbar, es exisitert aber eine progressiv messbare Version von H.

Satz 4.3.2. Ist H adaptiert und rechts- oder linksstetig, so ist H progressiv messbar. Ist
H adaptiert und f.s. rechts- oder linksstetig, so existiert eine Version von H, die progressiv
messbar ist. Insbesondere ist jeder vorhersagbare Prozess progressiv messbar.

Wir betrachten eine Folge linearer Unterräumen der auf ⌦ ⇥ [0, 1) definierten Klasse
stochastischer Prozesse:

E ⇢ ⇧2 := {H progressiv messbar und kHk < 1}


⇢ {H produktmessbar, adaptiert und kHk < 1} =: L2
R R1
wobei kHk2 := kHk2L2 (P ⌦ ) := ⌦⇥[0,1) Ht2 (!) d(P ⌦ )(!, t) = E 0 Ht2 dt (falls existent).
(Dies ist eine L2 -Beschränktheitsbedingung.)
R1
Satz 4.3.3. Ist H progressiv messbar und kHk2 = E 0 Ht2 dt < 1, so ist H 2 ⇧2 ⇢ E,
wobei E der Abschluss von E in L2 bzgl. der Norm k · k2L2 (P ⌦ ) .
(D.h. E liegt dicht in ⇧2 . Eventuell so nicht ganz richtig.)

65
✓Z 1 ◆
Beweisidee. Sei H progressiv messbar und E Ht2 dt < 1. Es genügt zu zeigen,
0
dass für jedes T > 0 eine Folge (H n )n2N in E existiert, mit
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0

Denn für T groß genug kann H n so gewählt werden, dass für n groß genug

(a+b)2 2a2 +2b2


kH H n k2L2 (P ⌦ )  2kH H1{·T } k2L2 (P ⌦ ) + 2kH1{·T } H n k2L2 (P ⌦ ) <"

gilt.
n 1
2P
1. Sei H stetig und beschränkt. Setze Htn := Hi2 nT 1t2(i2 n T,(i+1)2 n T ] 2 E. Dann
i=0
folgt mit dem Satz von der dominierten Konvergenz für P ⌦ :
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0

Z t^T
2. Sei H progressiv messbar und beschränkt. Setze Htn := n Hs ds. Dann ist
1
(t n
)_0
H n stetig, adaptiert und beschränkt und nach dem Hauptsatz der Di↵erential- und
Integralrechnung von Lebesgue (H ist nicht unbedingt stetig) folgt
Htn (!) ! Ht (!) für -f.a. t 2 [0, T ]. Durch zweimaliges Anwenden des Satzes der
dominierten Konvergenz (oder Fubini) ergibt sich
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0

✓Z T ◆
3. Sei H progressiv messbar und E Hs2 ds < 1. Nach Schritt 2 genügt es zu
0
zeigen, dass es eine Folge von beschränkten progressiv messbaren Prozessen (H n )
gibt, so dass ✓Z T ◆
n 2
E (Hs Hs ) ds ! 0.
0

Wählen wir Htn := Ht 1{|Ht | n} , dann ist (H n ) progressiv messbar und beschränkt
und erfüllt das Gewünschte.

66
Die grundlegende Idee ist, H mit einer Folge einfacher Prozesse zu approximieren. Da-
mit ist dies Folge einfacher Prozesse eine Cauchy-Folge und diese überträgt sich dank
der linearen Isometrie auf die Folge der elementaren stochastischen Integrale. Da L2 (P )
vollständig ist, konvergiert die Folge der elementaren stochastischen Integrale und wir
haben einen Grenzwert.
D.h. wir verwenden das Prinzip Fortsetzung durch Stetigkeit.

Definition 4.3.4. Das Itô-Integral von H 2 ⇧2 bezüglich W ,


Z 1
H • W1 := Hs dWs := I(H)1 ,
0

ist definiert durch die stetige Fortsetzung der Abbildung I1 : E ! L2 (P ) auf den Ab-
schluss E von E. Konkret: Ist (H n ) eine Folge in E mit kH n HkL2 (P ⌦ ) ! 0, dann wird
I(H)1 (hier ist nicht lim gemeint!) durch
t!1

I(H)1 := lim I(H n )1 in L2 (P )


n!1

definiert. I(H)1 ist eine ZV, die einen Abschluss darstellt bzgl. des (uns (noch) nicht
bekannten) Itô Prozesses.

Sei H ein stochastischer Prozess. Dann ist der zum zufälligen Zeitpunkt ⌧ gestutzte
Prozess H (⌧ ) definiert durch
(⌧ )
Ht := Ht · 1{t⌧ }
Zur Erinnerung: Der zum zufälligen Zeitpunkt ⌧ gestoppte Prozess H ⌧ wurde definiert
durch
Ht⌧ := Ht^⌧

Satz 4.3.4. (i) Die Abbildung I1 : ⇧2 ! L2 (P ) ist linear und es gilt die Itô-Isometrie
Z 1
E I(H)21 =E Hs2 ds
0

Kurz: kI(H)1 kL2 (P ) = kHkL2 (P ⌦ )

(ii) Für jedes H 2 ⇧2 wird durch


Z 1
e
I(H) (t)
t := I(H )1 = Hs 1{st} dWs
0

ein L2 -beschränktes F-Martingal definiert, das eine stetige Modifikation I(H) besitzt.
e
Dies ist wichtig, da I(H) t im Allgemeinen hochgradig unstetig sein kann.

e
I(H) t bzw. I(H)t werden Ito-Prozess genannt. Nach (ii) können wir o.B.d.A. annehmen,

67
dass der Ito-Prozess pfadstetig ist. Nach (i) ist das Ito-Integral der Abschluss des Ito-
Prozesses.

Beweisidee.
(i) Nach Definition 4.3.4 (und da für H 2 E: kHkE = kHkL2 (P ⌦ ) ) gilt

Ito-Isometrie für
E((I(H)1 )2 ) = lim E((I(H n )1 )2 ) = k lim H n k2L2 (P ⌦ )
n!1 el. stoch. Prozesse n!1
✓Z ◆
= kHk2L2 (P ⌦ ) = E
2
Ht dt

(ii) Sei (H n ) eine Folge in E mit kH n HkL2 (P ⌦ ) ! 0. Dann gilt mit Satz 4.3.1:
e n )1 ist Abschluss des Martingals (I(H
I(H e n )t )t2[0,1) . (⇤)
Weiter gilt
✓Z 1 ◆
n (t) (t) 2
(⇤⇤) k(H ) H k E (Hsn 2
Hs ) ds = kH n Hk2 ! 0
0

Zusammen ergibt sich

(⇤⇤) (⇤)
e
I(H) (t) n (t) e n
t = I(H )1 = lim I((H ) )1 = lim E(I(H )1 | Ft ) = E(I(H)1 | Ft ).
n!1 n!1

Die letzte Gleichung gilt, da kE(Xn | F) E(X | F)k2L2  E(|Xn X|2 ) ! 0, wenn
kXn Xk2L2 ! 0.
e
Also ist I(H) ein L2 -beschränktes Martingal mit

8t 0
e
I(H n )t ! I(H) t in L2 (P ).

e
Noch zu zeigen: I(H) besitzt pfadstetige Modifikation I(H) (I(H) ist der uns un-
bekannte Ito-Prozess, dessen Abschluss I(H)1 ist), d.h. dass für alle t 2 [0, 1) gilt:
e
I(H) t = I(H)t P -f.s.

Mit der Doob’schen Maximalungleichungen für p = 2 und da I(H n )t stetig in t und


F-Martingal ist, folgt

1
P ( sup |I(H n )t I(H m )t | > ")  2
E(|I(H n H m )1 |2 )
t2[0,1) "
Ito-Isometrie 1
= kH n H m k2L2 (P ⌦ ) !0
"2

für m, n ! 1, da (H n ) CF in E.
Mit einer geeigneten Teilfolge und Lemma von Borel Cantelli lässt sich zeigen, dass

68
für P -f.a. ! ein kn (!) existiert mit

8k kn (!) sup |I(H nk+1 )t (!) I(H nk )t (!)|  2 k


t 0

D.h. I(H nk )t (!) ist gleichmäßig konvergent gegen einen pfadstetigen Prozess I(H)
e
für P -f.s. !. Da aber auch für alle t 0 gilt, dass I(H nk )t ! I(H) 2
t in L (P ), muss

gelten
e
8t 0 I(H)t = I(H) t P -f.s.
e
Die Ausnahmemenge, für die I(H) t nicht stetig ist, hängt stark von t ab.

Definition 4.3.5. Sei I(H) die stetige Modifikation des Martingals (I(H (t) )1 )t 0 im
letzten Satz. Das Itô-Integral von s bis t von H 2 ⇧2 bezüglich W ist definiert durch
Z t
Hr dWr := I(H)t I(H)s für 0  s  t  1
s
R⌧
Ist ⌧ eine Stoppzeit, wird 0
Hs dWs durch
✓Z ⌧ ◆
Hs dWs (!) := I(H)⌧ (!) (!)
0

für jedes ! erklärt.

Lemma 4.3.1. Sei ⌧ eine Stoppzeit und H 2 ⇧2 .


(i) Es gilt Z Z Z
⌧ 1 1
Hs dWs = Hs(⌧ ) dWs := Hs · 1{s⌧ } dWs f.s.
0 0 0

(ii) Speziell gilt für jedes t 0 auf [⌧ t]


Z t Z t
Hs dWs = Hs(⌧ ) dWs f.s.
0 0

Beweisidee. Sei ⌧ eine Stoppzeit, H 2 E


(i) Zuerst betrachten wir nur Werte in { 2kn | k 2 N0 } [ {0} für ⌧ , n 2 N beliebig aber
fest. Dann ist für H 2 E

Ht⌧ = Ht 1{t⌧ } = Ht 1[0,tn ] 1{t⌧ } 2 E

69
und damit folgt die Behauptung direkt aus der Definition des Ito-Integrals für Pro-
zesse aus E.

Sei nun H 2 E und H k 2 E mit kH k HkL2 (P ⌦ ) ! 0. Damit gilt I(H k )1 ! I(H)1


k,(⌧ )
für k ! 1 in L2 (P ). Dasselbe gilt für den gestutzen Prozess Ht := Htk 1{t⌧ } ,
d.h. I(H k,(⌧ ) )1 ! I(H (⌧ ) )1 in L2 (P ).
Dann gibt es aber eine Teilfolge (km ), sodass die Konvergenz sogar P -f.s. gilt (folgt
mit dem Cantorschen Diagonalverfahren und da Q \ [0, 1) dicht in [0, 1) liegt und
die Prozesse stetig sind). Also

8t 0 I(H km )t ! I(H)t P -f.s., m!1


8t 0 I(H km ,(⌧ ) )t ! I(H (⌧ ) )t P -f.s., m!1

Damit folgt dann


Z ⌧ Z 1
f.s. km km ,(⌧ ) f.s.
H dWs = lim I(H )⌧ = lim I(H )1 = Hs(⌧ ) dWs
0 m!1 m!1 0

Sei jetzt ⌧ eine beliebige Stoppzeit und ⌧n := 2 n d2n ⌧ e, n 2 N. Dann gilt ⌧n ⌧ und
⌧n nimmt nur werte in unserem Gitter an. Weiter ist ⌧n immernoch eine Stoppzeit
und ⌧n & ⌧ auf ⌦. Da I(H)t stetig in t ist, folgt für alle !
Z ⌧
Hs dWs = lim I(H)⌧n = lim I(H (⌧n ) )1 .
0 n!1 n!1

Da kH (⌧n ) H (⌧ ) k ! 0, folgt I(H (⌧n ) )1 ! I(H (⌧ ) )1 in L2 (P ). Dann gibt es wieder


eine TF, sodass sogar P -f.s. Konvergenz gilt. Damit kann analog zu oben gefolgert
werden
Z ⌧ Z 1
(⌧nm ) (⌧ )
Hs dWs = lim I(H )1 = I(H )1 = H (⌧ ) dWs
0 m!1 0

(ii) Folgt mit (i).


Jetzt wollen wir uns von der strengen Integrierbarkeitsvoraussetzung in der Definition von
⇧2 durch die Idee der Lokalisierung von Prozessen lösen, denn ⇧2 ist für die Integration
zu klein, da z.B. allein der Wienerprozess nicht in ⇧2 liegt:

70
Definition 4.3.6. Sei ⇧2loc der Raum der progressiv messbaren stochastischen Prozesse
H mit Z T
8 Hs2 ds < 1 f.s.
T >0 0

Lemma 4.3.2. Für jedes H 2 ⇧2loc existiert eine Folge (⌧n )n2N von Stoppzeiten mit ⌧n " 1
R⌧
fast sicher und E 0 n Hs2 ds < 1, also mit H (⌧n ) 2 ⇧2 für jedes n 2 N.

Z t
Beweisidee. Sei H 2 ⇧2loc und ⌧n := inf{t 0 | Hs2 ds n}. Dann folgt nach
0
Definition von ⇧2loc , dass ⌧n % ((⌧n ) kann nicht beschränkt sein), H (⌧n ) 2 ⇧2 und
✓Z 1 ◆ ✓Z ⌧n ◆
(⌧n ) 2
kH k =E Hs2 1{s⌧n } ds =E Hs2 ds .
0 0

Definition 4.3.7. Sei H 2 ⇧2loc und ⌧n " 1 wie in Lemma 4.3.2. Für jedes t 0 wird
das Itô-Integral von H definiert als der fast sichere Grenzwert
Z t Z t
(4.1) Hs dWs := lim Hs(⌧n ) dWs
0 n!1 0

Satz 4.3.5. Sei H 2 ⇧2loc und ⌧n wie in Lemma 4.3.2.


(i) Der Grenzwert in (4.1) ist wohldefiniert, stetig in t und (f.s.) unabhängig von der
Wahl der Folge (⌧n )n2N .
R⌧ 2 ⇣R ⌘
⌧ ^t
(ii) Ist ⌧ eine Stoppzeit mit E 0 Hs ds < 1, so ist das gestoppte Itô-Integral 0 Hs dWs
t 0
ein L2 -beschränktes stetiges Martingal.
RT ⇣R ⌘
t
(iii) Ist speziell E 0 Hs2 ds < 1 für jedes T > 0, so ist 0 Hs dWs ein quadratinte-
t 0
grierbares stetiges Martingal.

Beweisidee.
(i) Nach Lemma 4.3.1 (ii) gilt auf [⌧n t]
Z t Z t
Hs dWs = Hs(⌧n ) dWs
0 0

mit kH (⌧n ) 1[0,t] H1[0,t] kL2 (P ⌦ ) ! 0. Also existiert


Z t
lim Hs(⌧n ) dWs
n!1 0

71
stetig integrierbar (Satz 4.3.4 (ii)) und ist unabhängig von der Wahl (⌧n ).
(ii) Folgt mit Satz 4.3.4
(iii) Für die Wahl ⌧n := n folgt die Behauptung aus (ii).

RT
Satz 4.3.6. Sei H 2 {H 2 ⇧ | E 0 Hs2 ds < 1 für jedes T < 1} (dieser Raum liegt
zwischen ⇧2 und ⇧2loc ). Dann wird durch
Z t
Mt := Hs dWs , t 0,
0

ein quadratintegrierbares stetiges Martingal (Mt )t 0 und durch


Z t
Nt := Mt2 Hs2 ds t 0, ds
0

ein stetiges Martingal (Nt )t 0 definiert.

Beweisidee.
1. Teil folgt direkt aus dem Satz 4.3.5 (iii).
Z t Z t
2
2. Da Mt und 2
Hs ds stetig sind, ist auch Nt := Mt Hs2 ds stetig in t. (Nt )t 0 ist
0 0
o↵ensichtlich adaptiert an F = (Ft )t 0 . Da für eine beliebige Stoppzeit ⌧ mit Hilfe
der Ito-Isometrie gezeigt werden kann, dass E(N⌧ ) = 0, folgt nach dem Optional
Sampling Theorem, dass (Nt )t 0 ein Martingal ist.

Rt
Korollar 4.3.1. Ist H 2 ⇧2loc , so ist das Itô-Integral Mt := 0 Hs dWs , t 0, ein stetiges
Rt
lokales Martingal mit quadratischem Variationsprozess [M ]t = 0 Hs2 ds, t 0.

Beweisidee. Da H 2 ⇧2loc existiert eine Folge von Stoppzeiten ⌧n mit ⌧n % 1 f.s. und mit
Lemma 4.3.2 gilt
✓Z ⌧n ◆
8n2N E Hs2 ds < 1 und H (⌧n ) 2 ⇧2 .
0

Dann ist (Mt⌧n )t 0 für n 2 N ein stetiges quadratintegrierbares Martingal nach Satz 4.3.6.
Aufgrund der Eindeutigkeitsaussage in Satz 4.1.5 folgt
Z t
8t 0 [Mt ] = Hs2 , ds.
0

72

4.4. Eine pfadweise Definition des Itô-Integrals und die


Itô-Formel
Satz 4.4.1 (Pfadweise Itô-Formel). Sei X : [0, 1) ! R eine stetige Funktion mit stetiger
quadratischer Variation [X] entlang einer zulässigen Zerlegung ⇡ = (⇡ n )n2N (d.h. wird
nicht für jede Zerlegung verlangt) und F : R ! R eine C 2 -Funktion (Preis für ”zappeli-
gere” (nicht von beschränkter Totalvariation auf kompakten Mengen) Integranten). Dann
gilt Z t Z
0 1 t 00
8 F (Xt ) F (X0 ) = F (Xs ) dXs + F (Xs ) d[X]s
t 0 0 2 0
wobei der Grenzwert
Z t X
F 0 (Xs ) dXs := lim F 0 (Xtni 1 )(Xtni Xtni 1 )
0 n!1
tn
i
n n
1 ,ti 2⇡t

Rt
Das Integral 0 F 0 (Xs ) dXs heißt (pfadweise definiertes) Itô-Integral (zur Partitionen-
folge ⇡). Das hier definierte Ito-Integral stimmt für X = Ws mit der in 4.3 definierten
L2 -Konstruktion des Ito-Integrals überein.

Z
1 t 00
Der Summand F (Xs ) d[X]s ist die sogenannte Ito-Korrektur und tritt auf, falls X
2 0
nicht von endlicher Totalvariation ist (denn sonst ist [X] ⌘ 0 und dann genügt auch
1
Z 2 C ).
F
t
F 0 (Xs ) dXs ist weniger allgemein als das Integral aus 4.3, da F stetig von X abhängt.
0
Trotzdem erbt es viele Eigenschaften der Riemann-Stieltjes-Summe. Wählt man in der
Summe einen anderen Stützpunkt als Xti 1 , so erhält man ein anderes Integral. Außer-
dem erhält man auch für verschiedene Partitionen unterschiedliche Integrale, außer wenn
der Integrant ein (lokales) Martingal ist. Dann ist das Integral unabhängig von der Par-
tition.

Der Satz ist eine Erweiterung des Satzes der Di↵erential- und Integralrechnung.

Beweisidee. Wir nutzen die Taylor-Formel

1
F (Xt0 ) F (Xt ) = F 0 (Xt )(Xt0 Xt ) + F 00 (Xt )(Xt0 Xt )2 + Rtn
2

73
mit einem Restterm Rtn = (F 0 (⇠) F 0 (Xt )) 12 (Xt0 Xt )2 , wobei ⇠ 2 (Xt , Xt0 ) bzw
2 (Xt0 , Xt ).
F 00 und X sind gleichmäßig stetig auf kompakten Mengen, daher erhalten wir für
P
F (XT ) F (X0 ) = (F (Xt0 ) F (Xt )) die folgenden Abschätzungen
n
t2⇡T

X n!1
|Rtn | ! "[X]T ! 0, " beliebig
n
t2⇡T
X 1 Z T
1
F 00 (Xt )(Xt0 Xt ) 2
! F 00 (Xt ) d[X]t ,
t,t0 2⇡ n
2 2 0
T

interpretiere Summe als Lebesgue-Stieltjes-Summe,


da t 7! [X]t monoton wachsend und stetig und damit maßerzeugende Funktion.

Insgesamt gilt also

X Z T
0 1
lim F (Xt )(Xt0 Xt ) = F (XT ) F (X0 ) F 0 (Xt ) d[X]t ,
n!1
n
t,t0 2⇡T
2 0

d.h. der Grenzwert auf der linken Seite existiert. ⇤

Bemerkung 4.4.1. 1) Ist X von endlicher Totalvariation, verschwindet der Korrek-


R
1 t 00
turterm 2 0 F (Xs ) d[X]s (da [X] ⌘ 0). Dies liefert den klassischen Hauptsatz der
Di↵erential- und Integralrechnung.
2) Kurzform der Itô-Formel:

1
dF (Xt ) = F 0 (Xt ) dXt + F 00 (Xt ) d[X]t
2

3) Man beachte, dass in den Summen, deren Grenzwerte das Itô-Integral liefern, der
Integrand F 0 (Xs ) am linken Intervallende von [ti 1 , ti ] ausgewertet wird.
4) Sei X jetzt allgemeiner ein stochastischer Prozess, dessen Pfade die eines stetigen
0
Martingals sind. Nach Satz 4.1.5 existiert eine Teilfolge (⇡ n ) der zulässigen Folge
(⇡ n ) von Partitionen, die zur Definition des quadratischen Variationsprozesse von
0
[X] von X führen. Diese Teilfolge (⇡ n ) von Partitionen kann in Satz 4.4.1 zur
Definition des Itô-Integrals verwendet werden. Der Grenzwert ist bis auf eine P -
Nullmenge eindeutig. Ist das Martingal X ein Wiener-Prozess, so kann sogar jede
zulässige Folge von Partitionen zur Definition des Itô-Integrals verwendet werden.
5) Die hier gewählte pfadweise Definition des Itô-Integrals geht auf Hans Föllmer
R1
(1981) zurück. Eine (nicht-pfadweise) Definition des Itô-Integrals 0 Ys dWs bezüglich

74
allgemeineren Integranden der Form Ys 2 ⇧2loc anstelle von F 0 (Ws ) (auch 2 ⇧2loc )
wurde im vorangegangenen Abschnitt 4.3 vorgestellt. Die pfadweise und nicht-
Rt
pfadweise definierten Integrale 0 F 0 (Ws ) dWs stimmen P -f.s. überein.

Beispiel 4.4.1. • F (x) = xn . Mit Itô-Formel


Z t Z t
n(n 1)
Xtn X0n =n Xsn 1 dXs + Xsn 2
d[X]s
0 2 0

kurz:
n(n 1)
dXtn = nXtn 1
dXt + Xtn 2
d[X]t
2
Ist X speziell der Pfad einer Brownschen Bewegung W mit W0 = 0, so gilt
Z t Z t
Wt2 =2 Ws dWs + d[W ]s
0 0
Z t
=2 Ws dWs + t
0

Also Z t
1 t
Ws dWs = Wt2
0 2 2
• F (x) = ex . Mit Itô-Formel
Z t Z t
Xt X0 Xs 1
e e = e dXs + eXs d[Xs ]s
0 2 0

oder kurz
1
deXt = eXt dXt + eXt d[X]t
2
Speziell für X = W folgt
Z Z t
Wt 1 t Ws Ws
e =1+ e dWs + e d[W ]s
0 2 0
Z t Z
Ws 1 t Ws
=1+ e dWs + e ds
0 2 0

Also Z t Z t
Ws Wt 1
e dWs = e 1 eWs ds
0 2 0

Behauptung 4.4.1. Sei F : R ! R eine C 1 - Funktion und X wie in Satz 4.4.1. Dann
bestitzt die Funktion t 7! F (Xt ) die quadratische Variation
Z t
2
[F (X)]t = (F 0 (Xs )) d[X]s
0

75
Beweisidee. Sei (⇡ n ) eine zulässige Folge von Partitionen. Dann gilt, da F 0 und X
gleichmäßig stetig auf kompakten Mengen:
X X
(F (Xt0 ) F (Xt ))2 = (F 0 (Xet )(Xt0 Xt ))2
n
t,t0 2⇡T n
t,t0 2⇡T
X
= (F 0 (Xt0 )(Xt0 Xt ))2
n
t,t0 2⇡T
X
+ (F 0 (Xt )2 F (Xet )2 )(Xt0 Xt ) 2
n
t,t0 2⇡T
| {z }
!0 wie im Beweis von Satz 4.4.1
Z T
! F 0 (Xt ) d[Xt ]
0

Korollar 4.4.1. Für jedes f 2 C 1 (R) ist das Itô-Integral


Z t
It := f (Xs ) dXs
0

wohldefiniert und besitzt die quadratische Variation


Z t
[I]t = f 2 (Xs ) d[X]s
0

Z x
Beweisidee. Definiere F (x) := f (y) dy, d.h. F 2 C 2 . Nach Satz 4.4.1 existiert also
0

Z t
It := f (Xs ) dXs .
0

Mit der Ito-Formel aus Satz 4.4.1 folgt


Z t Z t
1
F (Xt ) F (X0 ) = f (Xs ) dXs + f 0 (Xs ) d[Xs ]
2
|0 {z } | 0
{z }
It =:At , endliche Totalvariation auf kmpkt. Mengen

D.h. [X + A]t = [X]t und damit Z t


Behauptung 4.4.1
[F (X)]t = [I]t = f 2 (Xs ) d[X]s . ⇤
0

76
Beispiel 4.4.2. Für X = W gilt
Z t
Wt2 = 2Ws dWs + t
0

Rt
Mit It := 2Ws dWs folgt
0 Z t
2
[W ]t = [I]t = 4Ws2 ds
0

D.h. während die quadratische Variation von (Ws ) nicht vom Zufall abhängt, hängt die
quadratische Variation von (Ws2 ) sehr wohl vom Zufall ab.

Bisher haben wir nur analytische Eigenschaften des Integrators X verwendet.


Sei M ein Martingal mit stetigen Pfaden und stetiger quadratischer Variation und f eine
C 1 -Funktion.

Satz 4.4.2. Sei M ein lokales Martingal mit stetigen Pfaden und stetiger quadratischer
Variation [M ], ferner f 2 C 1 (R). Dann gilt
0 1
Zt
@It := f (Ms ) dMs A ist ein lokales Martingal
0 t 0

n 0 n
Beweisidee. Wähle
P eine TF (⇡2 ) einer zulässigen Zerlegungsfolge (⇡ ), sodass
[Mt ] = lim
0
(Mt0 Mt ) im Sinne der f.s. Konvergenz existiert (Zerlegungsfolge
n !1 n 0
t,t0 2⇡T
Z t
muss geeignet sein). Damit ist die pfadweise Definition von f (Ms ) dMs gesichert.
0
Der Nachweis, dass (It )t 0 ein lokales Martingal ist, verwendet die Beweisideen zu Satz
4.1.5. ⇤

77
Definition 4.4.1. Sei (⌧n ) eine Folge von Partitionen des Intervalls [0, T ] mit |⌧n | ! 0.
X und Y seien stetige Funktionen mit stetiger quadratischer Variation entlang der Folge
(⌧n ). Existieren die Grenzwerte — und zwar unabhängig von der speziellen Wahl von (⌧n )
— X
8 [X, Y ]t := lim (Xti Xti 1 )(Yti Yti 1 ),
t 0 n!1
ti 2⌧n ,ti t

so heißt [X, Y ] := ([X, Y ]t )t 0 Kovariation von X und Y .

Satz 4.4.3. [X, Y ]t existiert genau dann, wenn [X + Y ]t existiert. In diesem Fall gilt die
Polarisationsgleichung

1
[X, Y ]t = ([X + Y ]t [X]t [Y ]t )
2
Bemerkung 4.4.2. 1) X stetige Funktion mit stetiger Variation [X], A stetige Funk-
tion mit endlicher Totalvariation. Dann gilt

[X + A]t = [X]t

und damit
[X, A]t = 0

2) Für zwei unabhängige Brownsche Bewegungen W (1) und W (2) gilt

8 [W (1) , W (2) ]t = 0
t 0

3) X stetige Funktion mit stetiger quadratischer Variation, f, g 2 C 1 (R),

Zt Zt
Yt := f (Xs ) dXs , Zt := g(Xs ) dXs
0 0

Dann gilt
Zt
[Y, Z]t = f (Xs )g(Xs ) d[X]s
0

Dies folgt aus der Polarisationsgleichung und

Zt
[Y + Z]t = (f + g)2 (Xs ) d[X]s
0
Zt
= [Y ]t + [Z]t + 2 f (Xs )g(Xs ) d[X]s
0

78
Satz 4.4.4 (d-dimensionale Itô-Formel). Sei X = (X 1 , . . . , X d ) : [0, T ] ! Rd stetig mit
stetigen Kovariationen
8
<[X k ] , falls k = l
t
[X k , X l ]t =
: 1 [X k + X l ]t [X k ]t [X l ]t , falls k 6= l
2

Ferner sei F 2 C 2 (Rd , R). Dann gilt

F (Xt ) F (X0 )
Xd Zt d Zt
@ i 1X @2
= F (Xs ) dXs + F (Xs ) d[X i , X j ]s
i=1
@xi 2 i,j=1 @xi @xj
0 0

In Kurzform:

d
X d
1X
dF (Xt ) = Fxi (Xt ) dXti + Fxi ,xj (Xt ) d[X i , X j ]t
i=1
2 i,j=1

Beispiel 4.4.3. Sei


W = (W 1 , . . . , W d )

eine d-dimensionale Brownsche Bewegung. Also


8
<t, falls k = l
k l
[W , W ]t =
:0, falls k 6= l

Mit obiger Itô-Formel

d Z
X
t d Zt
1X
F (Wt ) F (W0 ) = Fxi (Ws ) dWsi + Fxi ,xi (Ws ) ds
i=1 0
2 i=1
0

Korollar 4.4.2 (Itôsche Produktformel). Seien X und Y stetige Funktionen mit stetiger
quadratischer (Ko-)Variation [X], [Y ] bzw. [X, Y ]. Dann gilt

Zt Zt
X t Yt = X 0 Y0 + Xs dYs + Ys dXs + [X, Y ]t
0 0

Kurzschreibweise:
d(XY )t = Xt dYt + Yt dXt + d[X, Y ]t

Korollar 4.4.3 (Itô-Formel für zeitabhängige Funktionen). Sei X eine stetige Funktion

79
mit stetiger quadratischer Variation [X] und F : (t, x) 7! F (t, x) mit F 2 C 1,2 . Dann gilt

F (t, Xt )
Zt Zt Zt
1
= F (0, X0 ) + Ft (s, Xs ) ds + Fx (s, Xs ) dXs + Fxx (s, Xs ) d[X]s
2
0 0 0

Kurzschreibweise:
1
dFt = Ft dt + Fx dXt + Fxx d[X]t
2
Beispiel 4.4.4. W Brownsche Bewegung, S0 > 0 Startwert, µ 2 R, > 0 Konstanten
Der durch ✓ ✓ ◆ ◆
1 2
St = S0 exp Wt + µ t ,t 0
2
definierte stochastische Prozess S heißt geometrische Brownsche Bewegung.
Herleitung einer Itô-Integralgleichung für S:

Xt = W
✓ t ◆
1 2
Yt = µ t
2

2
Klar: [X]t = t und [Y ]t = [X, Y ]t = 0
Für F (x, y) := S0 exp(x + y) gilt Fx = Fy = Fxx = F
Wegen St = F (Xt , Yt ) folgt

Zt Zt Zt
1
S t = S0 + F (Xs , Ys ) dXs + F (Xs , Ys ) dYs + F (Xs , Ys ) d[X]s
2
0 0 0
Zt Zt ✓ ◆
1 2
= S0 + F (Xs , Ys ) dWs + F (Xs , Ys ) µ ds
2
0 0
Zt
1 2
+ F (Xs , Ys ) ds
2
0
Zt Zt
= S0 + Ss dWs + µSs ds
0 0

In Kurzform:
dSt = µSt dt + St dWt

80
Falls µ = 0, ist
Zt
St = S0 + Ss dWs
0

nach Satz 4.4.2 ein lokales Martingal.


Wegen

Zt Zt Zt
2
E[S]t = E Ss2 d[W ]s = 2
E Ss2 ds = 2
ESs2 ds < 1
0 0 0

für alle t 0, ist S nach Behauptung 4.1.6 sogar ein Martingal.

81
A. Hilfsmittel

A.1. Begri↵e und Sätze der Maß- und Integrationstheorie


Sei (⌦, A, µ) ein Maßraum.
Satz A.1.1 (Satz von der monotonen Konvergenz (B. Levi)). Für erweitert reellwertige
R
messbare Funktionen fn mit fn 0 (n 2 N), fn " f (n ! 1) existiert lim fn dµ und
n
es gilt Z Z
lim fn dµ = lim fn dµ
n n

Satz A.1.2 (Lemma von Fatou). Für jede Folge (fn ) von erweitert reellwertigen messba-
ren Funktionen mit fn 0 µ-f.ü. gilt
Z Z
lim inf fn dµ  lim inf fn dµ

Satz A.1.3 (Satz von der dominierten Konvergenz (Lebesgue)). Für erweitert-reellwertige
messbare Funktionen fn (n 2 N), f und g mit fn ! f µ-f.ü. (n ! 1), |fn |  g µ-f.ü. für
R
alle n und g dµ < 1 existiert limn!1 fn dµ und es gilt
Z Z
lim fn dµ = f dµ
n!1

Definition A.1.1. Das Maß µ heißt -endlich, wenn es ein Folge von Mengen An 2 F
(n 2 N) gibt mit An " ⌦ und µ(An ) < 1.
Ein Maß ⌫ auf F heißt absolut stetig bezüglich µ, kurz ⌫ ⌧ µ falls

8 µ(A) = 0 ) ⌫(A) = 0.
A2F

Satz A.1.4 (Satz von Radon-Nikodym). Messraum (⌦, F), Maße µ und ⌫ auf F, µ ist
-endlich und ⌫ absolut stetig bezüglich µ. Dann existiert eine Funktion f : (⌦, A) !
(R+ , B+ ) mit Z
8 ⌫(A) = f dµ
A2A A

f ist eindeutig bis auf Äquivalenz “=µ-f.ü.”.


d⌫
f ist die sog. Radon-Nikodym-Ableitung von ⌫ nach µ und wird häufig kurz durch dµ
angegeben.

82
Satz A.1.5 ("- -Kriterium für absolute Stetigkeit). Seien µ und ⌫ zwei Maße auf dem
Messraum (⌦, F), µ -endlich und ⌫ endlich. Dann sind äquivalent:
(i) ⌫ ⌧ µ
(ii) 8 9 8 µ(A) < ) ⌫(A) < "
">0 >0 A2F

Definition A.1.2. Eine Funktion F : [a, b] ! R heißt absolut stetig, falls


n
X n
X
8 9 8 ( k ↵k ) < ) |F ( k ) F (↵k )| < "
">0 >0 a↵1 < 1 ↵2 < 2 ...↵n < n b
k=1 k=1

Satz A.1.6 (Hauptsatz der Di↵erential- und Integralrechnung für das Lebesgue-Integral).
(Quelle: Elstrodt)
a) Ist f : [a, b] ! R Lebesgue-integrierbar, so ist
Z x
F (x) := f (t) dt (a  x  b)
a

absolut stetig, und es gilt F 0 = f -f.ü.


a) Ist F : [a, b] ! R absolut stetig und setzt man F 0 (x) := 0 für alle x 2 [a, b], in denen
F nicht di↵erenzierbar ist, so ist F 0 Lebesgue-integrierbar über [a, b], und es gilt
Z x
F (x) F (a) = F 0 (t) dt (a  x  b)
a

A.2. Hilfsmittel aus der Wahrscheinlichkeitstheorie


Satz A.2.1 (1. Lemma von Borel und Cantelli)). W-Raum (⌦, A, P ); An 2 A (n 2 N) .
Mit
1 1
lim An := \ [ Ak = {! 2 ⌦ | existieren unendlich viele n 2 N mit ! 2 An }
n=1 k=n
= “Ereignis, dass unendlich viele An eintreten”

gilt dann:
1
X
P (An ) < 1 =) P (lim An ) = 0,
n=1

d.h. P-f.s. gilt: An tritt nur endlich oft auf

Satz A.2.2 (2. Lemma von Borel und Cantelli). W-Raum (⌦, A, P ).

83
Die Familie {An ; n 2 N} von Ereignissen (2 A) sei unabhängig. Dann gilt:
1
X
P (An ) = 1 (()
) P (limAn ) = 1 .
n=1
| {z }
P-f.s. tritt An unendlich oft auf

Definition ⌘ Messraum (⌦, A). -Algebren An ⇢ A (n 2 N).


⇣ 1A.2.1.
Tn := F [ Ak . . . die von An , An+1 , . . . erzeugte -Algebra.
k=n
1
T1 := \ Tn heißt die -Algebra der terminalen Ereignisse (tail events) der Folge (An ).
n=1

Beispiele
1) Xn : (⌦, A) ! (R, B); An := F(Xn ) := Xn 1 (B) (n 2 N)
P
a) [ Xn konv.] 2 T1
b) [(Xn ) konv.] 2 T1
2) Messraum (⌦, A). Ereignisse An 2 A (n 2 N);
An := {;, An , Acn , ⌦} (n 2 N).
1 1
lim sup An := \ [ Ak = {! 2 ⌦ | ! 2 An für unendliche viele n} 2 T1
n!1 n=1 k=n
1 1
lim inf An := [ \ Ak = {! 2 ⌦ | ! 2 An von einem Index an} 2 T1
n!1 n=1 k=n

Satz 5.8 (Null-Eins-Gesetz von Kolmogorov) W-Raum (⌦, A, P ).


Sei (An ) eine unabhängige Folge von -Algebren An ⇢ A.
Dann gilt für jedes terminale Ereignis A von (An ) entweder P (A) = 0 oder P (A) = 1.

A.3. Bedingte Erwartungen


Satz A.3.1. W-Raum (⌦, A, P ). Integrierbare ZV X: (⌦, A, P ) ! (R, B). -Algebra
C ⇢ A. Dann existiert eine ZV Z : (⌦, A, P ) ! (R, B) mit folgenden Eigenschaften:
(⇤) Z ist integrierbar und C-B-messbar,
Z Z
(⇤⇤) 8 X dP = Z dP .
C2C C C
Z ist eindeutig bis auf die Äquivalenz “= Rest C P -f.ü.”.
Definition A.3.1. W-Raum (⌦, A, P ). Integrierbare ZV X: (⌦, A, P ) ! (R, B). -
Algebra C ⇢ A. Die Äquivalenzklasse (im oberen Sinne) der ZVn Z: (⌦, A, P ) ! (R, B)
mit (⇤) und (⇤⇤) — oder auch ein Repräsentant dieser Äquivalenzklasse — heißt bedingte
Erwartung von X bei gegebenem C . . . E(X | C).

Häufig wird ein Repräsentant dieser Äquivalenzklasse als eine Version von E(X | C)
bezeichnet.
E(X | C) ist eine “Vergröberung” von X.
Beispiele

84
a) C = A . . . E(X | C) = X f.s.
b) C = {;, ⌦} . . . E(X | C) = EX
c) C = {;, B, B c , ⌦} mit 0 < P (B) < 1.
8 Z
> 1
>
< P (B) B X dP =: E(X | B), ! 2 B
>
(E(X | C))(!) = Z
>
> 1
>
: X dP, ! 2 B c
P (B c ) B c

E(X | B) heißt bedingter Erwartungswert von X unter der Hypothese B.


Satz A.3.2. W-Raum (⌦, F, P ). X, Xi integrierbar; -Algebra C ⇢ F; c, ↵1,2 2 R.
Z Z
a) 8 E(X | C)dP = X dP
C2C C C
b) X = c P-f.s. =) E(X | C) = c f.s.
c) X 0 P-f.s. =) E(X | C) 0 f.s.
d) E(↵1 X1 + ↵2 X2 | C) = ↵1 E(X1 | C) + ↵2 E(X2 | C) f.s.
e) X1  X2 P-f.s. =) E(X1 | C)  E(X2 | C) f.s.
f ) X C-B-messbar =) X = E(X | C) f.s.
g) X integrierbar, Y C-B-messbar, XY integrierbar =) E(XY | C) = Y E(X | C) f.s.
g’) X, X 0 integrierbar, XE(X 0 | C) integrierbar
=) E(XE(X 0 | C) | C) = E(X | C)E(X 0 | C) f.s.
h) -Algebra C1,2 mit C1 ⇢ C2 ⇢ F, X integrierbar

E(E(X | C1 ) | C2 ) = E(X | C1 ) f.s.


E(E(X | C2 ) | C1 ) = E(X | C1 ) f.s.

Hier f.s. . . . Rest C2 P-f.s. bzw. Rest C1 P-f.s.:


Definition A.3.2. W-Raum (⌦, F, P ). -Algebra C ⇢ A. A 2 F.
P (A | C) := E(1A | C) heißt bedingte Wahrscheinlichkeit von A bei gegebenem C.
Bemerkung A.3.1 (Zu Definition A.3.2).
Z
8 P (A | C) dP = P (A \ C).
C2C C

Beispiel. C = {;, B, B c , ⌦} mit 0 < P (B) < 1.


8
> P (A \ B)
>
< P (B) =: P (A | B), ! 2 B
>
(P (A | C))(!) =
>
> P (A \ B c )
>
: =: P (A | B c ), ! 2 B c .
P (B c )

85
Definition A.3.3. W-Raum (⌦, F, P ).
a) Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZV Y : (⌦, F, P ) ! (⌦0 , F 0 ).
E(X | Y ) := E(X | Y 1 (F 0 )) . . . bedingte Erwartung von X bei gegeb. Y .
| {z }
[kleinste -Algebra in ⌦, bzgl. der Y messbar ist . . . F(Y )(⇢ F)]
b) Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZVn Yi : (⌦, F, P ) ! (⌦0i , Fi0 ) (i 2 I)
C(⇢ F) sei die kleinste -Algebra in ⌦, bzgl. der alle Yi messbar sind, also C =
F( [ Yi 1 (Fi )) . . . F(Yi , i 2 I)
i2I
E(X | (Yi )i2I ) := E(X | C) . . . bedingte Erwartung von X bei gegebe-
nem Yi , i 2 I.
c) A 2 F; ZV Y : (⌦, F, P ) ! (⌦0 , F 0 ).
P (A | Y ) := E(1A | Y ) . . . bedingte Wahrscheinlichkeit von A bei gegeb. Y .

Bemerkung A.3.2. Integrierbare ZV X: (⌦, F, P ) ! (R, B).


a) -Algebra C in F

1
(X (B), C) unabhängig =) E(X | C) = EX f.s.

b) ZV Y : (⌦, F, P ) ! (⌦0 , F 0 )

(X, Y ) unabhängig =) E(X | Y ) = EX f.s.

Satz A.3.3. W-Raum (⌦, F, P ). Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZV Y : (⌦, A, P ) !


(⌦0 , F 0 ). Dann ex. Abb. g: (⌦0 , A0 ) ! (R, B) mit E(X | Y ) = g Y .
g ist die sog. Faktorisierung der bedingten Erwartung.
g ist eindeutig bis auf die Äquivalenz “= PY -f.ü.”.

Definition A.3.4. W-Raum (⌦, F, P ). Integrierbare ZV X: (⌦, F, P ) ! (R, B) bzw.


A 2 F. ZV Y : (⌦, F, P ) ! (⌦0 , F 0 ). Sei g bzw. gA eine — bis auf Äquivalenz “= PY -
f.ü.” eindeutig bestimmte — Faktorisierung von E(X|Y ) bzw. von P (A|Y ).
E(X | Y = y) := g(y) . . . bedingte Erwartung von X unter der Hypothese Y = y
P (A | Y = y) := gA (y) . . . bed. Wahrscheinlichkeit von A unter der Hypoth. Y = y
E(X | Y = ·) = g
P (A | Y = ·) = gA

Satz A.3.4. W-Raum (⌦, F, P ). Integrierbare ZV X: (⌦, F, P ) ! (R, B) bzw. A 2 F.


ZV Y : (⌦, F, P ) ! (⌦0 , A0 )
R R
a) 8 A 0 E(X | Y = y) P Y (dy) = Y 1 (A0 )
X dP ,
A0 2F 0
R
insbesondere ⌦0 E(X | Y = y) PY (dy) = EX .

86
R
b) 8 P (A | Y = y) PY (dy) = P (Y 1 (A0 ) \ A) ,
A0
A 2F 0
0
R
insbesondere ⌦0 P (A | Y = y) PY (dy) = P (A) .

Beispiel. X bzw. A sowie Y wie zuvor. Sei y 2 ⌦0 mit {y} 2 F 0 und PY ({y}) > 0.
a) E(X | Y = y) = E(X | [Y = y])
| {z } | {z }
s. Def. 1.4. s. Beispiel nach Def. 1.1.
b) P (A | Y = y) = P (A | [Y = y])
| {z } | {z }
s. Def. 1.4. s. Beispiel nach Def. 1.2.

Satz A.3.5. W-Raum (⌦, A, P ). Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZV Y : (⌦, F) !


(⌦0 , F 0 ).
a) X = c f.s. =) E(X | Y = ·) = c PY -f.ü.
b) X 0 f.s. =) E(X | Y = ·) 0 PY -f.ü.
c) E(↵X1 + X2 | Y = ·) = ↵E(X1 | Y = ·) + E(X2 | Y = ·) PY -f.ü.
d) X1  X2 f.s. =) E(X1 | Y = ·)  E(X2 | Y = ·) PY -f.ü.

Satz A.3.6. W-Raum (⌦, F, P ), Sub- -Algebra C(⇢ A), X, Xn (n 2 N) integrierbare


Zufallsvariablen. Dann gilt:
a) Ist 0  Xn " X fast sicher (n ! N), so folgt

E(Xn | C) ! E(X | C) fast sicher

(Satz von der monotonen Konvergenz für bedingte Erwartungen).


b) Ist Xn ! X fast sicher (n ! N) und |Xn |  Y fast sicher für alle n 2 N und Y
eine integrierbare Zufallsvariable (d.h. E|Y | < 1), so folgt

E(Xn | C) ! E(X | C) fast sicher

(Satz von der dominierten Konvergenz für bedingte Erwartungen).

Satz A.3.7. W-Raum (⌦, F, P ), Sub- -Algebra C(⇢ F), I ⇢ R ein Intervall und f :
I ! R eine konvexe Funktion und X : ⌦ ! I eine integrierbare Zufallsvariable. Dann ist
E(X | C) 2 I fast sicher. Ist f (X) integrierbar, so gilt

f (E(X | C))  E(f (X) | C) fast sicher

87
A.4. Stochastische Prozesse
Satz A.4.1 (Existenzsatz für stochastische Prozesse von Kolmogorov). Gilt für eine Fa-
milie von Verteilungsfunktionen {Ft1 ,...,tn : Rn ! R | 0  t1 < . . . < tn , n 2 N} die
Verträglichkeitsbedingung

Ft1 ,...,tn ,tn+1 (x1 , . . . xn , 1) = Ft1 ,...,tn (x1 , . . . , xn )

für alle verschiedenen t1 , . . . , tn , tn+1 2 R+ , alle (x1 , . . . , xn ) 2 Rn und alle n 2 N, wobei


Ft1 ,t2 (x1 , x2 ) = Ft2 ,t1 (x2 , x1 ) usw. Dann gibt es einen Wahrscheinlichkeitsraum (⌦, F, P )
und einen stochastischen Prozess X = (Xt )t 0 mit Zustandsraum R, derart, dass

Ft1 ,...,tn (x1 , . . . , xn ) = P (Xt1  x1 , . . . , Xtn  xn )

für alle verschiedenen t1 , . . . , tn 2 R+ , beliebigen (x1 , . . . , xn ) 2 Rn und n 2 N.

Für weitere Details siehe z.B. Klenke, Abschnitt 14.3, oder Meintrup/Schä✏er, Anhang A.3.

88
Literaturverzeichnis
[1] H. Bauer, Wahrscheinlichkeitstheorie (4. Aufl.), de Gruyter 1991 [Kap. VIII, IX
[2] R.N. Bhattacharya, E.C. Waymire, Stochastic Processes with Applications,
Wiley 1990
[3] Z. Brzezniak, T. Zastawniak, Basic Stochastic Processes, Springer 1999
[4] R. Durrett, Essentials of Stochastic Processes, Springer 1999
[5] W. Feller, An Introduction to Probability Theory and its Applications, Vol. I
(3rd ed.), Vol. II (2nd ed.), Wiley 1968, 1971
[6] G. Grimmett, D. Stirzaker, Probability and Random Processes (3rd ed.), Ox-
ford University Press 2001
[7] O. Kallenberg, Foundations of Modern Probability. Springer, New York (2001),
2nd ed.
[8] S. Karlin, A First Course in Stochastic Processes (2nd ed.), Academic Press 1975
[9] S. Karlin, H.M. Taylor, A Second Course in Stochastic Processes, Academic
Press 1975
[10] A. Klenke, Wahrscheinlichkeitstheorie, Springer 2013
[11] J.-P. Kreiß, G. Neuhaus, Einführung in die Zeitreihenanalyse, Springer 2006.
[12] Sh.M. Ross, Stochastic Processes, Wiley 1983

89

Das könnte Ihnen auch gefallen