Beruflich Dokumente
Kultur Dokumente
WS 2021
3. Stationärer Prozesse 44
3.1. Stationäre Prozesse, Gauß-Prozesse, stationäre Gauß-Prozesse . . . . . . . 44
3.2. Ergodensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3. Zeitreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.1. Schätzung des Trends . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.2. Schätzung der saisonalen Komponente . . . . . . . . . . . . . . . . 56
3.3.3. Stationäre Zeitreihen . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.4. Vorhersage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4. Stochastische Integration 58
4.1. Martingale in stetiger Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2. Probleme bei der Defintion eines stochastischen Integrals . . . . . . . . . . 62
4.3. Das Itô-Integral bzgl. der Brown’schen Bewegung . . . . . . . . . . . . . . 63
4.4. Eine pfadweise Definition des Itô-Integrals und die Itô-Formel . . . . . . . 73
A. Hilfsmittel 82
A.1. Begri↵e und Sätze der Maß- und Integrationstheorie . . . . . . . . . . . . . 82
A.2. Hilfsmittel aus der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . 83
A.3. Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.4. Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Literatur 89
2
1. Martingaltheorie
1.1. Martingale
Definition 1.1.1. W-Raum (⌦, F, P ). Eine Folge (Xn )n2N von integrierbaren ZVn Xn :
(⌦, A, P ) ! (R, B) heißt bei gegebener monoton wachsender Folge (Fn )n2N von -Algebren
Fn ⇢ F mit Fn -B-Messbarkeit von Xn [wichtiger Fall Fn = F(X1 , . . . , Xn ) (n 2 N)]
a) ein Martingal bzgl. (Fn ), wenn
8 E(Xn+1 | Fn ) = Xn f.s.
n2N
Z Z
[d.h. 8 8 Xn+1 dP = Xn dP
n2N C2Fn C C
bzw. 8 8 E(1C Xn+1 ) = E(1C Xn )] ,
n2N C2Fn
8 E(Xn+1 | Fn ) Xn f.s.
n2N
Z Z
[d.h. 8 8 Xn+1 dP Xn dP
n2N C2Fn C C
bzw. 8 8 E(1C Xn+1 ) E(1C Xn )] ,
n2N C2Fn
c) ein Supermartingal bzgl. (Fn ), wenn ( Xn ) ein Submartingal bzgl. (Fn ) ist, also
8 E(Xn+1 | Fn ) Xn f.s.
n2N
Bemerkung (Dippon) Ein Martingal verhindert, dass Xn+1 gegeben einer Geschichte
zu sehr von Xn abweicht.
Bemerkung 1.1.1. Ein Martingal (Xn ) bzgl. (Fn ) ist auch ein Martingal bzgl.
(F(X1 , . . . , Xn )). Entsprechend für Sub-, Supermartingal.
3
Beweisidee. Sei X = (Xn )n2N ein Martingal bzgl. F = (Fn )n2N . Xn ist auch F(X1 , ..., Xn )
messbar und damit
Satz 1.1.1. W-Raum (⌦, F, P ), Folge (Vn )n2N von ZVn Vn : (⌦, F, P ) ! (R, B) . Die
P
n
Partialsummenfolge ( Vj )n2N ist genau dann ein Martingal bzw. Submartingal bzgl.
j=1
(F(V1 , V1 + V2 , . . . , V1 + . . . + Vn )) = (F(V1 , . . . , Vn )), wenn
n+1
! n
X X
8n2N E Vj | Fn = Vj () 8n2N E(Vn+1 | Fn ) = 0 f.s.
i=1 j=1
Definition 1.1.2. Ein Spiel mit zufälligen Gewinnständen X1 , X2 , . . . nach dem 1., 2.,
. . . Schritt heißt fair, wenn EX1 = 0 und (Xn )n2N ein Martingal [bzgl. (F(X1 , . . . , Xn ))]
ist, d.h. EX1 = 0 und 8 E(Xn+1 | X1 = x1 , . . . , Xn = xn ) = xn für P(X1 ,...,Xn ) -f.a.
n
(x1 , . . . , xn ).
4
⇤
P
Beispiel für ein Martingal: Partialsummenfolge ( nj=1 Vj )n2N zu einer unabhängigen Folge
(Vn )n2N von integrierbaren reellen ZVn mit Erwartungswerten 0.
Denn nach Satz 1.1.1 genügt es E(Vn+1 | V1 , ..., Vn ) = 0 f.s. zu zeigen. Mit F(Vn+1 ) und
F(V1 , ..., Vn ) unabhängige -Algebren, folgt das Gewünschte sofort.
Definition 1.1.3. Ein stochastischer Prozess X = (Xn )n2N0 heißt vorhersagbar bezüglich
der Filtration F := (Fn )n2N0 , falls X0 konstant ist (es reicht auch X0 F0 -messbar) und
8 Xn ist Fn 1 -messbar
n2N
(Mn )n2N ist ein Martingal (zeige E(Mn Mn 1 | Fn 1 ) = 0) und (An )n2N ist nach Kon-
struktion vorhersagbar bzgl. (Fn ).
0 = X X = M M 0 +A A0 () M M 0 = A0 A vorhersagbare Martingale.
5
1.2. Optional Sampling und Optional Stopping
Definition 1.2.1. W-Raum (⌦, F, P ). Monoton wachsende Folge (Fn )n2N von -Algebren
Fn ⇢ F. Eine ZV T : (⌦, F, P ) ! (N := N[{1}, P(N)) heißt Stoppzeit bzgl. (Fn ), wenn
8 [T = k] 2 Fk ; hierbei heißt T Stoppzeit im engeren Sinne, falls P [T < 1] = 1
k2N
[“Kein Vorgri↵ auf die Zukunft”].
Definition 1.2.2. W-Raum (⌦, F, P ). Folge (Xn )n2N von ZVn Xn : (⌦, F, P ) ! (R, B);
Folge (Tn )n2N von Stoppzeiten bzgl. (Xn ) [d.h. bzgl. (F(X1 , . . . , Xn ))] mit T1 T2
. . . < 1. Neue Folge: Folge (XTn )n2N von ZVn definiert durch
Übergang von (Xn ) zu (XTn ) heißt optional sampling [frei gewählte Stichprobenbildung]
Satz (auskommentiert) Submartingal (Xn )n2N . Festes M 2 N. Folge (Tn )n2N von
Stoppzeiten bzgl. (Xn ) mit T1 T2 . . . M . Die durch optional sampling erhalte-
ne Folge (XTn )n2N ist ebenfalls ein Submartingal. — Entsprechend für Martingal statt
Submartingal (Deutung: die Fairness eines Spielverlaufs wird nicht geändert).
Definition 1.2.3. Sei F := (Fn )n2N ein Filtration und ⌧ eine Stoppzeit. Dann heißt
F⌧ := {A 2 F : 8 A \ [⌧ n] 2 Fn }
n2N
F⌧ ist also die Menge aller Ereignisse in F, für die bis zum zufälligen Zeitpunkt ⌧ ent-
schieden werden kann, ob sie eingetreten sind.
A \ [⌧ n] = A \ [ n] \ [⌧ n] 2 Fn .
| {z } | {z }
2Fn 2Fn
6
⇤
Satz 1.2.1. Ist ⌧ eine endliche Stoppzeit und X = (Xn ) ein adaptierter Prozess, so ist
X⌧ F⌧ -messbar.
Lemma 1.2.1. I ⇢ R abzählbar, (Xt )t2I ein Martingal, T 2 I, ⌧ eine Stoppzeit mit
⌧ T . Dann gilt
X⌧ = E(XT | F⌧ )
Weiter
8t2I E(X⌧ ) = E(E(XT | F⌧ )) = E(XT ) = E(Xt )
⇤
X E(X⌧ | F )
und speziell E(X ) E(X⌧ ). Ist X ein Submartingal, so gilt in den letzten beiden
Ungleichungen “”, für ein Martingal X entsprechend “=”.
(ii) Ist X nichtnegativ und ⌧ < 1 f.s., so gelten E(X⌧ ) E(X0 ) < 1, E(X )
E(X0 ) < 1, und X E(X⌧ | F ).
(iii) Ist X lediglich adaptiert und integrierbar (d.h. E(|Xt |) < 1 für alle t 2 N0 ), dann ist
X genau dann ein Martingal, wenn E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ .
7
Beweisidee. Schreibe X = M + A mit Doob-Zerlegung. Dann gilt
Lemma 1.2.1 A m.f.
(i) X = E(A + MT | F ) E(A⌧ + MT | F )
F ⇢F⌧
= E(A⌧ + E(MT | F⌧ ) | F ) = E(X⌧ | F ).
(ii) E(X⌧ ) E(X0 ) < 1 und E(X ) E(X0 ) < 1, da
Fatou (i)
E(X⌧ ) = E(lim inf X⌧ ^n ) lim inf E(X⌧ ^n ) E(X0 ).
=0
Fatou
E(lim inf X⌧ ^m 1[ n]\A ) lim inf E(X ^n 1[ n]\A ).
m m
Mit monotoner Konvergenz lässt sich E(X⌧ 1A ) E(X 1A ) für alle A 2 F folgern.
(iii) Mit Lemma 1.2.1 folgt die Hinrichtung.
Ist E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ , dann folgt mit der beschränkten
Stoppzeit ⌧ := s1A + t1Ac mit t, s 2 N0 , t > s, A 2 Fs
Definition 1.2.4. Sei X ein adaptierter Prozess und ⌧ eine Stoppzeit. Der gestoppte
Prozess X ⌧ = (Xn⌧ ) ist definiert durch
8
<X für n ⌧
⌧
Xn⌧ := X⌧ ^n =
:Xn für n < ⌧
Satz 1.2.3 (Optional Stopping Theorem von Doob). Sei X = (Xn )n2N0 ein bezüglich der
Filtration F := (Ft )t2N0 adaptierter Prozess und ⌧ eine Stoppzeit. Dann gilt: Ist X ein
Sub- bzw. Super- bzw. Martingal bezüglich der Filtration F, so auch der gestoppte Prozess
X ⌧ bezüglich F als auch bezüglich F⌧ .
8
Weiter
E(X⌧ ^n X⌧ ^(n 1) | Fn 1 ) = E((Xn Xn 1 )1[⌧ >n 1] | Fn 1 ) = 0.
Da Xn^⌧ nach Satz 1.2.1 Fn^⌧ -messbar ist X ⌧ an F⌧ = {Fn^⌧ | n 2 N0 } adaptiert und da
F⌧ ^n = {A 2 Fn | 8k<n A\[⌧ k] 2 Fk } ⇢ Fn , ist X ⌧ auch an F⌧ ⇢ {Fn | n 2 N0 } = F
adaptiert. ⇤
Im Optional Sampling Theorem kann auf die Beschränktheit der Stoppzeiten verzichtet
werden, wenn die Integrierbarkeit des betrachteten Martingals zur gleichgradigen Inte-
grierbarkeit verschärft wird.
Definition 1.2.5. Eine Familie (Xi )i2I , I 6= ;, von Zufallsvariablen heißt gleichgradig
integrierbar, falls
lim sup E(|Xi |1{|Xi |>c} ) = 0
c!1 i
Satz 1.2.4 (Optional Sampling und gleichgradige Integrierbarkeit). X = (Xn )n2N0 ein
gleichgradig integrierbares Martingal und ⌧ endliche Stoppzeiten. Dann gilt
Bemerkung
a) Jede endliche Familie von integrierbaren Zufallsvariablen ist gleichgradig integrier-
bar.
b) Sind (Xt )t2I und (Xt )t2J gleichgradig integrierbar, so auch (Xt )t2I[J .
c) Existiert eine integrierbare Zufallsvariable Y mit |Xt | Y für alle t 2 I, so ist
(Xt )t2I gleichgradig integrierbar.
d) Aus sup E(|Xt |) < 1 folgt im Allgemeinen nicht gleichgradige Integrierbarkeit.
t2I
(D.h. aus gleichmäßig L1 -integrierbar folgt im Allgemeinen nicht gleichgradige In-
tegrierbarkeit.)
(Betrachte ⌦ = [0, 1] mit Lebesgue-Maß und Xn = n·1[0, 1 ] . Dann E(|Xn |) = 1 < 1,
n
aber sup E(|Xn |1{|X|>c} ) = 1.)
n
e) Ist sup E(|Xt |p ) < 1 für ein p > 1, so ist (Xt )t2I gleichgradig integrierbar.
t2I
(D.h. aus gleichmäßiger Lp -Integrierbarkeit für ein p > 1 folgt gleichgradig integrier-
bar.)
✓ ◆
|X|p 1 1
E(|X|1{|X|>c} ) = E 1{|X|>c} E(|X|p 1{|X|>c} ) E(|X|p ).
|X|p 1 cp 1 cp 1
9
1.3. Martingalkonvergenzsätze
Satz 1.3.1 (Upcrossing Inequality von Doob). Sei (X1 , . . . , Xn ) ein — beim festen Index
n 2 N abbrechendes — Submartingal. Feste reelle Zahlen a, b mit a < b. Die ZV U [a, b]
gebe die Anzahl der aufsteigenden Überquerungen des Intervalls [a, b] durch X1 , . . . , Xn
an (d.h. die Anzahl der Übergänge der abbrechenden Folge von einem Wert a zu einem
Wert b). Dann gilt
T1 (!) := 1
(
min{i 2 {T2k 1 (!), ..., n} | Xi (!) = 0} , falls 9i2{T2k 1 (!),...,n}
Xi (!) = 0
T2k (!) :=
n , sonst
(
min{i 2 {T2k (!), ..., n} | Xi (!) b} , falls 9i2{T2k (!),...,n} Xi (!) b
T2k+1 (!) :=
n , sonst
Tn+1 (!) := n.
Dies sind aufsteigende Stoppzeiten. Nach Satz 1.2.2 (Opt. Sampl. Th.) für Submartingale
ist (XT1 , ..., XTn+1 ) ein Submartingal bzgl. (FT1 , ..., FTn+1 ).
n
X X X
Xn X1 = (XTk+1 X Tk ) = (XT2j+1 XT2j ) + (XT2j XT2j 1 )
k=1 | {z } | {z }
b·U [0,b] E(...) 0
Xn ! X1 P -f.s.
(Ist das Submartingal gleichgradig integrierbar, dann folgt Konvergenz in L1 (siehe Satz
1.3.6.))
10
Zum Beweis von Satz 1.3.2 benötigen wir Satz 1.3.1.
A(a, b) := {lim inf Xn < a < b < lim sup Xn } 2 F für 1<a<b<1
[
A := {lim inf Xn < lim sup Xn } = A(a, b) 2 F
a<b
a,b2Q
Sei Un [a, b] die Anzahl der Upcrossings von [a, b] durch (X1 , ..., Xn ). Dann gilt mit Satz
1.3.1 für alle n 2 N
Z
(b a) Un [a, b] dP (b a)E(Un [a, b]) E((Xn a)+ ) E(|Xn |) + a const < 1
A(a,b)
Da Un [a, b] % 1 auf A(a, b) (nach Def.) folgt mit dem Satz der monotonen Konvergenz
durch Widerspruch zu obiger Endlichkeit: P (A(a, b)) = 0.
Damit ist
X
P (A) P (A(a, b)) = 0.
a<b
a,b2Q
Fatou
E(|X ⇤ |) = E(| lim inf Xn|) lim inf E(|Xn |) lim sup E(|Xn |) c < 1.
n
! 1 ! 1
Y1 n 1
X k
Y
Zn := (1 + ↵i ) Un (1 + ↵i ) k
i=1 k=1 i=1
11
ein Supermartingal definiert. Weiter kann gezeigt werden, dass ( Zn ) die nötigen Vor-
aussetzungen für das Submartingalkonvergenztheorem von Doob erfüllt. Damit folgt die
Behauptung. ⇤
P
Satz 1.3.3. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit V (Vn ) < 1.
Dann ist X
(Vn E(Vn | V1 , . . . , Vn 1 )) f.s. konvergent.
P
Falls zusätzlich (Vn ) unabhängig, dann ist (Vn EVn ) f.s. konvergent.
Jensensche-
Wn := Vn E(Vn | V1 , ..., Vn 1 ), wobei E(|Wn |) 2E(|Vn |) < 1.
Ungleichung
✓ ◆
P
n
Mit Satz 1.1.1 lässt sich zeigen, dass Wk ein Martingal bzgl. F = (F(V1 , ..., Vn ))n2N
k=1 n2N ✓ n ◆
P
ist, da E(Wn+1 | V1 , ..., Vn ) = 0 für alle n 2 N gilt und es gilt sup E | Wk | < 1.
n k=1
(Ausführlicher :
Wn ist quadratisch integrierbar, da E(Wn2 ) 4E(Vn2 ) < 1 (mit der algebraischen Iden-
tität (a + b)2 2a2 + 2b2 und der Jensenschen Ungleichung).
Da wegen Satz 1.1.2 8i,j2N E(Wi Wj ) = 0 folgt, gilt
i6=j
n
!!2 n
! n 1
X CSB X X X
2
sup E | Wk | sup E | Wk | sup 4 E(Vk2 ) 4 V (Vk ) < 1.
n n n | {z }
k=1 k=1 k=1 k=1
V (Vk )
P
n
Damit lässt sich Satz 1.3.2 anwenden und es folgt Wk f.s. konvergent.
k=1
Falls (Vn ) zusätzlich unabhängig, folgt E(Vn | V1 , ..., Vn 1 ) = Vn . ⇤
12
Bemerkung (Dippon) Satz 1.3.3 ist ein universelles Hilfsmittel um Konvergenz von
Reihen von ZV zu beweisen, bzw. enthält hinreichende Voraussetzungen für die Konver-
genz von Reihen von ZV.
P
Satz 1.3.4. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit n 2 V (Vn ) < 1.
Dann n
1X
(Vj E(Vj | V1 , . . . , Vj 1 )) ! 0 f.s.
n j=1
1
P
n
Falls zusätzlich (Vn ) unabhängig, dann n
(Vj EVj ) ! 0 f.s.
j=1
(Kriterium von Kolmogorov zum starken Gesetz der großen Zahlen)
Beweis von Satz 1.3.4 mit Satz 1.3.3 und dem folgenden — etwas spezialisierten — Lemma
1.3.1
Vn
Beweisidee. Nach Satz 1.3.3 für statt Vn gilt
n
X Vn E(Vn | V1 , ..., Vn 1 )
f.s. konvergent.
n
Lemma 1.3.1 (Lemma von Kronecker). Folge (cn )n2N reeller Zahlen.
X cn n
1X
konv. =) cj ! 0 (n ! 1).
n n j=1
1.3.2. L1 -Konvergenz
Satz 1.3.5. Sei Y eine integrierbare Zufallsvariable und (Fi )i2I eine beliebige Familie
von Sub- -Algebren, wobei I eine beliebige nichtleere Indexmenge. Dann ist die Familie
X = (Xi )i2I mit Xi := E(Y |Fi ) gleichgradig integrierbar.
Beweisidee. Da Y integrierbar, existiert ein c > 0, so dass E(|Y |1{|Y |>c} ) < ". ⇤
13
Beispiel: Sukzessive Prognose. Ist Y eine integrierbare Zufallsvariable und F = (Fn )
eine Filtration, so definiert
Xn := E(Y |Fn )
ein gleichgradig integrierbares Martingal.
Man kann die bedingten Erwartungswerte Xn als Prognosen bzw. Approximation von Y
in Lp au↵assen. Speziell im Hilbertraum L2 wird Xn als die orthogonale Projektion von Y
auf den abgeschlossenen Unterraum der Elemente mit Fn -B-messbaren Zufallsvariablen
(als Repräsentanten) gesehen und ist damit das bestapproximierende Element im Sinne
der L2 -Norm. (D.h. E((Xn Y ) · Z) = 0 für alle Z Fn -B-messbar.)
Die Frage ist: Konvergiert meine Prognose gegen Y ? Satz 1.3.6 antwortet: Für L1 unter
gewissen Voraussetzungen ja!
Beweisidee.
(iii) =) (i) (Xn ) ist in L1 beschränkt, denn wegen der gleichgradigen Integrierbarkeit
von (Xn ) folgt
Da lim Xn = X f.s., folgt auch fc (Xn ) ! fc (X) f.s. und mit dem Satz der dominier-
ten Konvergenz gilt
"
9N 2N 8n N E(|fc (Xn ) fc (X)|) < .
3
14
Außerdem gilt für alle n 2 N wegen (Xn ) gleichgradig integrierbar und X 2 L1
"
E(|fc (Xn ) Xn |) <
3
"
E(|fc (X) X|) <
3
4-Ungl.
Insgesamt also E(|Xn X|) < " für n hinreichend groß und damit Xn ! X
in L1 .
(i) =) (ii) Sei C 2 Fm und n m. Dann gilt
Jensen n!1
|E(Xm 1C ) E(X1C )| = |E(Xn 1C ) E(X1C )| E(|Xn X|1C ) E(|Xn X|) !0
1 1
sup P (|Xn | > c) sup E(|Xn |) E(|X|).
n c n c
Es kann also c > 0 so gewählt werden, dass sup P (|Xn | c) < ist. Damit
n
(Ausführlicher :
)
⇤
Definition 1.3.1. Sei F = (Fn )n2 N0 eine Filtration und X = (Xn )n2 N0 ein F-Martingal.
Dann heißt X Rückwärtsmartingal bezüglich F.
15
Bemerkung (Dippon) Genau wie beim Martingal haben wir auch beim Rückwärtsmartingal
eine aufsteigende Folge von -Algebra, d.h. die Fn werden mit zunehmendem n immer
feiner und damit werden auch die ZV Xn mit wachsendem n immer feiner.
Beim Martingal ist F0 die gröbste -Algebra und F1 muss nicht in der Filtration enthal-
ten sein. Beim Rückwärtsmartingal ist F0 die feinste -Algebra und F 1 muss nicht in
der Filtration enthalten sein.
Satz 1.3.7 (Konvergenzsatz für Rückwärtsmartingale). Sei X = (Xn )n2 N0 ein Rück-
wärtsmartingal bezüglich F. Dann existiert
T1
Es gilt X 1 = E(X0 |F 1 ), wobei F 1 := n=1 F n.
Korollar 1.3.2 (Starkes Gesetz der großen Zahlen von Kolmogorov). Für eine un-
abhängige Folge (Xn )n2N identisch verteilter integrierbarer reeller ZVn gilt
n
1X
Xk ! EX1 (n ! 1) f.s.
n k=1
1 Pn P
n
(Beachte: Xk selbst ist kein Martingal! Die Summe Xk ist ein Martingal, wenn
n k=1 k=1
die Xk zentriert sind, konvergiert im Allgemeinen aber nicht.)
Beweisidee. Z1 , Z2 , ... seien u.i.v. ZV mit E(|Z1 |) < 1. Wir definieren für n 2 N
n
1X
X n := Zi , F n := ({X n , Zn+1 , Zn+2 , ...}) = ({X n , X n 1 , X n 2 , ...}).
n i=1
16
T
1
Sei T = ({Zm | m n}) die terminale -Algebra der unabhängigen ZV Z1 , Z2 , ...
n=1
Als Limes von (X n )n2N ist X 1 auch messbar bzgl. T ⇢ F 1 . Zusammen mit dem
0-1-Gesetz von Kolmogorov für terminale -Algebren ergibt sich
X 1 = E(X 1 | T ) = const,
1.3.3. L2 -Konvergenz
Definition 1.3.2. Ein Martingal X heißt quadratintegrierbares oder L2 -Martingal,
falls
2
8 E(Xn ) < 1
n
(L2 -Beschränkheit ist stärker als Quadratintegrierbarkeit und stärker als gleichgradige
Integrierbarkeit.)
Bemerkung 1.3.2. Da die Zuwächse eines L2 -Martingals X im Sinne des Hilbertraumes
L2 orthogonal sind, kann X orthogonal zerlegt werden:
n
X
Xn = X0 + (Xk Xk 1 )
k=1
und n
X
E(Xn2 ) = E(X02 ) + E((Xk Xk 1 )2 )
k=1
und bedinge auf Fl . Dann folgt hMn Mm , Ml Mk i = 0 und es gilt ein Satz vom Typ
Pn
Pythagoras: E(Mn2 ) = M02 + E((Mk Mk 1 )2 ). ⇤
k=1
17
Satz 1.3.8. Ein L2 -Martingal X ist genau dann L2 -beschränkt, falls
1
X
(i) E((Xk Xk 1 )2 ) < 1
k=1
Beweisidee.
(i) Folgt mit Bemerkung 1.3.2
(ii) Aus L2 -Beschränkheit folgt L1 -Beschränkheit. Nach Doob existiert also
X1 := lim Xn P -f.s.
n!1
(iii) Die L2 -Beschränkheit von X impliziert die gleichgradige Integrierbarkeit von X. Mit
Satz 1.3.6 folgt die Behauptung.
⇤
18
Beispiel (Kalman-Bucy-Filter) Wir haben zwei lineare dynamische Systemte für
k 2 N:
mit
X1 , "i , ⌘i unabhängig.
Problem: Basierend auf den Beobachtungen Y1 , Y2 , ... sollen die unbekannten Zustände
X1 , X2 , ... durch Xb1 , X
b2 , ... geschätzt werden.
Naheliegender Ansatz: X bn := E(Xn | Y1 , ..., Yn ).
Dann ist X bn (Y1 , ..., Yn )-messbar und minimiert die Größe E(k⇠n Xn k2 ) unter allen
(Y1 , ..., Yn ) messbaren ZV ⇠n .
Fragen:
bn , n 2 N explizit berechnet werden?
1. Kann X
bn , n 2 N effizient berechnet werden?
2. Kann X
bn für n ! 1?
3. Wie verhält sich X
Yi = X + ⌘i , i bekannt
|{z}
⇠N (0, 2
i)
bn = E(X | Y1 , ..., Yn )
X
19
b1 mit
existiert nach 1.3.8 eine quadratintegrierbare ZV X
bn = E(X
X b1 | Fn ) und bn ! X
X b1 in L2 und P -f.s.
|{z} |{z}
E(X|Fn ) E(X|F1 )
b1 , wenn
Dann gilt X = X 2
i nicht zu schnell gegen unendlich konvergiert, bzw. wenn
P 1
1
2
= 1.
i=1 i
Begründung:
1. Zeige dies, indem X bn := E(X | Y1 , ..., Yn ) als Minimierungsproblem aufgefasst wird
(E(X | Y1 , ..., Yn ) Projektion von X auf Unterraum spanhY1 , ..., Yn i).
2. Zeige dies, indem die bedingte Dichte von X gegeben Y1 , ..., Yn verwendet wird um
E(X | Y1 , ..., Yn ) zu berechnen (möglich, da X, Y1 , ..., Yn gemeinsame Dichte besit-
zen).
1 1 C2
(KB1) = 2 +
Vn A Vn 1 + H 2 K 2
bn
X AXbn 1 + g CYn
(KB2) = 2 2
+ 2
Vn A Vn 1 + H K
(KB1) definiert eine Funktion f mit Vn = f (Vn 1 ) und es ist möglich zu zeigen, dass
Vn ! V , wobei V der positive Fixpunkt von f ist, d.h. f (V ) = V mit V > 0.
20
1.4. Diskrete Stochastische Integration
Definition 1.4.1. Sei (Xn )n2N0 ein reeller an die Filtration F := (Fn )n2N0 adaptierter
Prozess und (Hn )n2N ein reellwertiger vorhersagbarer Prozess, d.h. Hn ist Fn 1 -messbar.
Wir definieren den stochastischen Prozess H • X durch (ähnlich wie Riemannsummen)
n
X
(H • X)n := Hm (Xm Xm 1 ) für n 2 N0
m=1
Xn
=: Hm X m
m=1
und nennen H • X das diskrete stochastische Integral von H bezüglich X. Ist X ein
Martingal, so nennen wir H • X auch die Martingaltransformierte von X.
Ein Prozess H = (Hn ) heißt lokal beschränkt, wenn jedes Hn beschränkt ist.
Beweisidee.
00
=)00 Da H lokal beschränkt existieren die Erwartungswerte und mit der Vorhersagbar-
keit von H folgt
00
(=00 Sei n0 2 N0 , dann ist H = (1{n=n0 } )n2N lokal beschränkt und vorhersagbar. Nach
Annahme ist dann H • X ein Martingal und es gilt
nX
0 1
21
Definition 1.4.2. Seien X, Y zwei adaptierte Prozesse. Dann heißt der durch
n
X
[X, Y ]n := X i Yi , n2N
i=1
XY = X0 Y0 + X • Y + Y • X
= X0 Y0 + X • Y + Y • X + [X, Y ]
Satz 1.4.3 (Zeitdiskrete Itō-Formel). Ist X ein adaptierter Prozess und f : R ! R eine
di↵erenzierbare Funktion, dann gilt
n
X
f (Xn ) = f (X0 ) + (f (Xi ) f (Xi 1 ))
i=1
n
X
0
= f (X0 ) + (f (X ) • X)n + (f (Xi ) f (Xi 1 ) f 0 (Xi 1 ) Xi )
i=1
22
2. Grundbegri↵e aus der Theorie der
Markov-Prozesse
Definition 2.1.2. Messräume (⌦0 , A0 ), (⌦00 , A00 ). Abbildung q : ⌦0 ⇥ A00 ! [0, 1] heißt
Übergangswahrscheinlichkeitsmaß [Markovscher Kern] von ⌦0 nach ⌦00 , wenn
a) 8 0 q(x, ·) W-Maß auf A00
x2⌦
Hierfür Schreibweise PY |X .
D.h. q ist eine Abbildung dessen 1. Argument Werte aus ⌦0 nimmt, und dessen 2. Argu-
ment Ereignisse aus A00 nimmt.
Die Existenz der bedingten Verteilung ist gesichert zum Beispiel für (⌦00 , A00 ) = (Rk , Bk ),
im Allgemeinen muss sie aber nicht existieren.
23
Schreibweisen:
P [Y 2 A00 , X = x]
Falls P [X = x] > 0 , dann PY |X (x, A00 ) =
P [X = x]
P(Xtn 1 ,...,Xt1 )
-fast überall
24
qt+s (x, B) ist dieZWs. nach t+s Zeitschritten zum Zeitpunkt 0 vom Startpunkt x ausgehend
in B zu landen. qs (y, B)qt (x, dy) beschreibt die Ws., zum Zeitpunkt 0 von x ausgehend
R
nach t Zeitschritten in einer infinitesimal kleinen Intervall dy zu landen und von dort aus
nach s Zeitschritten in B zu landen.
(Beachte: qt (x, ·) ist ein W-Maß. Wird bezüglich qt (x, ·) über alle y 2 R integriert, so
schreiben wir qt (x, dy).)
Bemerkung 2.2.2. a) Definition 2.2.2 ist sinnvoll. Mit qs , qt ist auch qt qs ein Mar-
kovscher Kern.
b) qt (x, B) mit t 2 R+ , x 2 R, B 2 B, in Definition 2.2.2 ist eine stationäre (oder
zeitlich homogene) Übergangswahrscheinlichkeit von der Stelle x in die Menge B in
einem beliebigen Zeitintervall der Länge t.
Beweisidee.
a) Zuerst muss gezeigt werden, dass qt qs auch ein Markovscher Kern ist. Der Nachweis
von (2) folgt schnell aus der Definition von qs bzw. qt . Um die dritte Eigenschaft ei-
nes Maßes zu zeigen, wird die monotone Konvergenz zum Vertauschen von Integral
und Summe benötigt.
Der Nachweis von (3) folgt über die Approximation von q(·, B) durch Linearkombi-
nationen von Indikatorfunktionen.
Zuletzt muss noch gezeigt werden, dass mit der Chapman-Kolmogorov-Gleichung
tatsächlich eine Halbgruppe (Kommutativität, Assoziativität) definiert ist. Dies
folgt aber direkt.
⇤
Z
1 (y x)2
qt (x, B) := p e 2t dy, t>0
2⇡t B
X t)k
t(
qt (x, B) := qt (0, B x) := e , t 2 R+
k!
k2N0 \(B x)
25
{qt : t 2 R+ } . . . sogenannte Poissonsche Halbgruppe.
Beweisidee.
(2) Dass qt (x, ·) ein W-Maß ist folgt daraus, dass die bedingte Verteilung normalverteilt
ist.
(3) Die Messbarkeit folgt aus der Stetigkeit von qt (·, B).
(4) Umformen der rechten Seite mit Hilfe von Fubini, einer Substitution und der Faltung
N (x, s) ⇤ N (0, t) = N (x, s + t) ergibt die linke Seite.
⇤
Satz 2.2.1 (Konstruktion eines Markovschen Prozesses aus Ausgangsverteilung und Über-
gangsfunktion). Gegeben seien ein W-Maß µ auf B und eine Übergangsfunktion {qt :
t 2 R+ } mit 8
>
< 1, falls x 2 B
q0 (x, B) = (x 2 R, B 2 B) .
>
:
0 sonst
qt 1 t0
(y0 , dy1 )]µ(dy0 ) .
|{z}
:= 0
t1 , . . . , tn 2 R+ verschieden, (x1 , . . . , xn ) 2 Rn , n 2 N .
26
Dieser ist ein Markov-Prozess mit Anfangsverteilung PX0 = µ und stationärer
Übergangswahrscheinlichkeit qt (x, A) (t 2 R+ , x 2 R , A 2 B) , d.h.
d.h. Z
0 00
8 8 8 P [Xs 2 A , Xt+s 2 A ] = qt (x, A00 )PXs (dx) .
t2R+ s 0 A0 ,A00 2B A0
Beweisidee.
a) Wir betrachten nur den Fall n = 2 und wollen zeigen: Ft1 ,t2 (1, x2 ) = Ft2 (x2 ).
Nach der Chapman-Kolmogorov Gleichung (4) gilt
Z
qt 2 t1 (y1 , ( 1, x2 ]) qt1 (y0 , dy1 ) = qt1 +(t2 t1 ) (y0 , ( 1, x2 ]) = qt2 (y0 , ( 1, x2 ])
( 1,1)
Nachrechnen.
⇤
27
2.3. Zur Stetigkeit von Pfaden bei Markov-Prozessen
Definition 2.3.1. Ein stochastischer Prozess (⌦, A, P, {Xt : t 2 R+ }) heißt stetig-
modifizierbar, wenn ein stochastischer Prozess (⌦, A, P, {Yt : t 2 R+ }) existiert mit
(1) 8 P -f.s. Xt = Yt ,
t2R+
8n2N 8t1 ,...,tn 2[0,1] (Xt1 , ..., Xtn ) = (Yt1 , ..., Ytn ) P -f.s.
ti 6=tj | {z }
also PXt ,...,Xtn =PYt ,...,Ytn
1 1
Aber: X(!, ·) ist unstetig für alle ! 2 (0, 1], während Y (!, ·) stetig ist für alle ! 2 [0, 1].
Wir sagen:
{Yt | t 2 [0, 1]} ist eine stetige Modifikation von {Xt | t 2 [0, 1]}.
Satz 2.3.1 (Kinney, Dynkin). Der in Satz 2.2.1 konstruierte Markov-Prozess — mit
Übergangsfunktion {qt ; t 2 R+ } — ist stetig-modifizierbar, falls
Beweisidee. Zum Beweis benötigen wir Lemma 2.3.1 und folgendes Hilfslemma:
28
Für relle ZV X, Y gilt:
Z Z
P ((X, Y ) 2 B | X = x) dPX (x) = P ((x, Y ) 2 B | X = x) dPX (x)
A A
Beweisidee: Wie schon zuvor werden linke und rechte Seite für festes A 2 B
als endliche Maße auf B2 betrachtet und somit genügt es die Gleichung für
B = ( 1, x1 ] ⇥ ( 1, x2 ], x1 , x2 2 R zu zeigen.
Beweisidee. Mit den Voraussetzungen aus Satz 2.3.1 existiert zu " > 0 und t > 0 ein
↵" (t) 2 R+ derart, dass sup qt (x, [x ", x + "]c ) ↵" (t) und ↵" (t) & 0 mit ↵"t(t) ! 0 für
t & 0.
29
Für n 2 N0 , i 2 {0, 1, ..., 2n 1}, " > 0 definieren wir uns
⇢
i 1 j
Am := [max |Xt X in | > "], tm := n
+ n · m | j 2 {1, 2, ..., 2m }
t2tm 2 2 2 2
A := [ sup |Xt X in | > "]
2
t2S\[ 2in , i+1
2n
]
Mit Hilfe der Voraussetzung aus Satz 2.3.1 kann gezeigt werden, dass
8m2N 8n2N 8i2{0,1,...,2n 1} 8">0 P (Am ) 2↵ 2" (2 n ) gilt und da Am % A, folgt mit der
Stetigkeit des W-Maßes P
n
8n2N 8i2{0,1,...,2n 1} 8">0 P (A) 2↵ 2" (2 )
↵" (t)
Mit der -Additivität und der Voraussetzung, dass t
! 0 für t & 0 folgt
n!1
8">0 P( maxn sup |Xt X in | > ") !0
i2{0,1,...,2 1} t2S\[ i i+1 2
,
2n 2n
]
(Da wir mit S schneiden ist sichergestellt, dass wir eine messbare Menge betrachten, da
wir das Supremum über eine abzählbare Menge bilden.)
Dies lässt sich (erneut mit der -Additivität) erweitern zu
&0
8N 2N 8">0 P( sup |Xt Xs | > ") ! 0
t,s2S\[0,N ]
|t s|<
Konvergenz in Ws. impliziert die Existenz einer TF ( k ), für die sogar P -f.s. Konvergenz
gilt und damit ist für alle N 2 N und P -f.a. ! 2 ⌦ der Pfad X(!, ·) S\[0,N ] gleichmäßig
stetig. Aufgrund der Gleichmäßigkeit hängt der Grenzwert auch nicht von der konkreten
Wahl der Folge ( k ) ab und die Behauptung ist gezeigt. ⇤
Satz 2.3.2 (Kinney). Der in Satz 2.2.1 konstruierte Markov-Prozess — mit Übergangsfunktion
{qt : t 2 R+ } — ist modifizierbar (halbseitig stetig modifizierbar) zu einem Prozess mit
Pfaden, die rechtsseitig stetig sind und linksseitige Limiten besitzen, falls für jedes " > 0
Diese Voraussetzung ist schwächer als in (3), da sie keine Forderung an die Konvergenz-
geschwindigkeit stellt.
Man könnte diesen Satz auch für umgekehrt linksseitige Stetigkeit und rechtsseitige Limi-
ten formulieren.
30
2.4. Wiener- und Poisson-Prozess
Definition 2.4.1. Ein stochastischer Prozess X = {Xt : t 2 R+ } mit reellen Zufallsva-
riablen Xt heißt Wiener-Prozess (standardisierte Brownsche Bewegung), wenn
gilt:
8 X0 (!) = 0 ,
!2⌦
8 t 7! Xt (!) , t 2 R+ , ist eine stetige Funktion,
!2⌦
Satz 2.4.1. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 (d.h. die Anfangsvertei-
lung ist auf 0 konzentriert) und der Halbgruppe der Brownschen Bewegung konstruierbare
Markov-Prozess ist stetig-modifizierbar. Die stetige Modifikation ist ein Wiener-Prozess.
Beweisidee. Dies ist zugleich der Beweis der Existenz des Wiener-Prozesses und hat als
tiefliegendes Argument den Satz von Kinney und Dynkin:
a) Mit Satz 2.3.1 lässt sich die stetige Modifizierbarkeit begründen (einfaches Nach-
rechnen mit passenden Substitutionen).
b) Sei (⌦, A, P, {Yt | t 2 R+ }) eine stetige Modifikation von X = {Xt | t 2 R+ }
b1) X0 = 0 P -f.s. nach 2.2.1 wegen µ({0}) = 1, d.h. Y0 = 0 P -f.s. und damit O.b.d.A.
Y0 = 0 für alle ! 2 ⌦.
b2) {qt | t 0} sind translationsinvariant, d.h. 8y2R qt (x, B) = qt (y + x, y + B)
(nachrechnen).
31
Damit kann die (paarweise) Unabhängigkeit der Zuwächse gezeigt werden.
(Ausführlicher:
Z
P (Yt1 2 A1 , Yt2 Yt1 2 A2 ) = P (Yt1 2 A1 , Yt2 Yt1 2 A2 | Yt1 = x) PYt1 (dx)
R
Hilfslemma aus Beweis von Satz 2.3.1
= qt 2 t1 (0, A2 )P (Yt1 2 A1 )
Translationsinvarianz
)
b2)
b3) Für B 2 B ist P (Yt+s Yt 2 B) = qs (0, B) und damit gilt für die Zuwächse
Yt+s Yt ⇠ N (0, s).
b4) Nach Konstruktion von Y gilt: 8!2⌦ Y (!, ·) 2 C([0, 1)).
⇤
Bemerkung 2.4.1 (N. Wiener). Fast sicher sind die Pfade eines Wiener-Prozesses nir-
gends di↵erenzierbar, also auch für kein (Zeit-)Intervall (positive Länge) rektifizierbar.
P
n
Beweisidee. Zeige für Vj,n := |W i W i 1 |j nacheinander
n n
i=1
8 [T t] 2 F(Ws : 0 s t),
t2R+
32
jedes s 2 R+ und jedes B 2 B gilt
Satz 2.4.2. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Poissonschen
Halbgruppe mit Parameter 2 (0, 1) konstruierbare Markov-Prozess ist modifizierbar zu
einem Prozess mit Pfaden, die rechtsseitig stetig sind und linksseitige Limites besitzen.
Dieser Prozess ist ein (homogener) Poisson-Prozess mit Parameter .
Beweisidee.
a) Der Nachweis kann direkt erfolgen mit Satz 2.3.2
Bemerkung 2.4.3. Ein (homogener) Poisson-Prozess gemäß Definition 2.4.2 mit Para-
meter 2 (0, 1) ist ein Zählprozess (oder Erneuerungsprozess) (Nt )t2R0 , definiert durch
Nt := sup{n 2 N0 | Sn t},
Pn
zu Partialsummen Sn := i=1 Xi mit nicht-negativen unabhängigen exp( )-verteilten
“Lebensdauern” Xi und umgekehrt; fast sicher nimmt er also nur Werte 2 N0 an und hat
nur Sprünge der Höhe 1, und zwar abzählbar unendlich viele.
33
2.5. Di↵usionsprozesse
1
ut = uyy , t > 0, y 2 R
2
auch Vorwärtsgleichung des Wiener-Prozesses genannt mit = 1.
Für alle y 2 R ist f (·, ·, y) Lösung von der Wärmeleitungsgleichung
1
(⇤⇤) ut = uxx , t > 0, x 2 R
2
auch Rückwärtsgleichung des Wiener-Prozesses genannt mit = 1.
Die Verteilungsfunktion erfüllt
Z (
y
0 (t ! +0) , falls y < x
F (t, x, y) := f (t, x, ⌘) d⌘ !
1 1 (t ! +0) , falls y > x
In der Grenze für t ! +0 liefert das die Dirac’sche -Funktion, genauer die -Distribution.
eine Überlagerung oder Superposition der Lösungen von (⇤⇤) entsprechend der Gewichts-
funktion w. Auch löst (⇤⇤) mit Anfangsbedingung
(+0, x) = w(x), x 2 R.
34
Definition 2.5.1. Ein Markov-Prozess mit Anfangsverteilung µ und Übergangsfunktion
{qt ; t 2 R+ } (konstruiert gemäß Satz 2.2.1) heißt Di↵usionsprozess, wenn die folgenden
Bedingungen (von Kolmogorov und Feller) erfüllt sind:
1
(1) 8 8 qt (x, [x ", x + "]c ) ! 0 (t ! +0)
">0 x2R t
Z
1
(2) 8 8 (y x)qt (x, dy) ! a(x) (t ! +0)
">0 x2R t |{z}
[x ",x+"] 2R
Z
1
(3) 8 8 (y x)2 qt (x, dy) ! b(x) (t ! +0) .
">0 x2R t |{z}
[x ",x+"] 2 R+
Da wir in (2) und (3) für t ! 0 den Quotienten 00 betrachten, besteht eine Chance, dass
der Quotient gegen einen Wert konvergiert.
a(x) . . . sogenannter Driftkoeffizient (momentaner mittlerer Trend des im Zustand x
befindlichen Prozesses; Trendfunktion; lokaler Trend im Punkt x)
b(x) . . . sogenannter Di↵usionskoeffizient (momentane mittlere quadratische Abwei-
chung; Varianzfunktion; lokale Varianz im Punkt x).
Bemerkung 2.5.1. a) Es genügt wegen (1), in (2) und (3) statt 8 " > 0 nur 9 " > 0
zu fordern.
b) Der Wiener-Prozess mit 2 := V (W1 ) = 1 (standardisierte Brownsche Bewegung) ist
ein pfadstetiger Di↵usionsprozess mit a(x) ⌘ 0, b(x) ⌘ 1; zugehörige Rückwärtsgleichung
(s.O.) ... Wärmeleitungsgleichung.
c) Der sog. Ornstein-Uhlenbeck-Prozess ist ein pfadstetiger Di↵usionsprozess mit
a(x) = ↵x (↵ > 0), b(x) = const > 0.
Beweisidee.
a) Für 0 < "0 < "00 gilt
Z Z
1 2 10
(y x) qt (x, dy) const qt (x, dy) ! 0
t [x "00 ,x+"00 ]\[x "0 ,x+"0 ] t [x "0 ,x+"0 ]c
35
Satz 2.5.1 (Kolmogorov). Sei {qt : t 2 R+ } eine Übergangsfunktion mit (1), (2), (3).
Sei w : R ! R (könnte eine Dichte sein, muss aber nicht) beschränkt und stetig.
Z
(4) (t, x) := w(y)qt (x, dy), t > 0, x 2 R .
R
x und xx sollen existieren und auf (0, 1) ⇥ R stetig sein. Dann existiert t, und
genügt auf (0, 1) ⇥ R der partiellen Di↵erentialgleichung
b
(5) t = |{z}
a x + xx (Rückwärtsgleichung)
2
|{z}
und die Rückwärtsgleichung (5) hängen nicht vom Zufall ab; der Markov-Prozess aber
wird vom Zufall getriggert.
Beweisidee.
a) Zunächst muss gezeigt werden, dass der Rückwärtsgleichung (5) genügt.
Z Z Z Z
(⇤)
(t + h, x) = w(z)qt+h (x, dz) = w(z)qt (y, dz)qh (x, dy) = (t, y)qh (x, dy)
ZR R R R
(⇤) kann mit Hilfe der Standard Machinery of Measure Theory und mit Hilfe der
Chapman-Kolmogorov- Gleichungen gezeigt werden.
Dann kann mit obigen Gleichungen und der Taylor-Schreibweise der Di↵erenzen-
(t + h, x) (t, x)
quotient so umgeformt und abgeschätzt werden, bis
h
(t+h,x) (t,x)
h
! a(x) x (x, t) + b(x)
2 xx (t, x) für h & 0 eingesehen werden kann.
36
Z
| (t, x) w(x)| = w(y) w(x) qt (x, dy)
R
Z
|w(y) w(x)|1[x ,x+ ] (y) qt (x, dy)
ZR
+ |w(y) w(x)|1[x ,x+ ]c (y) qt (x, dy)
R
37
legt (in seinen endlich dimensionalen Verteilungen). In Anwendungen werden daher meist
a und b und nicht {qt | t > 0} vorgegeben.
Insgesamt bedeuted das, dass mit einer Di↵usion , welche der Rückwärtsgleichung (5)
und der Anfangsbedingung (6) genügt, sich ein Markov-Prozess rekonstruieren lässt.
(Ausführlicher:
8
>
> Dann gilt t = 12 xx für x > 0 und t > 0 (Rückwärtsgleichung)
>
>
>
<
(⇤) w : R+ ! R+ beschränkt und stetig gilt
> Für beliebiges
> Z
>
>
>
: (t, x) := w(y) qt (x, dy) , t 2 R+ , x 2 R+
R+
38
Für w(0) = 0 gilt mit dem reformulierten Satz 2.5.1
Betrachtet man (⇤) für jedes beschränkte und stetige w : R+ ! R+ , so kann man
mit Hilfe des Eindeutigkeitssatzes zur Fortsetzung von W-Maßen zeigen, dass die
Familie {qt (x, ·) | t 0, x 2 R+ } auf B+ eindeutig festgelegt ist. Vergleich von (⇤)
und (⇤⇤) liefert
Folgerung:
Z x
1 s2
q1 (x, (0, 1)) = P ( max wt x) = 2 p e 2 ds, x>0
0t1 2⇡ 0
)
d) Für {Xt | t 2 R+ } = {|Wt | | t 2 R+ }, wobei W ein standard Wiener-Prozess ist der
in 0 startet, gilt
Z
1 (y x)2 (y+x)2
qt (x, A) = p e 2t + e 2t dy für x 2 R+ , t > 0, A 2 B+
2⇡t A
39
Denn für qet Übergangsfunktion des Wiener Prozesses gilt
1
qt (x, A) = (e qt (x, ±A) + qet ( x, ±A)
2
= qet (0, A x) + qet (0, A + x)
= qet (x, A) + qet ( x, A)
Außerdem gilt
Bemerkung 2.5.2. Sei C̃(R) der Banach-Raum der gleichmäßig stetigen beschränkten
Funktionen w : R ! R mit sup-Norm || · ||. Sei {qt : t 2 R+ } eine Übergangsfunktion mit
qt (x, ·) ! qt (x0 , ·) schwach für x ! x0 2 R (t 2 R+ ) und
40
Sprungprozess, wenn gilt:
Für (P -fast) alle ! 2 ⌦ ist X(!, ·) stückweise konstant und rechtsseitig stetig mit isolierten
Sprungstellen als einzigen Unstetigkeitsstellen.
Satz 2.6.1. Reiner Sprungprozess wie in Definition 2.6.1. (Wegen der stationären Über-
gangswahrscheinlichkeiten qt (x, B) können im folgenden die Indizes beim stochastischen
Prozess einheitlich um eine positive Konstante erhöht werden.)
T (!) := inf{⌧ 2 R+ |X⌧ (!) 6= X0 (!)}, ! 2 ⌦, . . . Wartezeit bis zum 1. Sprung. (da X
ein rechtsseitig stetiger Prozess ist, wird das Infimum angenommen).
a) Es existiert : (R, B) ! (R+ , B+ ) mit
8
< 1 e (x)t
(t 0)
d.h. 8 P [T t|X0 = x] =
x2R : 0 (t < 0)
Beweisidee.
a) {Xt | t 2 R+ } sei an Markov-Prozess mit stationären Übergangswahrscheinlichkeiten.
Daraus folgt die Gedächtnislosigkeit von PT |X0 =x . Dies ist charakteristisch für die
Exp-Verteilung mit Parameter 0.
b) XT ist unabhängig davon, wie lange der Prozess schon im Punkt x ist (nachrechnen).
c) Plausibel wegen
a)
(⇤) P (T t | X0 = x) = (x) · t + o(t) für t & 0
41
(folgt mit Potenzreihenentwicklung von e-Funktion).
d) 1. Gleichung plausibel wegen (⇤).
2. Gleichung plausibel wegen 1. Gleichung.
⇤
wobei T1 der ZP des 1. Schadens, T2 die Wartezeit bis zum 2. Schaden, ... ist. Weiter
seien {T1 , Y1 , T2 , Y2 , ...} stochastisch unabhängig.
P
Nt
Zt = Yi (Gesamtschadenshöhe bis zum ZP t) ist ein zusammengesetzter Poisson-
i=1
Prozess und ein reiner Sprungprozess mit Anfangsverteilung µ konzentriert auf {0}
(da P (N0 > 0) = 0), mit Übergangswahrscheinlichkeiten {qt | t 2 R+ }.
42
Bedienzeiten der Kunden ist unabhängig identisch Exp( )-verteilt.
Q := {Q(t) | t 2 R+ } mit Q(t) zufällige Länge der Schlange zum ZP t.
Q ist ein sogenannter Geburts- und Todesprozess mit konstanter Geburtsrate und
konstanter Todesrate µ, wobei hier
mit Intensitätsfunktion
(
+ µ , falls x 2 N
(x) =
, falls x = 0
43
3. Stationärer Prozesse
Bemerkung (Dippon) Aus Definition 3.1.1 folgt direkt, dass die Xt identisch verteilt
sind (wähle n = 1).
Aus Definition 3.1.2 folgt direkt, dass alle Xt dasselbe 1. und 2. Moment besitzen (wähle
t = t0 ), identische Verteiltheit folgt nicht mehr.
Es gibt Prozesse, die Definition 3.1.1 erfüllen, aber nicht Definition 3.1.2 und umgekehrt.
D.h. keine von beiden ist eine Verschärfung der anderen.
Stationarität schwächt den Begri↵ der Unabhängigkeit ab.
Beispiel zu Definition 3.1.2. Bei einer Folge quadratisch integrierbarer paarweise un-
korrelierter reeller Zufallsvariablen Zn , n 2 Z, mit EZn = const⇤ , V (Zn ) = const. > 0
ist (Xn )n2Z mit
1
Xn = (Zn + . . . + Zn r ) , bei festem r 2 N,
r+1
44
Begründung der Stationarität:
Satz 3.1.1. Sei {Xt : t 2 R} ein im weiteren Sinne stationärer Prozess mit EXt = 0, t 2
R . Ist die Kovarianzfunktion (Autokovarianzfunktion) ⇢ : R ! C mit ⇢(t) = EXt+s X s
stetig, dann existiert — eindeutig — ein Maß R auf B (das sogenannte Spektralmaß des
Prozesses) mit Z
⇢(t) = ei t R(d ), t 2 R .
R
Hierbei ⇢(0) = R(R) (⇢(0) = V ar(Xs ) = E(Xs2 )) . — Falls die Zufallsvariablen Xt reell
sind, dann ist R symmetrisch bezüglich 0, und es gilt
R
⇢(t) = R
cos( t) R(d ), t 2 R .
Beweisidee. Das tiefliegende Argument dieses Satzes ist der Satz von Bochner!
1. Wir zeigen ⇢ ist eine positiv semi-definite Funktion:
X
8n2N 8(t1 ,...,tn )2Rn 8(z1 ,...,zn )2Cn ⇢(tj tk )zj zk 0
j,k={1,...,n}
| P
{z }
= E(Xtj zj X tk zk )
j,k={1,...,n}
Da ⇢ : R ! C stetig, mit ⇢(0) = 1 und wie eben gezeigt ⇢ positiv semi-definit ist,
folgt mit dem Satz von Bochner, dass ⇢ die charakteristische Funktion eines Wahr-
scheinlichkeit-Maßes ist. Die Folgerung kann auch umgekehrt getro↵en werden.
45
2. Sei Xt reell, t 2 R+ , dann ist auch ⇢ reellwertig und es gilt
Z
⇢(t) = cos( t) R(d )
R
Z
Diese Gleichung und ⇢(t) = ei t R(d ) gelten für R0 mit R0 (B) := R( B), B 2 B
R
(Beweis mit Approximation des Integranten ! cos( t) durch Linearkombinatio-
nen gerader Indikatorfunktionen). Nach dem Eindeutigkeitssatz für charakteristische
Funktionen muss dann R = R0 gelten und damit ist R symmetrisch.
⇤
46
Z
b mit ⇢b(t) =
Nach Satz 3.1.1 existiert ein eindeutiges Spektralmaß R b ) und
ei t R(d
R
b = R⇤ .
damit gilt R ⇤
Definition 3.1.3. Ein reeller stochastischer Prozess (⌦, A, P, {Xt : t 2 R}) heißt Gauß-
Prozess, wenn alle seine endlich-dimensionalen Verteilungen P(X , . . . , X ) , t1 < . . . <
t1 tn
tn , Gaußsch sind, d.h. wenn für jede lineare Abbildung l : Rn ! R die reelle Zufallsvariable
l (Xt1 , . . . , Xtn ) normalverteilt ist (mit unter Umständen zu 0 ausgearteter Varianz). —
Entsprechend für andere Indexbereiche I(⇢ R), insbesondere R+ und [0, 1].
m(t) := EXt ,
(s, t) := Cov (Xs , Xt ) := E(Xs EXs )(Xt EXt ).
Beweisidee. Seien t1 , ..., tn 2 I. Der Gaußsche Zufallsvektor (Xt1 · · · Xtn )T hat den Er-
wartungswertvektor (E(Xt1 ) · · · E(Xtn ))T = (m(t1 ) · · · m(tn ))T und Kovarianzmatrix
(Cov(Xti , Xtj ))i,j2{1,...,n} = ( (Xti , Xtj ))i,j2{1,...,n} und ist nach MWT in seiner Verteilung
dadurch festgelegt.
: I 2 ! R ist symmetrisch und positiv semidefinit.
Eine beliebige reellwertige Funktion m : I ! R und eine beliebige symmetrische positiv
semidefinite Funktion : I ⇥ I ! R lassen sich als Erwartungsfunktion und Kovarianz-
funktion eines Gaußschen Prozesses deuten. Denn diese legen die endlichdimensionalen
Gaußsche Verteilungen fest, die dem Verträglichkeitssatz von Kolmogorov genügen. ⇤
Bemerkung 3.1.1. Im Falle eines Gaußschen Prozesses mit Zustandsraum C fallen Sta-
tionarität und Stationarität im weiteren Sinne zusammen.
Lemma 3.1.1. Für einen Gaußschen (d.h. Gaußsch verteilten) n-dimensionalen Zufalls-
vektor (X1 , . . . , Xn ) liegt genau dann Unabhängigkeit von {X1 , . . . , Xn } vor, wenn die
X1 , . . . , Xn paarweise unkorreliert sind, d.h. wenn die Kovarianzmatrix
47
Beweisidee. Sei X = (X1 · · · Xn )T ein n-dimensionaler Gaußscher Zufallsvektor mit Er-
wartungswertvektor E(X) = (E(X1 ) · · · E(Xn ))T und Kovarianzmatrix
C = (E[(Xi E(Xi ))(Xj E(Xj ))])i,j2{1,...,n} .
Nach MWT ist P(X1 ,...,Xn ) eindeutig festgelegt durch Erwartungswertvektor und Kovari-
anzmatrix. Außerdem ist C positiv semi-definit. Dann folgt die Behauptung des Lemmas.
⇤
Satz 3.1.3. Sei {Xt : t 2 R+ } ein reeller Gauß-Prozess mit EXt = 0, t 2 R+ . Hat die
Kovarianzfunktion : R+ ⇥ R+ ! R die Gestalt
↵|s t|
(s, t) = e (s, t 0)
48
Beweisidee. Beim Gauß-Prozess legen die Erwartungsfunktion und Kovarianzfunktion die
endlich-dimensionale Verteilung fest. Die stochastischen Prozesse
p
{e ↵t
W e2↵t | t 2 R+ } und { e ↵t
W e2↵t | t 2 R+ }
mit ↵, 0 ...
(dies sind Transformationen im Zeit- und Zustandsraum des Wiener-Prozesses. Durch
die Zeittransformation ( ) e2↵t läuft die Zeit mit exponentieller Geschwindigkeit (falls
p
↵, > 0) und durch die Zustandstransformation ( ) e ↵t wird der Zustandsbereich
gedämpft. Dadurch wird der Prozess stationär.)
... bestitzen die im Satz 3.1.3 angegebenen Erwartungs- und Kovarianzfunktion und die
weiteren genannten Eigenschaften.
Die Stationarität im weiteren Sinne ist klar. Da X ein Gauß-Prozess ist, liegt sogar Sta-
tionarität im strikten Sinne vor. Der Prozess besitzt auch die angegebenen Drift- und
Di↵ussionskoeffizienten.
↵|t|
Die charakteristische Funktion der Cauchy-Verteilung lautet t 7! e .
3.2. Ergodensätze
Stationarität bedeutet im Folgenden strikte Stationarität gemäß Definition 3.1.1. Zugrun-
degelegt wird ein W-Raum (⌦, F, P ).
Definition 3.2.1. Die Transformation T : (⌦, F) ! (⌦, A) heißt maßerhaltend, wenn T
F-A-messbar ist und P = P T 1 (T 1 Urbildfunktion), d.h.
1
8 P (A) = P (T (A)).
A2A
(A ⇢ F)
Lemma 3.2.1. Zu jeder stationären Folge (Xn )n2N0 reeller ZVn existieren eine reelle ZV
X auf (⌦, F, P ) und eine maßerhaltende Transformation T : ⌦ ! ⌦ derart, dass
Xn = X T n , n 2 N0
49
(T 0 = Identität, T 1 = T, T 2 = T T usw.) — und umgekehrt.
also Xn = X T n .
T ist maßerhaltend (und messbar), denn mit Stationarität und da (X0 , X1 , ...) Identität
1
P (T (A)) = P ((X1 , X2 , ...) 2 A) = P ((X0 , X1 , ...) 2 A) = P (A).
1
FT := {A 2 F : T (A) = A}
1
(T Urbildfunktion) ist die sog. -Algebra der T -invarianten Mengen.
Lemma 3.2.2. Eine messbare Abbildung X : (⌦, F) ! (R, B) ist genau dann FT -B-
messbar, wenn X T = X.
Beweisidee.
00
=)00 Sei X FT -B-messbar, dann ist T 1 (X 1 (B)) = X 1 (B) für alle B 2 B. Ange-
nommen es existiert ein ! 2 ⌦ mit x1 = X(!) 6= (X T )(!) = x2 . Dann ist
! 2 X 1 ({x1 }) und ! 2 (X T ) 1 ({x2 }), aber dann auch ! 2
/ X 1 ({x2 }), was ein
Widerspruch zu (X T ) 1 (B) = X 1 (B) für alle B 2 B ist.
50
00
(=00 Ist X = X T , dann ist auch X 1 (B) = (X T ) 1 (B) für alle B 2 B, d.h.
(X T ) 1 (B) = X 1 (B) für alle B 2 B und damit X 1 (B) 2 FT .
⇤
Satz 3.2.1 (Individueller Ergodensatz, Birkho↵ 1931). Sei (Xn )n2N0 eine stationäre Folge
integrierbarer reeller ZVn. Dann gilt
n 1
1X
Xi ! E(X0 |AT ) P -fast sicher (f.s.),
n i=0 | {z }
| {z } räumliches Mittel
arithmetisches Mittel
Beweisidee. Es kann mit Lemma 3.2.2 gezeigt werden, dass o.B.d.A. E(X0 | AT ) = 0.
nP1
Setze ZO := lim sup n1 Sn und ZU := lim inf n1 ( Sn ) mit Sn = Xi. Dann genügt es für
n n i=0
FO = [ZO > "] bzw. FU = [ZU < "] zu zeigen, dass P (FO ) = P (FU ) = 0, denn daraus
folgt lim sup n1 Sn 0 bzw. lim inf n1 Sn 0 und damit n1 Sn ! 0.
Dann gilt Fn" % FO und X0" 1Fn" % X0" 1FO mit |X0" 1Fn" | |X0 | + " 2 L1 . D.h. mit dem Satz
der dominierten Konvergenz folgt
n!1
E(X0" 1Fn" ) ! E(X0" 1FO ) = E(X0" ).
n!1
0 E(X0" 1Fn" ) ! E(X0" ) = " · P (FO ) 0,
51
Bemerkung 3.2.1. Sei {Xt : t 2 R+ } ein stationärer Prozess mit Zustandsraum R. Dann
existiert eine integrierbare reelle ZV X̃ derart, dass
Z s
1
Xt dt ! X̃ (s ! 1) f.s.,
s 0
wobei E X̃ = EX0 .
Lemma 3.2.3 (maximal ergodic theorem). Sei X eine integrierbare reelle ZV und T :
P
⌦ ! ⌦ eine maßerhaltende Transformation. Mit Sk := ki=01 X T i und
Mn := max{0, S1 , . . . , Sn }
gilt (1 Indikatorfunktion)
E(X 1[Mn >0] ) 0, n 2 N.
Weiter gilt
(1) (2)
E(X0 1[Mn >0] ) E((max{S1 , ..., Sn } Mn T )1[Mn >0] ) E(Mn Mn T ) = 0,
Definition 3.2.3. Eine stationäre Folge (Xn )n2N0 reeller ZVn mit maßerhaltender Trans-
formation T : ⌦ ! ⌦ (gemäß Definition ) heißt ergodisch, wenn für A 2 A
1
T (A) = A =) P (A) = 0 oder 1.
52
Korollar 3.2.1. Sei (Xn )n2N0 eine stationäre ergodische Folge integrierbarer reeller ZVn.
Dann gilt
n 1
1X
Xi ! EX0 f.s.
n i=0
D.h. der Grenzwert ist ausgeartet, bzw. konzentriert auf einen Punkt und damit f.s. reell.
Bemerkung 3.2.2. Eine unabhängige Folge identisch verteilter (reeller) ZVn ist eine
stationäre ergodische Folge.
Beweisidee.
a) Stationarität nach Definition 3.1.1 klar!
b) Nach Lemma 3.2.1 kann Xn dargestellt werden als Xn = X T n auf (⌦, A, P ),
wobei ⌦ = RN , A durch Zylinermengen erzeugt und P das Produkt-W-Maß (wegen
Unabhängigkeit) ist. Dann gilt
1 n
A 2 AT () T (A) = A () 8n2N T (A) = A,
d.h. [(X0 , X1 , ...) 2 A] = A hängt nicht von den ersten endlich vielen Folgegliedern
ab und damit ist A ein terminales Ereignis und somit nach dem 0-1-Gesetz von
Kolmogorov P (A) 2 {0, 1}.
⇤
Korollar 3.2.2 (Kolmogorovsches starkes Gesetz der großen Zahlen). Für eine unabhängige
Folge (Xn )n2N0 identisch verteilter integrierbarer reeller ZVn gilt
n 1
1X
Xi ! EX0 f.s.
n i=0
Satz 3.2.2 ((Lp -Ergodensatz, von Neumann, 1931). Sei (Xn )n2N0 eine stationäre Folge
Lp -integrierbarer reeller ZVn (p 1). Dann gilt
n 1
1X
Xi ! E(X0 |FT ) in Lp (P )
n i=0
mit T gemäß Lemma 3.2.1. Ist (Xn )n2N0 sogar ergodisch, so gilt
n 1
1X
Xi ! E(X0 ) in Lp (P ).
n i=0
53
Beweisidee. Es gilt: Eine Folge Xn konvergiert in Lp genau dann, wenn sie in Wahrschein-
lichkeit konvergiert und |X|p -gleichgradig integrierbar ist.
p
1 nP1
Sei Yn := Xn E(X0 | FT ) gleichgradig integrierbar. Nach dem individuellen
n k=0
Ergodensatz von Birkho↵ ist Yn ! 0 P -f.s., also auch Yn ! 0 in Lp . ⇤
Beispiel (Anwendung des Ergodensatzes; Rekurrenz von Irrfahrten) Sei (Xn )n2N0
P
n
ein stationärer Prozess mit Werten in Rd . Wir betrachten die Irrfahrt Sn := Xk , S0 = 0.
k=1
Weiter sei Rn := |{S1 , ..., Sn }| die Anzahl der bis zum ZP n von der Irrfahrt besuchten
Punkte und A := {8n2N Sn 6= 0} ein Fluchtereignis, d.h. das Ergeinis, dass die Irrfahrt
nie mehr zum Punkt 0 zurückkehrt. Dann gilt
1
lim Rn = P (A | AT ) P -f.s.
n!1 n
n
X m
Rn m + 1Am T k.
k=1
Da Am & A und |1Am | 1 folgt mit dem Satz von der dominierten Konvergenz für
bedingte Erwartungswerte P (Am | AT ) ! P (A | AT ) f.s. und zusammen mit dem
Ergodensatz folgt dann
m n
1 m 1X
lim sup Rn lim lim sup + 1A T k = lim 0 + P (Am | AT ) = P (A | AT ).
n n m n n n k=1 m m
54
3.3. Zeitreihen
Definition 3.3.1. Eine Zeitreihe ist ein stochastischer Prozess X = {Xt : t 2 T } mit
Indexbereich T = N oder = Z mit reell- oder komplexwertigen Zufallsvariablen Xt .
X t = m t + s t + Zt
Hier ist mt der Trend, st der saisonale Trend und Zt das Rauschen, von dem man annimmt,
dass er stationär verteilt ist (ein Spezialfall wäre das weiße Rauschen).
55
Der ganze folgende Abschnitt ist nicht so wichtig
Die mit diesen optimalen Koeffizienten gebildete Trendfunktion werde mit m̂ bezeichnet.
Beispiel: mi (t) = ti , i = 0, . . . , k.
d
1X
ŝr := s̃r s̃j , r = 1, . . . , d
d j=1
Pd
kann erreicht werden, dass für die saisonalen Anteile ŝ1 , . . . , ŝd stets r=1 ŝr = 0. An-
schließend wird ŝr auf r = d + 1, . . . , n periodisch fortgesetzt.
Definition 3.3.2. Eine Zeitreihe {et : t 2 Z} heißt weißes Rauschen, falls Eet = 0,
var(et ) = 2 2 (0, 1) und die et unkorreliert sind.
Das weiße Rauschen {et : t 2 Z} bildet einen stationären Prozess mit Autokovarianzfunk-
tion ⇢, wobei ⇢(0) = 2 und ⇢(h) = 0 für h 2 Z \ {0}.
56
bq 6= 0, falls für ein weißes Rauschen {et : t 2 Z} gilt:
p q
X X
8 Xt + a⌫ X t ⌫ = bµ e t µ + et
t2Z
⌫=1 µ=1
3.3.4. Vorhersage
Vorhersagen sind schwierig, insbesondere wenn sie die Zukunft betre↵en. Karl Valentin
Soll Xt+k auf der Basis von Xt , . . . , X1 vorhergesagt werden, so liefert die bedingte Ver-
teilung PXt+k |Xt ,...,X1 die vollständige Beschreibung dieser Frage. Soll spezieller ein kon-
kreter Wert vorhergesagt b
R werden, so kann dies z.B. durch bedingte Erwartung Xt+k :=
E(Xt+k |Xt , . . . , X1 ) = R x PXt+k |Xt ,...,X1 (dx) geschehen. Da die gemeinsame Verteilung
der Zufallsvariablen X1 , . . . , Xt , Xt+k meist nicht bekannt oder nur schwer zu schätzen
ist, verwendet man in der Praxis häufig Schätzer für Xt+k , die sich als Linearkombination
von Xt , . . . , X1 darstellen lassen.
Satz 3.3.1. Sei X = {Xt : t 2 Z} ein reeller zentrierter stationärer Prozess mit Auto-
kovarianzfunktion ⇢. Der beste lineare Prädiktor Xbt+k von Xt+k (k 2 N), basierend auf
Xt , . . . , X1 , ist gegeben durch
t
X
bt+k :=
X ai Xt+1 i ,
i=1
erfüllen.
Ist ⇢ bekannt, so ergibt sich a = (a1 . . . , at ) als Lösung des linearen Gleichungssystems
Aa = b, wobei A = (Aij ) mit Aij = ⇢(|i j|) und b = (bj ) mit bj = ⇢(j +k 1). Eine solche
Lösung a existiert immer, ist aber u.a. nicht eindeutig bestimmt. Im Gegensatz dazu ist
aber die Vorhersage X bt+k immer eindeutig. Ist ⇢ unbekannt, so kann stattdessen mit dem
Schätzer ⇢b gearbeitet werden. Die Levinson-Rekursion stellt eine effizientes Verfahren zur
Berechnung des linearen Prädiktors zur Verfügung. Lässt sich eine vorliegende Zeitreihe
in einen Trendanteil, einen saisonalen Anteil und einen stationären Anteil zerlegen, so
kann eine Vorhersage dieser Zeitreihe durch Extrapolation des Trendanteils, saisonalem
Einfluss und vorhergesagtem Wert des stationären Anteils angegeben werden.
57
4. Stochastische Integration
8 8 B2F
A2F mit P (A)=0 B⇢A
Wir gehen in Zukunft immer davon aus, dass alle betrachteten -Algebren vollständig
sind.
Definition 4.1.3. X sei ein an die Filtration F adaptierter stochastischer Prozess mit
E|Xt | < 1 (für Maßintegrale fallen Endlichkeit für Xt und für |Xt | zusammen) für alle
t 2 T . X ist ein Martingal (oder Submartingal oder Supermartingal) bzgl. F, falls
(mit “ ” bzw. “” anstatt “=”). Wird die Filtration nicht explizit erwähnt, ist immer
die kanonische Filtration F = {Ft | t 2 T } mit Ft = ({Xs | s t}) gemeint, manchmal
ist aber eine feinere Filtration notwendig.
Satz 4.1.1 (Optional Sampling Theorem). Sei X = (Xt )t 0 ein rechtsstetiges Martingal
und , ⌧ zwei Stoppzeiten mit ⌧ . Ist ⌧ beschränkt (und damit auch ) oder X
gleichgradig integrierbar, so sind X und X⌧ 2 L1 und
E(X⌧ |F ) = X
58
Satz 4.1.2 (Optional Stopping Theorem). Sei X = (Xt )t 0 ein rechtsstetiges Martin-
gal und ⌧ eine Stoppzeit. Dann ist das gestoppte Martingal X ⌧ := (Xt^⌧ )t 0 wieder ein
Martingal. Ist ⌧ beschränkt oder X gleichgradig integrierbar, so sind X⌧ 2 L1 und
E(X⌧ ) = E(X0 )
Satz 4.1.3. Ist X = (Xt )t 0 ein adaptierter integrierbarer und rechtsstetiger Prozess, so
ist X genau dann ein Martingal, falls E(X⌧ ) = E(X0 ) für jede beschränkte Stoppzeit ⌧ .
(ii)
8 sup Xt p0 lim kXtp kLp
p>1 t 0 t!1
Lp
1 1
wobei p0 die zu p konjugierte Zahl ist, d.h. p
+ p0
= 1.
Beweisidee.
(i) Wir betrachten zunächst X auf I 2 N0 . Sei > 0 beliebig aber fest. Wir definieren
die Stoppzeit ⌧ := inf{k 2 I | Xk } ^ n. Mit dem Optional Sampling Theorem
⇤ :=
und Xn sup Xk folgt
kn
1
P (Xn⇤ ) p
E(Xnp ),
Jetzt sei D ⇢ [0, 1) eine dichte Teilmenge und Dn ⇢ D endlich mit Dn % D. Mit
der Rechtsstetigkeit (wird benötigt, damit sup messbar) von X folgt durch Limes-
Bildung und mit dem bereits gezeigten
1
P (sup Xt ) lim p
E(Xtp ).
t 0 t!1
1
8 >0 P ( sup |Xt | ) E(|XT |).
t2[0,T ]
Dies ist eine schöne Abschätzung für den Wiener Prozess über endliche Intervalle.
59
(ii) Sei p > 1 und K > 0 und n 2 N. Dann kann zusammen mit (i) durch Abschätzen
der mit K gestutzten Integrale
p
kXn⇤ kLp kXnp kLp
p 1
gezeigt werden. Dies kann durch Dn % monoton wachsende Folge endlicher Mengen
und Limes-Bildung auf (0, 1) erweitert werden.
⇤
Lemma 4.1.1. Sei p 1 und für alle n 0 seien (Xtn )t 0 Martingale in Lp dergestalt,
dass
8 9 et
Xtn ! X in Lp (n ! 1)
t 0 et 2Lp
X
Dann gilt
e t )t
(i) (X 0 ist ein Martingal
(ii) Falls zusätzlich X 1 , X 2 , . . . P -f.s. stetig und p > 1, existiert eine stetige Modifikation
X von X e mit
n p
8 Xt ! Xt in L (n ! 1)
t 0
Definition 4.1.5. Eine Folge ⇡ = (⇡ n )n2N heisst zulässige Zerlegungsfolge des Inter-
valles [0, 1), falls ⇡ n = {0 = tn0 < tn1 < tn2 < . . .} mit ⇡ 1 ⇢ ⇡ 2 ⇢ . . ., ferner sup ⇡ n = 1 für
jedes n und |⇡ n | := {min |t0 t| : t, t0 2 ⇡ n } ! 0 (n ! 1), wobei t0 2 ⇡ n der Nachfolger
von t 2 ⇡ n . Durch ⇡Tn := (⇡ n \ [0, T ]) [ {T } wird eine zulässige Zerlegung des Intervalles
[0, T ] definiert.
Satz 4.1.5. Sei M ein stetiges lokales Martingal. Dann existiert ein eindeutig bestimmter
stetiger monoton wachsender adaptierter Prozess (Kompensator) ([M ]t )t 0 mit [M ]0 = 0
, so dass
(Mt2 [M ]t )t 0 ein stetiges lokales Martingal ist,
wobei (Mt2 ) ein lokales Submartingal und [M ]t von beschränkter Totalvariation ist. Dieser
Prozess ([M ]t )t 0 , der sogenannte quadratische Variationsprozess von M , besitzt die
Darstellung X
8 lim (Mt0 Mt )2 = [M ]T P -stochastisch
T 0 n!1
n
t,t0 2⇡T
60
Beweisidee.
1. Sei M ein stetiges lokales Martingal mit 9C>0 8t 0 |Mt | C f.s. Dann ist M
ein (eigentliches) stetiges Martingal (nutze dafür lokalisierende Folge von SZ und
bedingte Version vom Satz von der dominierten Konvergenz). Mit
⇡Tn := (⇡ n \ [0, T ]) [ {T } definieren wir
X
UTn := (Mt0 Mt ) 2
n
t2⇡T
X
NTn := 2 Mt (Mt0 Mt ), (Martingaltransformierte von M bzgl. M , ⇡Tn endlich)
n
t2⇡T
Dann ist (UTn )n2N für alle T 0 eine L2 -Cauchy-Folge und damit auch (NTn ).
2. Sei M ein stetiges lokales Martingal und (⌧N )N 2N eine lokalisierende Folge von SZ
und
⌧N0 := inf{t 0 | |Mt | N } ! 1 (N ! 1).
d.h.
Mit 1., Lemma 4.1.1 und da n ! 1 gibt es einen stetigen stochastischen Prozess
[M ]T mit
8T 0 UTn ! [M ]T in L2
61
Satz 4.1.6. Sei M ein stetiges lokales Martingal mit M0 = 0 und ⌧ eine Stoppzeit mit
E([M ]⌧ ) < 1. Dann ist E(M⌧ ) = 0, M ⌧ ein L2 -beschränktes Martingal und
E(M⌧2 ) = E([M ]⌧ )
falls k n k ! 0 für n ! 1.
(Der Grenzwert existiert nicht im (P )-f.s. Sinne.)
Korollar 4.2.1. Die Totalvariation einer Brown’schen Bewegung W ist auf jedem Inter-
vall [a, b], a < b, f.s. nicht endlich, d.h.
( n
)
X (n) (n)
|W |[a,b] := sup |Wt(n) Wt(n) | | a = t0 < t1 n = b, n 2 N
< . . . t(n) = 1 f.s.
i i 1
i=1
Damit ist klar, dass eine pfadweise Definition eines stochastischen Integrals im Sinne von
Riemann-Stieltjes (ohne weitere Einschränkungen) nicht möglich ist. Alternativ kann eine
Definition unter Verwendung der L2 - oder stochastischen Konvergenz angestrebt werden.
Satz 4.2.2. Es gilt für die Auswertung am linken bzw. rechten Gitterpunkt:
n
X 1
Ln := Wt(n) (Wt(n) Wt(n) ) ! (Wb2 Wa2 (b a)) in L2 (P ),
i=1
i 1 i i 1 2
Xn
1
Rn := Wt(n) (Wt(n) Wt(n) ) ! (Wb2 Wa2 + (b a)) in L2 (P ),
i=1
i i i 1 2
falls k nk ! 0 für n ! 1.
62
Rt
Bemerkung 4.2.1. 1) Wird der Limes von Ln oder Rn zur Definition von 0 Ws ds ver-
wendet, so erhält man als stochastisches Integral Lt := 12 (Wt2 t) bzw. Rt := 12 (Wt2 +t).
Der Prozess R = (Rt )t 0 ist im Gegensatz zu L = (Lt )t 0 jedoch kein Martingal (bzgl.
der vom Integrator W erzeugten Filtration). Soll das zu definierende stochastische Inte-
gral die Martingaleigenschaft besitzen, sollte der Integrand bei den approximierenden
Riemann-Stieltjes-Summen am linken Gitterpunkt ausgewertet werden.
Rt
2) Eine sinnvolle Definition des stochastischen Integrals Xt = 0 W1 dWs , 0 t 1 sollte
den Prozess (W1 Wt )0t1 , liefern. Da dieser Prozess jedoch auch kein Martingal ist,
betrachtet man Integranden, welche zur Filtration des Integrators nicht adaptiert sind,
als nicht zulässig.
E ist eine Klasse von Stoch. Prozessen, die auf Grund ihrer Konstruktion stückweise
konstant und linksseitig stetig sind. Darum sind diese auch pfadweise integrierbar und die
Pseudo Norm ist wohldefiniert.
Definition 4.3.2. Das stochastische Integral
✓Z t ◆
H • W = (H • Wt )t2[0,1] = Hs dWs
0 t2[0,1]
Dies ist wieder ein stochastischer Prozess, wobei • stärker bindet, d.h. wir sagen für H •Wt
”H integriert bzgl. W zum Zeitpunkt t”.
63
Satz 4.3.1. (i) Die Abbildung
ist eine lineare Isometrie. Hierbei ist I(H)1 als elementares stochastisches Integral
eine ZV.
(ii) Der Prozess H • W ist ein L2 -beschränktes stetiges F-Martingal (ein pfadstetiges
Martingl bzgl. der von W erzeugten Filtration).
Beweisidee.
(i) Mit Hilfe der Teleskopsummen-Darstellung von I(H)tn , welches hier zu betrachten
reicht, gilt
n
X
kI(H)1 k2L2 (P ) = kI(H)tn k2L2 (P ) = E(hi 1 )2 (ti ti 1 ) = kHk2E
i=1
Da die Linearität klar ist, folgt dass I : (E, k · kE ) ! (L2 (P ), k · kL2 (P ) ) eine lineare
Isometrie ist.
(ii) Wir nutzen Satz 4.1.3. Sei ⌧ eine beschränkte Stoppzeit. Mit W ⌧ ist Martingal nach
Satz 4.1.2 folgt mit Bedingen auf Ft 1
n
X n
X
E(I(H)⌧ ) = E(hi 1 (Wt⌧i Wt⌧i 1
)) = 0 = 0 = E(I(H)0 ).
i=1 i=1
Bemerkung (Dippon) Wir wollen E vervollständigen zu dem Raum, der alle vorher-
sagbaren stochastischen Prozesse mit endl. Norm (die noch zu definieren ist) enthält. Auf
diesem Raum wollen wir auch unsere Integralbegri↵e fortsetzen.
Definition 4.3.3. Ein reellwertiger stochastische Prozess X = (Xt )t 0 heißt
(i) produktmessbar, falls X : (⌦ ⇥ R+ ) ! R, (!, t) 7! Xt (!) messbar ist bezüglich
F ⌦ B([0, 1))-B, kurz X 2 L,
(ii) progressiv messbar, falls für jedes t 0 die Abbildung ⌦ ⇥ [0, t] ! R : (!, t) 7!
Xt (!) messbar ist bezüglich Ft ⌦ B([0, t])-B, kurz X 2 ⇧,
64
(iii) vorhersagbar (messbar), falls (!, t) 7! Xt (!) messbar ist bezüglich der vorher-
sagbaren -Algebra
kurz X 2 P.
Dies sind mögliche Erweiterungen von E.
Bemerkung (Dippon) Ist Xt ein stochastischer Prozess, so ist Xt für alle t > 0
Ft -B-messbar. Die Produktmessbarkeit verschärft diese Eigenschaft weiter. Weiter gilt:
X vorhersagbar messbar =) X progressiv messbar =) X produktmessbar.
Außerdem gilt: X adaptiert und linksstetig, dann auch X vorhersagbar messbar. Dies
folgt mit Rechtsstetigkeit nicht unbedingt.
Bemerkung 4.3.1. 1) Jedes H 2 E ist vorhersagbar. Damit ist auch H • W (nach dem
Martingaltransformationssatz) wieder ein Martingal. Um auch bei unstetigen Integra-
toren die Martingaleigenschaft des Integral zu sichern, wird die Vorhersagbarkeit des
Integranden benötigt (siehe Vorlesung Stochastische Analysis).
2) Ist H progressiv messbar, so ist es auch produktmessbar und adaptiert. Umgekehrt,
ist H produktmessbar und adaptiert, so ist H nicht notwendigerweise auch progressiv
messbar, es exisitert aber eine progressiv messbare Version von H.
Satz 4.3.2. Ist H adaptiert und rechts- oder linksstetig, so ist H progressiv messbar. Ist
H adaptiert und f.s. rechts- oder linksstetig, so existiert eine Version von H, die progressiv
messbar ist. Insbesondere ist jeder vorhersagbare Prozess progressiv messbar.
Wir betrachten eine Folge linearer Unterräumen der auf ⌦ ⇥ [0, 1) definierten Klasse
stochastischer Prozesse:
65
✓Z 1 ◆
Beweisidee. Sei H progressiv messbar und E Ht2 dt < 1. Es genügt zu zeigen,
0
dass für jedes T > 0 eine Folge (H n )n2N in E existiert, mit
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0
Denn für T groß genug kann H n so gewählt werden, dass für n groß genug
gilt.
n 1
2P
1. Sei H stetig und beschränkt. Setze Htn := Hi2 nT 1t2(i2 n T,(i+1)2 n T ] 2 E. Dann
i=0
folgt mit dem Satz von der dominierten Konvergenz für P ⌦ :
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0
Z t^T
2. Sei H progressiv messbar und beschränkt. Setze Htn := n Hs ds. Dann ist
1
(t n
)_0
H n stetig, adaptiert und beschränkt und nach dem Hauptsatz der Di↵erential- und
Integralrechnung von Lebesgue (H ist nicht unbedingt stetig) folgt
Htn (!) ! Ht (!) für -f.a. t 2 [0, T ]. Durch zweimaliges Anwenden des Satzes der
dominierten Konvergenz (oder Fubini) ergibt sich
✓Z T ◆
n!1
E (Hs Hsn )2 ds ! 0.
0
✓Z T ◆
3. Sei H progressiv messbar und E Hs2 ds < 1. Nach Schritt 2 genügt es zu
0
zeigen, dass es eine Folge von beschränkten progressiv messbaren Prozessen (H n )
gibt, so dass ✓Z T ◆
n 2
E (Hs Hs ) ds ! 0.
0
Wählen wir Htn := Ht 1{|Ht | n} , dann ist (H n ) progressiv messbar und beschränkt
und erfüllt das Gewünschte.
⇤
66
Die grundlegende Idee ist, H mit einer Folge einfacher Prozesse zu approximieren. Da-
mit ist dies Folge einfacher Prozesse eine Cauchy-Folge und diese überträgt sich dank
der linearen Isometrie auf die Folge der elementaren stochastischen Integrale. Da L2 (P )
vollständig ist, konvergiert die Folge der elementaren stochastischen Integrale und wir
haben einen Grenzwert.
D.h. wir verwenden das Prinzip Fortsetzung durch Stetigkeit.
ist definiert durch die stetige Fortsetzung der Abbildung I1 : E ! L2 (P ) auf den Ab-
schluss E von E. Konkret: Ist (H n ) eine Folge in E mit kH n HkL2 (P ⌦ ) ! 0, dann wird
I(H)1 (hier ist nicht lim gemeint!) durch
t!1
definiert. I(H)1 ist eine ZV, die einen Abschluss darstellt bzgl. des (uns (noch) nicht
bekannten) Itô Prozesses.
Sei H ein stochastischer Prozess. Dann ist der zum zufälligen Zeitpunkt ⌧ gestutzte
Prozess H (⌧ ) definiert durch
(⌧ )
Ht := Ht · 1{t⌧ }
Zur Erinnerung: Der zum zufälligen Zeitpunkt ⌧ gestoppte Prozess H ⌧ wurde definiert
durch
Ht⌧ := Ht^⌧
Satz 4.3.4. (i) Die Abbildung I1 : ⇧2 ! L2 (P ) ist linear und es gilt die Itô-Isometrie
Z 1
E I(H)21 =E Hs2 ds
0
ein L2 -beschränktes F-Martingal definiert, das eine stetige Modifikation I(H) besitzt.
e
Dies ist wichtig, da I(H) t im Allgemeinen hochgradig unstetig sein kann.
e
I(H) t bzw. I(H)t werden Ito-Prozess genannt. Nach (ii) können wir o.B.d.A. annehmen,
67
dass der Ito-Prozess pfadstetig ist. Nach (i) ist das Ito-Integral der Abschluss des Ito-
Prozesses.
Beweisidee.
(i) Nach Definition 4.3.4 (und da für H 2 E: kHkE = kHkL2 (P ⌦ ) ) gilt
Ito-Isometrie für
E((I(H)1 )2 ) = lim E((I(H n )1 )2 ) = k lim H n k2L2 (P ⌦ )
n!1 el. stoch. Prozesse n!1
✓Z ◆
= kHk2L2 (P ⌦ ) = E
2
Ht dt
(ii) Sei (H n ) eine Folge in E mit kH n HkL2 (P ⌦ ) ! 0. Dann gilt mit Satz 4.3.1:
e n )1 ist Abschluss des Martingals (I(H
I(H e n )t )t2[0,1) . (⇤)
Weiter gilt
✓Z 1 ◆
n (t) (t) 2
(⇤⇤) k(H ) H k E (Hsn 2
Hs ) ds = kH n Hk2 ! 0
0
(⇤⇤) (⇤)
e
I(H) (t) n (t) e n
t = I(H )1 = lim I((H ) )1 = lim E(I(H )1 | Ft ) = E(I(H)1 | Ft ).
n!1 n!1
Die letzte Gleichung gilt, da kE(Xn | F) E(X | F)k2L2 E(|Xn X|2 ) ! 0, wenn
kXn Xk2L2 ! 0.
e
Also ist I(H) ein L2 -beschränktes Martingal mit
8t 0
e
I(H n )t ! I(H) t in L2 (P ).
e
Noch zu zeigen: I(H) besitzt pfadstetige Modifikation I(H) (I(H) ist der uns un-
bekannte Ito-Prozess, dessen Abschluss I(H)1 ist), d.h. dass für alle t 2 [0, 1) gilt:
e
I(H) t = I(H)t P -f.s.
1
P ( sup |I(H n )t I(H m )t | > ") 2
E(|I(H n H m )1 |2 )
t2[0,1) "
Ito-Isometrie 1
= kH n H m k2L2 (P ⌦ ) !0
"2
für m, n ! 1, da (H n ) CF in E.
Mit einer geeigneten Teilfolge und Lemma von Borel Cantelli lässt sich zeigen, dass
68
für P -f.a. ! ein kn (!) existiert mit
D.h. I(H nk )t (!) ist gleichmäßig konvergent gegen einen pfadstetigen Prozess I(H)
e
für P -f.s. !. Da aber auch für alle t 0 gilt, dass I(H nk )t ! I(H) 2
t in L (P ), muss
gelten
e
8t 0 I(H)t = I(H) t P -f.s.
e
Die Ausnahmemenge, für die I(H) t nicht stetig ist, hängt stark von t ab.
Definition 4.3.5. Sei I(H) die stetige Modifikation des Martingals (I(H (t) )1 )t 0 im
letzten Satz. Das Itô-Integral von s bis t von H 2 ⇧2 bezüglich W ist definiert durch
Z t
Hr dWr := I(H)t I(H)s für 0 s t 1
s
R⌧
Ist ⌧ eine Stoppzeit, wird 0
Hs dWs durch
✓Z ⌧ ◆
Hs dWs (!) := I(H)⌧ (!) (!)
0
69
und damit folgt die Behauptung direkt aus der Definition des Ito-Integrals für Pro-
zesse aus E.
Sei jetzt ⌧ eine beliebige Stoppzeit und ⌧n := 2 n d2n ⌧ e, n 2 N. Dann gilt ⌧n ⌧ und
⌧n nimmt nur werte in unserem Gitter an. Weiter ist ⌧n immernoch eine Stoppzeit
und ⌧n & ⌧ auf ⌦. Da I(H)t stetig in t ist, folgt für alle !
Z ⌧
Hs dWs = lim I(H)⌧n = lim I(H (⌧n ) )1 .
0 n!1 n!1
Jetzt wollen wir uns von der strengen Integrierbarkeitsvoraussetzung in der Definition von
⇧2 durch die Idee der Lokalisierung von Prozessen lösen, denn ⇧2 ist für die Integration
zu klein, da z.B. allein der Wienerprozess nicht in ⇧2 liegt:
70
Definition 4.3.6. Sei ⇧2loc der Raum der progressiv messbaren stochastischen Prozesse
H mit Z T
8 Hs2 ds < 1 f.s.
T >0 0
Lemma 4.3.2. Für jedes H 2 ⇧2loc existiert eine Folge (⌧n )n2N von Stoppzeiten mit ⌧n " 1
R⌧
fast sicher und E 0 n Hs2 ds < 1, also mit H (⌧n ) 2 ⇧2 für jedes n 2 N.
Z t
Beweisidee. Sei H 2 ⇧2loc und ⌧n := inf{t 0 | Hs2 ds n}. Dann folgt nach
0
Definition von ⇧2loc , dass ⌧n % ((⌧n ) kann nicht beschränkt sein), H (⌧n ) 2 ⇧2 und
✓Z 1 ◆ ✓Z ⌧n ◆
(⌧n ) 2
kH k =E Hs2 1{s⌧n } ds =E Hs2 ds .
0 0
Definition 4.3.7. Sei H 2 ⇧2loc und ⌧n " 1 wie in Lemma 4.3.2. Für jedes t 0 wird
das Itô-Integral von H definiert als der fast sichere Grenzwert
Z t Z t
(4.1) Hs dWs := lim Hs(⌧n ) dWs
0 n!1 0
Beweisidee.
(i) Nach Lemma 4.3.1 (ii) gilt auf [⌧n t]
Z t Z t
Hs dWs = Hs(⌧n ) dWs
0 0
71
stetig integrierbar (Satz 4.3.4 (ii)) und ist unabhängig von der Wahl (⌧n ).
(ii) Folgt mit Satz 4.3.4
(iii) Für die Wahl ⌧n := n folgt die Behauptung aus (ii).
⇤
RT
Satz 4.3.6. Sei H 2 {H 2 ⇧ | E 0 Hs2 ds < 1 für jedes T < 1} (dieser Raum liegt
zwischen ⇧2 und ⇧2loc ). Dann wird durch
Z t
Mt := Hs dWs , t 0,
0
Beweisidee.
1. Teil folgt direkt aus dem Satz 4.3.5 (iii).
Z t Z t
2
2. Da Mt und 2
Hs ds stetig sind, ist auch Nt := Mt Hs2 ds stetig in t. (Nt )t 0 ist
0 0
o↵ensichtlich adaptiert an F = (Ft )t 0 . Da für eine beliebige Stoppzeit ⌧ mit Hilfe
der Ito-Isometrie gezeigt werden kann, dass E(N⌧ ) = 0, folgt nach dem Optional
Sampling Theorem, dass (Nt )t 0 ein Martingal ist.
⇤
Rt
Korollar 4.3.1. Ist H 2 ⇧2loc , so ist das Itô-Integral Mt := 0 Hs dWs , t 0, ein stetiges
Rt
lokales Martingal mit quadratischem Variationsprozess [M ]t = 0 Hs2 ds, t 0.
Beweisidee. Da H 2 ⇧2loc existiert eine Folge von Stoppzeiten ⌧n mit ⌧n % 1 f.s. und mit
Lemma 4.3.2 gilt
✓Z ⌧n ◆
8n2N E Hs2 ds < 1 und H (⌧n ) 2 ⇧2 .
0
Dann ist (Mt⌧n )t 0 für n 2 N ein stetiges quadratintegrierbares Martingal nach Satz 4.3.6.
Aufgrund der Eindeutigkeitsaussage in Satz 4.1.5 folgt
Z t
8t 0 [Mt ] = Hs2 , ds.
0
72
⇤
Rt
Das Integral 0 F 0 (Xs ) dXs heißt (pfadweise definiertes) Itô-Integral (zur Partitionen-
folge ⇡). Das hier definierte Ito-Integral stimmt für X = Ws mit der in 4.3 definierten
L2 -Konstruktion des Ito-Integrals überein.
Z
1 t 00
Der Summand F (Xs ) d[X]s ist die sogenannte Ito-Korrektur und tritt auf, falls X
2 0
nicht von endlicher Totalvariation ist (denn sonst ist [X] ⌘ 0 und dann genügt auch
1
Z 2 C ).
F
t
F 0 (Xs ) dXs ist weniger allgemein als das Integral aus 4.3, da F stetig von X abhängt.
0
Trotzdem erbt es viele Eigenschaften der Riemann-Stieltjes-Summe. Wählt man in der
Summe einen anderen Stützpunkt als Xti 1 , so erhält man ein anderes Integral. Außer-
dem erhält man auch für verschiedene Partitionen unterschiedliche Integrale, außer wenn
der Integrant ein (lokales) Martingal ist. Dann ist das Integral unabhängig von der Par-
tition.
Der Satz ist eine Erweiterung des Satzes der Di↵erential- und Integralrechnung.
1
F (Xt0 ) F (Xt ) = F 0 (Xt )(Xt0 Xt ) + F 00 (Xt )(Xt0 Xt )2 + Rtn
2
73
mit einem Restterm Rtn = (F 0 (⇠) F 0 (Xt )) 12 (Xt0 Xt )2 , wobei ⇠ 2 (Xt , Xt0 ) bzw
2 (Xt0 , Xt ).
F 00 und X sind gleichmäßig stetig auf kompakten Mengen, daher erhalten wir für
P
F (XT ) F (X0 ) = (F (Xt0 ) F (Xt )) die folgenden Abschätzungen
n
t2⇡T
X n!1
|Rtn | ! "[X]T ! 0, " beliebig
n
t2⇡T
X 1 Z T
1
F 00 (Xt )(Xt0 Xt ) 2
! F 00 (Xt ) d[X]t ,
t,t0 2⇡ n
2 2 0
T
X Z T
0 1
lim F (Xt )(Xt0 Xt ) = F (XT ) F (X0 ) F 0 (Xt ) d[X]t ,
n!1
n
t,t0 2⇡T
2 0
1
dF (Xt ) = F 0 (Xt ) dXt + F 00 (Xt ) d[X]t
2
3) Man beachte, dass in den Summen, deren Grenzwerte das Itô-Integral liefern, der
Integrand F 0 (Xs ) am linken Intervallende von [ti 1 , ti ] ausgewertet wird.
4) Sei X jetzt allgemeiner ein stochastischer Prozess, dessen Pfade die eines stetigen
0
Martingals sind. Nach Satz 4.1.5 existiert eine Teilfolge (⇡ n ) der zulässigen Folge
(⇡ n ) von Partitionen, die zur Definition des quadratischen Variationsprozesse von
0
[X] von X führen. Diese Teilfolge (⇡ n ) von Partitionen kann in Satz 4.4.1 zur
Definition des Itô-Integrals verwendet werden. Der Grenzwert ist bis auf eine P -
Nullmenge eindeutig. Ist das Martingal X ein Wiener-Prozess, so kann sogar jede
zulässige Folge von Partitionen zur Definition des Itô-Integrals verwendet werden.
5) Die hier gewählte pfadweise Definition des Itô-Integrals geht auf Hans Föllmer
R1
(1981) zurück. Eine (nicht-pfadweise) Definition des Itô-Integrals 0 Ys dWs bezüglich
74
allgemeineren Integranden der Form Ys 2 ⇧2loc anstelle von F 0 (Ws ) (auch 2 ⇧2loc )
wurde im vorangegangenen Abschnitt 4.3 vorgestellt. Die pfadweise und nicht-
Rt
pfadweise definierten Integrale 0 F 0 (Ws ) dWs stimmen P -f.s. überein.
kurz:
n(n 1)
dXtn = nXtn 1
dXt + Xtn 2
d[X]t
2
Ist X speziell der Pfad einer Brownschen Bewegung W mit W0 = 0, so gilt
Z t Z t
Wt2 =2 Ws dWs + d[W ]s
0 0
Z t
=2 Ws dWs + t
0
Also Z t
1 t
Ws dWs = Wt2
0 2 2
• F (x) = ex . Mit Itô-Formel
Z t Z t
Xt X0 Xs 1
e e = e dXs + eXs d[Xs ]s
0 2 0
oder kurz
1
deXt = eXt dXt + eXt d[X]t
2
Speziell für X = W folgt
Z Z t
Wt 1 t Ws Ws
e =1+ e dWs + e d[W ]s
0 2 0
Z t Z
Ws 1 t Ws
=1+ e dWs + e ds
0 2 0
Also Z t Z t
Ws Wt 1
e dWs = e 1 eWs ds
0 2 0
Behauptung 4.4.1. Sei F : R ! R eine C 1 - Funktion und X wie in Satz 4.4.1. Dann
bestitzt die Funktion t 7! F (Xt ) die quadratische Variation
Z t
2
[F (X)]t = (F 0 (Xs )) d[X]s
0
75
Beweisidee. Sei (⇡ n ) eine zulässige Folge von Partitionen. Dann gilt, da F 0 und X
gleichmäßig stetig auf kompakten Mengen:
X X
(F (Xt0 ) F (Xt ))2 = (F 0 (Xet )(Xt0 Xt ))2
n
t,t0 2⇡T n
t,t0 2⇡T
X
= (F 0 (Xt0 )(Xt0 Xt ))2
n
t,t0 2⇡T
X
+ (F 0 (Xt )2 F (Xet )2 )(Xt0 Xt ) 2
n
t,t0 2⇡T
| {z }
!0 wie im Beweis von Satz 4.4.1
Z T
! F 0 (Xt ) d[Xt ]
0
Z x
Beweisidee. Definiere F (x) := f (y) dy, d.h. F 2 C 2 . Nach Satz 4.4.1 existiert also
0
Z t
It := f (Xs ) dXs .
0
76
Beispiel 4.4.2. Für X = W gilt
Z t
Wt2 = 2Ws dWs + t
0
Rt
Mit It := 2Ws dWs folgt
0 Z t
2
[W ]t = [I]t = 4Ws2 ds
0
D.h. während die quadratische Variation von (Ws ) nicht vom Zufall abhängt, hängt die
quadratische Variation von (Ws2 ) sehr wohl vom Zufall ab.
Satz 4.4.2. Sei M ein lokales Martingal mit stetigen Pfaden und stetiger quadratischer
Variation [M ], ferner f 2 C 1 (R). Dann gilt
0 1
Zt
@It := f (Ms ) dMs A ist ein lokales Martingal
0 t 0
n 0 n
Beweisidee. Wähle
P eine TF (⇡2 ) einer zulässigen Zerlegungsfolge (⇡ ), sodass
[Mt ] = lim
0
(Mt0 Mt ) im Sinne der f.s. Konvergenz existiert (Zerlegungsfolge
n !1 n 0
t,t0 2⇡T
Z t
muss geeignet sein). Damit ist die pfadweise Definition von f (Ms ) dMs gesichert.
0
Der Nachweis, dass (It )t 0 ein lokales Martingal ist, verwendet die Beweisideen zu Satz
4.1.5. ⇤
77
Definition 4.4.1. Sei (⌧n ) eine Folge von Partitionen des Intervalls [0, T ] mit |⌧n | ! 0.
X und Y seien stetige Funktionen mit stetiger quadratischer Variation entlang der Folge
(⌧n ). Existieren die Grenzwerte — und zwar unabhängig von der speziellen Wahl von (⌧n )
— X
8 [X, Y ]t := lim (Xti Xti 1 )(Yti Yti 1 ),
t 0 n!1
ti 2⌧n ,ti t
Satz 4.4.3. [X, Y ]t existiert genau dann, wenn [X + Y ]t existiert. In diesem Fall gilt die
Polarisationsgleichung
1
[X, Y ]t = ([X + Y ]t [X]t [Y ]t )
2
Bemerkung 4.4.2. 1) X stetige Funktion mit stetiger Variation [X], A stetige Funk-
tion mit endlicher Totalvariation. Dann gilt
[X + A]t = [X]t
und damit
[X, A]t = 0
8 [W (1) , W (2) ]t = 0
t 0
Zt Zt
Yt := f (Xs ) dXs , Zt := g(Xs ) dXs
0 0
Dann gilt
Zt
[Y, Z]t = f (Xs )g(Xs ) d[X]s
0
Zt
[Y + Z]t = (f + g)2 (Xs ) d[X]s
0
Zt
= [Y ]t + [Z]t + 2 f (Xs )g(Xs ) d[X]s
0
78
Satz 4.4.4 (d-dimensionale Itô-Formel). Sei X = (X 1 , . . . , X d ) : [0, T ] ! Rd stetig mit
stetigen Kovariationen
8
<[X k ] , falls k = l
t
[X k , X l ]t =
: 1 [X k + X l ]t [X k ]t [X l ]t , falls k 6= l
2
F (Xt ) F (X0 )
Xd Zt d Zt
@ i 1X @2
= F (Xs ) dXs + F (Xs ) d[X i , X j ]s
i=1
@xi 2 i,j=1 @xi @xj
0 0
In Kurzform:
d
X d
1X
dF (Xt ) = Fxi (Xt ) dXti + Fxi ,xj (Xt ) d[X i , X j ]t
i=1
2 i,j=1
d Z
X
t d Zt
1X
F (Wt ) F (W0 ) = Fxi (Ws ) dWsi + Fxi ,xi (Ws ) ds
i=1 0
2 i=1
0
Korollar 4.4.2 (Itôsche Produktformel). Seien X und Y stetige Funktionen mit stetiger
quadratischer (Ko-)Variation [X], [Y ] bzw. [X, Y ]. Dann gilt
Zt Zt
X t Yt = X 0 Y0 + Xs dYs + Ys dXs + [X, Y ]t
0 0
Kurzschreibweise:
d(XY )t = Xt dYt + Yt dXt + d[X, Y ]t
Korollar 4.4.3 (Itô-Formel für zeitabhängige Funktionen). Sei X eine stetige Funktion
79
mit stetiger quadratischer Variation [X] und F : (t, x) 7! F (t, x) mit F 2 C 1,2 . Dann gilt
F (t, Xt )
Zt Zt Zt
1
= F (0, X0 ) + Ft (s, Xs ) ds + Fx (s, Xs ) dXs + Fxx (s, Xs ) d[X]s
2
0 0 0
Kurzschreibweise:
1
dFt = Ft dt + Fx dXt + Fxx d[X]t
2
Beispiel 4.4.4. W Brownsche Bewegung, S0 > 0 Startwert, µ 2 R, > 0 Konstanten
Der durch ✓ ✓ ◆ ◆
1 2
St = S0 exp Wt + µ t ,t 0
2
definierte stochastische Prozess S heißt geometrische Brownsche Bewegung.
Herleitung einer Itô-Integralgleichung für S:
Xt = W
✓ t ◆
1 2
Yt = µ t
2
2
Klar: [X]t = t und [Y ]t = [X, Y ]t = 0
Für F (x, y) := S0 exp(x + y) gilt Fx = Fy = Fxx = F
Wegen St = F (Xt , Yt ) folgt
Zt Zt Zt
1
S t = S0 + F (Xs , Ys ) dXs + F (Xs , Ys ) dYs + F (Xs , Ys ) d[X]s
2
0 0 0
Zt Zt ✓ ◆
1 2
= S0 + F (Xs , Ys ) dWs + F (Xs , Ys ) µ ds
2
0 0
Zt
1 2
+ F (Xs , Ys ) ds
2
0
Zt Zt
= S0 + Ss dWs + µSs ds
0 0
In Kurzform:
dSt = µSt dt + St dWt
80
Falls µ = 0, ist
Zt
St = S0 + Ss dWs
0
Zt Zt Zt
2
E[S]t = E Ss2 d[W ]s = 2
E Ss2 ds = 2
ESs2 ds < 1
0 0 0
81
A. Hilfsmittel
Satz A.1.2 (Lemma von Fatou). Für jede Folge (fn ) von erweitert reellwertigen messba-
ren Funktionen mit fn 0 µ-f.ü. gilt
Z Z
lim inf fn dµ lim inf fn dµ
Satz A.1.3 (Satz von der dominierten Konvergenz (Lebesgue)). Für erweitert-reellwertige
messbare Funktionen fn (n 2 N), f und g mit fn ! f µ-f.ü. (n ! 1), |fn | g µ-f.ü. für
R
alle n und g dµ < 1 existiert limn!1 fn dµ und es gilt
Z Z
lim fn dµ = f dµ
n!1
Definition A.1.1. Das Maß µ heißt -endlich, wenn es ein Folge von Mengen An 2 F
(n 2 N) gibt mit An " ⌦ und µ(An ) < 1.
Ein Maß ⌫ auf F heißt absolut stetig bezüglich µ, kurz ⌫ ⌧ µ falls
8 µ(A) = 0 ) ⌫(A) = 0.
A2F
Satz A.1.4 (Satz von Radon-Nikodym). Messraum (⌦, F), Maße µ und ⌫ auf F, µ ist
-endlich und ⌫ absolut stetig bezüglich µ. Dann existiert eine Funktion f : (⌦, A) !
(R+ , B+ ) mit Z
8 ⌫(A) = f dµ
A2A A
82
Satz A.1.5 ("- -Kriterium für absolute Stetigkeit). Seien µ und ⌫ zwei Maße auf dem
Messraum (⌦, F), µ -endlich und ⌫ endlich. Dann sind äquivalent:
(i) ⌫ ⌧ µ
(ii) 8 9 8 µ(A) < ) ⌫(A) < "
">0 >0 A2F
Satz A.1.6 (Hauptsatz der Di↵erential- und Integralrechnung für das Lebesgue-Integral).
(Quelle: Elstrodt)
a) Ist f : [a, b] ! R Lebesgue-integrierbar, so ist
Z x
F (x) := f (t) dt (a x b)
a
gilt dann:
1
X
P (An ) < 1 =) P (lim An ) = 0,
n=1
Satz A.2.2 (2. Lemma von Borel und Cantelli). W-Raum (⌦, A, P ).
83
Die Familie {An ; n 2 N} von Ereignissen (2 A) sei unabhängig. Dann gilt:
1
X
P (An ) = 1 (()
) P (limAn ) = 1 .
n=1
| {z }
P-f.s. tritt An unendlich oft auf
Beispiele
1) Xn : (⌦, A) ! (R, B); An := F(Xn ) := Xn 1 (B) (n 2 N)
P
a) [ Xn konv.] 2 T1
b) [(Xn ) konv.] 2 T1
2) Messraum (⌦, A). Ereignisse An 2 A (n 2 N);
An := {;, An , Acn , ⌦} (n 2 N).
1 1
lim sup An := \ [ Ak = {! 2 ⌦ | ! 2 An für unendliche viele n} 2 T1
n!1 n=1 k=n
1 1
lim inf An := [ \ Ak = {! 2 ⌦ | ! 2 An von einem Index an} 2 T1
n!1 n=1 k=n
Häufig wird ein Repräsentant dieser Äquivalenzklasse als eine Version von E(X | C)
bezeichnet.
E(X | C) ist eine “Vergröberung” von X.
Beispiele
84
a) C = A . . . E(X | C) = X f.s.
b) C = {;, ⌦} . . . E(X | C) = EX
c) C = {;, B, B c , ⌦} mit 0 < P (B) < 1.
8 Z
> 1
>
< P (B) B X dP =: E(X | B), ! 2 B
>
(E(X | C))(!) = Z
>
> 1
>
: X dP, ! 2 B c
P (B c ) B c
85
Definition A.3.3. W-Raum (⌦, F, P ).
a) Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZV Y : (⌦, F, P ) ! (⌦0 , F 0 ).
E(X | Y ) := E(X | Y 1 (F 0 )) . . . bedingte Erwartung von X bei gegeb. Y .
| {z }
[kleinste -Algebra in ⌦, bzgl. der Y messbar ist . . . F(Y )(⇢ F)]
b) Integrierbare ZV X: (⌦, F, P ) ! (R, B). ZVn Yi : (⌦, F, P ) ! (⌦0i , Fi0 ) (i 2 I)
C(⇢ F) sei die kleinste -Algebra in ⌦, bzgl. der alle Yi messbar sind, also C =
F( [ Yi 1 (Fi )) . . . F(Yi , i 2 I)
i2I
E(X | (Yi )i2I ) := E(X | C) . . . bedingte Erwartung von X bei gegebe-
nem Yi , i 2 I.
c) A 2 F; ZV Y : (⌦, F, P ) ! (⌦0 , F 0 ).
P (A | Y ) := E(1A | Y ) . . . bedingte Wahrscheinlichkeit von A bei gegeb. Y .
1
(X (B), C) unabhängig =) E(X | C) = EX f.s.
b) ZV Y : (⌦, F, P ) ! (⌦0 , F 0 )
86
R
b) 8 P (A | Y = y) PY (dy) = P (Y 1 (A0 ) \ A) ,
A0
A 2F 0
0
R
insbesondere ⌦0 P (A | Y = y) PY (dy) = P (A) .
Beispiel. X bzw. A sowie Y wie zuvor. Sei y 2 ⌦0 mit {y} 2 F 0 und PY ({y}) > 0.
a) E(X | Y = y) = E(X | [Y = y])
| {z } | {z }
s. Def. 1.4. s. Beispiel nach Def. 1.1.
b) P (A | Y = y) = P (A | [Y = y])
| {z } | {z }
s. Def. 1.4. s. Beispiel nach Def. 1.2.
Satz A.3.7. W-Raum (⌦, F, P ), Sub- -Algebra C(⇢ F), I ⇢ R ein Intervall und f :
I ! R eine konvexe Funktion und X : ⌦ ! I eine integrierbare Zufallsvariable. Dann ist
E(X | C) 2 I fast sicher. Ist f (X) integrierbar, so gilt
87
A.4. Stochastische Prozesse
Satz A.4.1 (Existenzsatz für stochastische Prozesse von Kolmogorov). Gilt für eine Fa-
milie von Verteilungsfunktionen {Ft1 ,...,tn : Rn ! R | 0 t1 < . . . < tn , n 2 N} die
Verträglichkeitsbedingung
Für weitere Details siehe z.B. Klenke, Abschnitt 14.3, oder Meintrup/Schä✏er, Anhang A.3.
88
Literaturverzeichnis
[1] H. Bauer, Wahrscheinlichkeitstheorie (4. Aufl.), de Gruyter 1991 [Kap. VIII, IX
[2] R.N. Bhattacharya, E.C. Waymire, Stochastic Processes with Applications,
Wiley 1990
[3] Z. Brzezniak, T. Zastawniak, Basic Stochastic Processes, Springer 1999
[4] R. Durrett, Essentials of Stochastic Processes, Springer 1999
[5] W. Feller, An Introduction to Probability Theory and its Applications, Vol. I
(3rd ed.), Vol. II (2nd ed.), Wiley 1968, 1971
[6] G. Grimmett, D. Stirzaker, Probability and Random Processes (3rd ed.), Ox-
ford University Press 2001
[7] O. Kallenberg, Foundations of Modern Probability. Springer, New York (2001),
2nd ed.
[8] S. Karlin, A First Course in Stochastic Processes (2nd ed.), Academic Press 1975
[9] S. Karlin, H.M. Taylor, A Second Course in Stochastic Processes, Academic
Press 1975
[10] A. Klenke, Wahrscheinlichkeitstheorie, Springer 2013
[11] J.-P. Kreiß, G. Neuhaus, Einführung in die Zeitreihenanalyse, Springer 2006.
[12] Sh.M. Ross, Stochastic Processes, Wiley 1983
89