Beruflich Dokumente
Kultur Dokumente
Skript Markovketten
Skript Markovketten
Silke Rolles
Inhaltsverzeichnis
Vorwort 3
1 Definition 3
5 Stationarität 25
6 Starke Markov-Eigenschaft 33
7 Rekurrenz 37
8 Konvergenzsatz 48
9 Ergodensatz 56
10 Monte-Carlo Simulation 59
1 Definition 3
Vorwort
Diese Aufzeichnungen sind ausschließlich für die Studierenden der Vorlesung “Markov-
ketten” bestimmt. Es handelt sich um die Vorlesungsvorbereitung der Dozentin, die den
Studenten der Vorlesung zur Verfügung gestellt wird. Die Weitergabe oder Verbreitung
ist nicht erlaubt. Den Aufzeichnungen liegt das Buch “Markov chains. Gibbs Fields,
Monte Carlo Simulation, and Queues” von Pierre Brémaud [Bré99] zugrunde. Viele Pas-
sagen sind sehr nahe an dieser Quelle, jedoch nicht speziell gekennzeichnet. Diese Notizen
ersetzen kein Lehrbuch.
1 Definition
Vorlesung 1,
Motivation. Zur Einstimmung empfehle ich, das Vorwort des Buches [Bré99] zu lesen. 26.4.2022
Viele reale Phänomene werden gut durch stochastische Prozesse beschrieben. Zahllose
Beispiele finden sich in Biologie, Physik, Finanzwelt, Sozialwissenschaften usw.
• Ein Beispiel ist der Galton-Watson Prozess, der 1873 betrachtet wurde, um die
Frage nach dem Aussterben von Adelsgeschlechtern zu beantworten. Er dient als
einfaches Modell um die Entwicklung einer Population zu beschreiben. Siehe Bei-
spiel 2.6.
ab. Im Gleichgewicht bilden sich sternförmige Gruppen. Jeder Stern hat genau
ein Individuum im Zentrum, das die restlichen Gruppenmitglieder beschenkt und
genau von diesen beschenkt wird.
Mathematische Modellbildung.
Definition 1.1. Ein stochastischer Prozess in diskreter Zeit ist eine Folge (Xt )t∈N0
von Zufallsvariablen auf demselben Wahrscheinlichkeitsraum (Ω, F, P ) mit Werten in
derselben Menge E:
Xt : Ω → E.
1 Definition 4
E heißt Zustandsraum. t wird als Zeit interpretiert. (Xt )t∈N0 beschreibt eine stochastische
Evolution im Lauf der Zeit. Ist Xt = i, so sagen wir, dass der Prozess zur Zeit t im
Zustand i ist.
Beispiel 1.2 (Stochastische Prozesse).
1. Wir werfen immer wieder dieselbe Münze, Xt = Ergebnis des t-ten Münzwurfs.
Standardannahme: Xt , t ∈ N0 sind unabhängig und identisch verteilt.
2. Die einfache Irrfahrt auf Z. Seien ξi , i ∈ N, unabhängig und identisch verteilt mit
P (ξi = 1) = 21 = P (ξi = −1). Sei
n
X
X0 = 0, Xn = ξi
i=1
die Position zur Zeit n ∈ N. Man kann sich den stochastischen Prozess wie folgt
vorstellen: Ein Teilchen startet in 0. Zu jedem Zeitpunkt t ∈ N0 wirft es eine
Münze. Wenn Kopf fällt, springt es nach rechts, sonst links.
1 1
2 2
... ...
−2 −1 0 1 2
Xn+1 = Xn + ξn+1 , n ∈ N0 .
Falls zusätzlich die Wahrscheinlichkeit in (1) immer dann, wenn sie wohldefiniert ist,
unabhängig von n ist, spricht man von einer homogenen Markovkette. Die Eigenschaft
(1) heißt Markov-Eigenschaft.
Die Markov-Eigenschaft besagt, dass der nächste Zustand Xn+1 nur vom gegenwärti-
gen Zustand Xn , nicht aber von der Vergangenheit X0 , X1 , . . . , Xn−1 abhängt.
t
...
0 1 n−1 n n+1
Lemma 1.4. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und sei B ∈ F mit P (B) > 0.
Dann ist
P ( · | B) : F → [0, 1], A 7→ P (A | B)
ein Wahrscheinlichkeitsmaß.
Beweis. (P0) Zu zeigen: P (A|B) ∈ [0, 1] für alle A ∈ F.
Offensichtlich ist P (A|B) ≥ 0. Ausserdem gilt wegen der Monotonie von P
P (A ∩ B) P (B)
P (A|B) = ≤ = 1.
P (B) P (B)
P (Ω ∩ B)
(P1) P (Ω|B) = = 1.
P (B)
(P2) Für A1 , A2 , . . . ∈ F paarweise disjunkt gilt:
∞ S∞ ∞ ∞
!
[ P( i=1 (Ai ∩ B)) X P (Ai ∩ B) X
P Ai |B = = = P (Ai |B).
i=1
P (B) i=1
P (B) i=1
Der Übergangsgraph einer Markovkette. Ein Graph G = (V, E) besteht aus einer
abzählbaren Knotenmenge V und einer Menge von gerichteten Kanten E ⊆ V × V. Ist
e = (i, j) ∈ E, so geht eine Kante von i nach j. Die Kante e = (i, i) ist eine Schleife bei
i.
i j
1 Definition 6
Definition 1.8. Sei (Xt )t∈N0 eine homogene Markovkette mit abzählbarem Zustands-
raum E und Übergangsmatrix Π. Der Übergangsgraph von (Xt )t∈N0 ist definiert durch
G = (V, E) mit
V=E und E = {(i, j) ∈ E × E : Π(i, j) > 0}.
Somit gibt es eine Kante von i nach j, wenn die Markovkette mit positiver Wahrschein-
lichkeit in einem Schritt von i nach j gelangen kann. Man beschriftet die Kante (i, j)
mit Π(i, j).
Beispiel 1.9 (Einfache Irrfahrt auf Z). Intuitiv ist klar, dass hier eine Markovkette
vorliegt (Beweis später).
• Zustandsraum: E = Z
• Übergangsgraph
1 1 1 1
2 2 2 2
... ...
-2 1
-1 1
0 1
1 1
2
2 2 2 2
• Übergangsmatrix (
1
2, falls j ∈ {i − 1, i + 1},
Π(i, j) =
0, sonst.
Beispiel 1.10 (Stark vereinfachtes Modell für das Wetter in Los Angeles). Homogene
Markovkette mit Zustandsraum E = {s, r}, wobei s = b Sonne, r =
b Regen. Die Zeit wird
in Tagen gemessen.
• Übergangsmatrix
s r !
9 1
s 10 10
1 1
r 2 2
• Übergangsgraph
9 1
10 1 2
2
s r
1
10
9
Wenn es an einem Tag sonnig ist, ist es mit Wahrscheinlichkeit 10 am nächsten Tag
wieder sonnig.
Das folgende Kriterium ist oft nützlich, um nachzuweisen, dass ein stochastischer Vorlesung 2,
Prozess eine Markovkette ist. 3.5.2022
Satz 1.11. Sei (Xt )t∈N0 ein stochastischer Prozess mit abzählbaren Zustandsraum E und
sei Π ∈ [0, 1]E×E eine stochastische Matrix. Wenn für alle n ∈ N und i, j, i0 , . . . , in−1 ∈ E
mit P (X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) > 0 gilt:
P (Xn+1 = j | X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) = Π(i, j), (3)
dann ist (Xt )t∈N0 eine homogene Markovkette mit Übergangsmatrix Π.
1 Definition 7
wegen (3). Damit folgt die Behauptung (4) aus der Induktionsvoraussetzung.
Seien n ∈ N und i0 , . . . , in+1 ∈ E mit P (X0 = i0 , . . . , Xn = in ) > 0. Um die Markov-
Eigenschaft (1) zu zeigen, genügt es, folgende Behauptung zu beweisen:
Sei dazu I = {(i00 , . . . , i0n−1 ) ∈ E n : P (X0 = i00 , . . . , Xn−1 = i0n−1 , Xn = in ) > 0}. Aus (4)
folgt:
P (Xn+1 = in+1 , Xn = in )
P (X0 = i00 , . . . , Xn−1 = i0n−1 , Xn = in , Xn+1 = in+1 )
X
=
(i00 ,...,i0n−1 )∈I
n−2
P (X0 = i00 ) Π(i0k , i0k+1 )Π(i0n−1 , in )Π(in , in+1 )
X Y
=
(i00 ,...,i0n−1 )∈I k=0
P (Xn+1 = in+1 , Xn = in )
P (Xn+1 = in+1 |Xn = in ) = = Π(in , in+1 ).
P (Xn = in )
Beispiel 1.12. In einem Café kommt Kaffeemaschine 1 ab Zeit 0 zum Einsatz. Zur Zeit
U1 geht sie kaputt und wird durch Kaffeemaschine 2 ersetzt, die Lebensdauer U2 hat,
usw.
Für n ∈ N sei Un die Lebensdauer der n-ten Kaffeemaschine.
Annahme: Un , n ∈ N, sind unabhängig und identisch verteilt mit Werten in N und
P (U1 = i) > 0 für alle i ∈ N.
1 Definition 8
Sei Xn die Zeit, die die aktuelle Kaffeemaschine bereits eingesetzt wird. Z.B. erhalten
wir für U1 = 1, U2 = 4, U3 = 2, U4 = 3 folgendes Bild für n 7→ Xn :
Xn
0 1 2 3 4 5 6 7 8 9 10 n
U1 U2 U3 U4
R0 R1 R2 R3 R4
P (U1 > i + 1)
P (U1 > i) = P (U1 > i + 1|U1 > i), falls j = i + 1,
Π(i, j) = 1 − Π(i, i + 1), falls j = 0,
0, sonst.
Übergangsgraph:
0 1 2 3
...
A := {Xn−i−1 = jn−i−1 , . . . , X0 = j0 },
rn := |{k ∈ N : 1 ≤ Rk ≤ n}| = Anzahl der Erneuerungszeiten bis zur Zeit n.
2 Existenz und Markov-Eigenschaft 9
Wir berechnen
P (U1 > i + 1)
P (Xn+1 = i + 1 | Xn = i, Xn−1 = jn−1 , . . . , X0 = j0 ) = = Π(i, i + 1).
P (U1 > i)
Es folgt
P (Xn+1 = 0 | B) = 1 − Π(i, i + 1) = Π(i, 0).
Da Π eine stochastische Matrix ist, folgt die Behauptung aus Satz 1.11.
Satz 2.1. Seien Zn , n ∈ N, unabhängig und identisch verteilt auf einem Wahrschein-
lichkeitsraum (Ω, F, P ) mit Werten in F und sei E abzählbar. Sei f : E × F → E eine
messbare Funktion und sei X0 : Ω → E eine Zufallsvariable, die unabhängig von Zn ,
n ∈ N, ist. Wir setzen
Dann ist (Xn )n∈N0 eine homogene Markovkette mit Zustandsraum E und Übergangsma-
trix
Π(i, j) = P (f (i, Z1 ) = j) für alle i, j ∈ E.
2 Existenz und Markov-Eigenschaft 10
Satz 2.1 ist in vielen (aber nicht in allen) Fällen nützlich, um nachzuweisen, dass ein
stochastischer Prozess eine Markovkette ist. In Beispiel 1.12 hilft er nicht.
Lemma 2.3. Sei E ein abzählbarer Zustandsraum, Π ∈ [0, 1]E×E eine stochastische Ma-
trix und Z ∼ Uniform [0, 1] gleichverteilt auf [0, 1]. Dann gibt es eine messbare Funktion
f : E × [0, 1] → E mit
Beweis. • Fall E = N.
Für i ∈ N setzen wir
hP
j−1 Pj
f (i, z) := j für z ∈ k=1 Π(i, k), k=1 Π(i, k) und j ∈ N,
f (i, 1) := 1.
P∞
Dann ist f auf E ×[0, 1] definiert und messbar (Beachte Π(i, j) ≥ 0, k=1 Π(i, k) =
1). Für alle i, j ∈ N gilt:
P
j−1 Pj
P (f (i, Z) = j) = P k=1 Π(i, k) ≤Z< k=1 Π(i, k) = Π(i, j).
Satz 2.4. Sei E abzählbar und Π ∈ [0, 1]E×E eine stochastische Matrix. Seien Zn , n ∈ N
unabhängige Uniform [0, 1]-verteilte Zufallsvariablen auf einem Wahrscheinlichkeitsraum
(Ω, F, P ). Sei f : E × [0, 1] → E eine Funktion aus Lemma 2.3 und sei i0 ∈ E. Wir
definieren
Dann ist (Xn )n∈N0 eine homogene Markovkette mit Übergangsmatrix Π und P (X0 =
i0 ) = 1.
Korollar 2.5. Ist E abzählbar und Π ∈ [0, 1]E×E eine stochastische Matrix, so existiert
eine homogene Markovkette mit Übergangsmatrix Π.
Satz 2.4 gibt eine spezielle Konstruktion von Markovketten. Man nennt sie auch Dar-
stellung der Markovkette durch eine zufällige Abbildung. Ist E endlich und klein, so lässt
sich diese Darstellung zum Simulieren der Markovkette verwenden. Die Darstellung ist
nicht eindeutig, da z.B. f nicht eindeutig ist.
Beispiel 2.6 (Verzweigungsprozesse). Wir betrachten folgendes Modell: Sei ρ eine Ver-
teilung auf N0 . Jedes Individuum in einer gegebenen Population hat eine zufällige, gemäß
ρ verteilte Anzahl von Kindern, unabhängig von allen anderen Individuen.
2 Existenz und Markov-Eigenschaft 12
X0 = 1
X1 = 2
X2 = 2
X3 = 4
usw.
(j)
Seien Zn , j, n ∈ N, unabhängig und identisch verteilt mit Verteilung ρ. Wir interpre-
(j)
tieren Zn als die Anzahl Kinder des j-ten Individuums in der (n − 1)-ten Generation
(wenn dieses Individuum existiert). Wir setzen
Xn
X (k)
X0 := 1, Xn+1 := Zn+1 für n ∈ N0 .
k=1
Dann beschreibt (Xn )n∈N0 die Situation von oben. Der Prozess heißt Verzweigungspro-
zess oder Galton-Watson-Prozess.
(k)
(Xn )n∈N0 ist eine Markovkette. Dies folgt aus Satz 2.1 mit Zn := (Zn )k∈N und
i
X
(k)
f (i, (z )k∈N ) := z (k) für i ∈ N0 , z (k) ∈ N0 ,
k=1
da
Xn
X (k)
Xn+1 = f (Xn , Zn+1 ) = Zn+1 .
k=1
Π(0, 0) = 1
i
(k) (k)
= j) = ρ∗i ({j}),
X
Π(i, j) = P (f (i, (Z1 )k∈N ) = j) = P ( Z1 i ∈ N, j ∈ N0 ,
k=1
µ(A) := P (X0 ∈ A)
• Weiter gilt:
und
X̃0 = Xm ,
X̃n+1 = Xn+m+1 = f (Xn+m , Zn+m+1 ) = f (X̃n , Z̃n+1 ).
Dies ist eine Darstellung durch eine zufällige Abbildung für (X̃n )n∈N0 . Nach Satz
2.1 ist (X̃n )n∈N0 eine Markovkette mit Übergangsmatrix Π.
P̃ (X[m,m+n] = j, X[m] = i)
P̃ (X̃[n] = j|X[m] = i) =
P̃ (X[m] = i)
P (X[m,m+n] = j, X[m] = i, Xm = k) P (Xm = k)
=
P (Xm = k) P (X[m] = i, Xm = k)
=P (X[m,m+n] = j|X[m] = i, Xm = k)
=P (X[m,m+n] = j|X[m] = i)
P (X[m,m+n] = j|X[m] = i)
P (X[m,m+n] = j, X[m] = i)
=
P (X[m] = i)
n−1
Y P (X[m,m+`+1] = j[0,`+1] , X[m] = i)
=
`=0
P (X[m,m+`] = j[0,`] , X[m] = i)
n−1
Y
= P (Xm+`+1 = j`+1 |X[m,m+`] = j[0,`] , X[m] = i)
`=0
n−1
Y
= Π(j` , j`+1 ) nach Definition der Markovkette
`=0
=P̃ (X̃[n] = j[n] ),
Aufgabe 2.9. Zeigen Sie folgende Aussage: Sei (Xn )n∈N0 ein stochastischer Prozess mit
Zustandsraum E und seien k ∈ E, m ∈ N mit P (Xm = k) > 0. Wie oben seien X̃n :=
Xn+m und P̃ (·) := P (·|Xm = k). Falls (X̃n )n∈N0 unter P̃ unabhängig von X0 , . . . , Xm
ist, dann gilt für alle j, i0 , . . . , im−1 ∈ E mit P (X0 = i0 , . . . , Xm−1 = im−1 , Xm = k) > 0:
(a) (Xn )n∈N0 ist eine Markovkette mit Übergangsmatrix Π und Startverteilung µ.
P (X0 ∈ A0 , X1 ∈ A1 , . . . , Xn ∈ An )
X X X X
= µ(i0 ) Π(i0 , i1 ) Π(i1 , i2 ) · · · Π(in−1 , in ).
i0 ∈A0 i1 ∈A1 i2 ∈A2 in ∈An
nach Induktionsvoraussetzung.
Also ist (Xn )n∈N0 nach Satz 1.11 eine Markovkette mit Übergangsmatrix Π.
Wir identifizieren jede Verteilung µ auf E mit dem Zeilenvektor (d.h. der 1×E-Matrix)
(µ (i))i∈E .
Insbesondere gilt:
Satz 3.3. Für eine Markovkette mit Startverteilung µ und Übergangsmatrix Π gilt für
alle n ∈ N0 :
µn = µΠn .
Dabei sind µn und µ als Zeilenvektoren zu verstehen und Πn ist die n-te Potenz der
Matrix Π; Π0 = Id = Einheitsmatrix.
Beweis. Für i ∈ E wenden wir Satz 3.1 (c) an mit A0 = · · · = An−1 = E und An = {i}:
µn (i) = Pµ (Xn = i)
X X X
= ··· µ(i0 ) · Π(i0 , i1 ) · . . . · Π(in−2 , in−1 ) · Π(in−1 , i) = (µΠn )(i).
i0 ∈E i1 ∈E in−1 ∈E
Mit Hilfe von Satz 3.3 kann man die Verteilung einer Markovkette zur Zeit n leicht
berechnen.
Beispiel 3.4 (Häggström). Betrachte das vereinfachte Modell für das Wetter in Los
Angeles von Beispiel 1.10: E = {s, r},
s r !
9 1
s 10 10
Π= 1 1
r 2 2
3 Die endlich dimensionalen Verteilungen einer Markovkette 17
5 1
Für µ = 6, 6 (d.h. µ(s) = 56 , µ(r) = 16 ) gilt:
!
5 1 9
1
1 10 10
µ = µΠ = , 1 1
6 6 2 2
45 1 5 1
= + , +
60 12 60 12
50 10 5 1
= , = , = µ.
60 60 6 6
Für n ∈ N folgt:
µn = µΠn = µΠ · Πn−1 = µΠn−1 = µn−1 .
Somit folgt:
µn = µ0 = µ für alle n ∈ N.
D.h. für diese Wahl der Startverteilung µ hat Xn für alle n ∈ N0 dieselbe Verteilung,
nämlich µ. Das ist die Ausnahme. Z.B. ergibt sich für µ = (1, 0)
9 1
1
µ = µΠ = , 6= µ.
10 10
Satz 3.5. Sei (Xn )n∈N0 eine Markovkette mit Übergangsmatrix Π. Für alle m, n ∈ N0 , Vorlesung 5,
i, j ∈ E mit P (Xm = i) > 0 gilt: 24.5.2022
Beweis. Nach Satz 2.8 ist (X̃n = Xm+n )n∈N0 unter P̃ (·) = P (·|Xm = i) eine Markovkette
mit Übergangsmatrix Π und Startverteilung δi . Es folgt:
1
2
0 1
1
1 1 2 1 1
2 2 1 2 2
2
3 1
2
2
Übergangsmatrix:
0 1 2 3
1 1
0 0 2 0 2
1 1
12 0 2 0
1 1
20 0
2 2
3 12 0 1
2 0
4 Kommunikation und Periode 18
Beobachtung: Wenn die Markovkette zur Zeit 0 in 0 startet, ist sie zu geraden Zeiten in
{0, 2}, zu ungeraden Zeiten in {1, 3}. Es gilt:
1 1 1 1
1 1
0 2 0 2 0 2 0 2 2 0 2 0
1 0 1
0 1 0 1
0 0 1
0 1
Π2 = 2 2 Π3 = Π.
2 2 2 2
= ,
1 1 1 1 1 1
0 0 2 0 0 0 0
2 2 2 2 2
1 1 1 1 1 1
2 0 2 0 2 0 2 0 0 2 0 2
Π2n = Π2 , Π2n+1 = Π.
Damit ergibt sich für die Irrfahrt mit Start in 0, d.h. µ = (1, 0, 0, 0):
Verteilung von X2n (d.h. zu geraden Zeiten):
1 1
2n 2n 2
µ = µΠ = µΠ = , 0, , 0
2 2
Verteilung von X2n+1 (d.h. zu ungeraden Zeiten):
1 1
2n+1 2n+1
µ = µΠ = µΠ = 0, , 0,
2 2
Insbesondere konvergiert µn nicht für n → ∞, aber µ2n , n ∈ N, und µ2n+1 , n ∈ N, sind
konstant.
Definition 4.3. Eine nichtleere Menge C ⊆ E von Zuständen heißt abgeschlossen, wenn
für alle i ∈ C gilt: X
Π(i, j) = 1.
j∈C
Definition 4.4. Eine Markovkette heißt irreduzibel, wenn sie nur eine kommunizierende
Klasse besitzt, d.h. falls für alle i, j ∈ E mit i 6= j ein n = n(i, j) ∈ N mit Πn (i, j) > 0
existiert. Sonst heißt sie reduzibel.
1 5
2 3
• 1↔2
i 6→ 1, i 6→ 2 für alle i 6= 1, 2
Daher ist {1, 2} eine kommunizierende Klasse.
• 4 6→ i für alle i 6= 4
Also ist {4} kommunizierende Klasse.
• 3 → 5 aber 5 6→ 3
Also sind {3} und {5} kommunizierende Klassen.
di := ggT(T (i))
... ...
-2 -1 0 1 2
Beispiel 4.8.
1 5
2 3
• T (1) = 2N ⇒ d1 = 2
Symmetrie zwischen 1 und 2, also d2 = 2
• 1 ∈ T (4) ⇒ d4 = 1
• Analog d5 = ∞.
dj | s + k + r und dj | s + r.
Definition 4.10. Die Periode einer irreduziblen Markovkette ist die Periode ihrer Zu-
stände.
Satz 4.11. Sei (Xn )n∈N0 eine irreduzible Markovkette mit Periode d. Für alle i, j ∈ E
existieren m = m(i, j) ∈ N0 und n0 = n0 (i, j) ∈ N0 , sodass für alle n ≥ n0 gilt:
Korollar 4.12. Für eine irreduzible, aperiodische Markovkette mit endlichem Zustands-
raum existiert n0 ∈ N0 , sodass für alle i, j ∈ E und alle n ≥ n0 gilt:
Πn (i, j) > 0.
4 Kommunikation und Periode 21
Beweis. Die Bezeichnungen seien wie in Satz 4.11. Dann gilt d = 1. Wir definieren
(a) ggT(A) = 1
(b) a ∈ A und a0 ∈ A ⇒ a + a0 ∈ A
Da die Markovkette irreduzibel ist, ist T (i) 6= ∅ und daher d ∈ N. Für k, ` ∈ T (i) gilt:
Πm (i, j) > 0.
Satz 4.14. Sei (Xn )n∈N0 eine irreduzible Markovkette mit Periode d ≥ 2. Dann existiert Vorlesung 6,
genau eine Partition C0 , . . . , Cd−1 des Zustandsraumes E, sodass für alle k = 0, . . . , d−1 31.5.2022
und i ∈ Ck gilt: X
Π(i, j) = 1.
j∈Ck+1
Begründung für die letzte Implikation “⇒”: Angenommen Πnd (i, j) > 0. Da die Mar-
kovkette irreduzibel ist, existiert m ∈ N0 mit Πm (j, i) > 0. Damit folgt
Da die Markovkette Periode d hat, gilt d|(nd + m) und daher d|m. Somit gibt es k ∈ N0
mit Πkd (j, i) > 0.
Insbesondere ist ∼ eine Äquivalenzrelation. Sei C0 eine beliebige Äquivalenzklasse
bezüglich ∼. Wir definieren
Πm (j, i) > 0.
Es folgt:
Πm+1 (j, j) ≥ Πm (j, i)Π(i, j) > 0.
Da j Periode d hat, gilt d | m + 1. Wegen i ∼ i0 existiert ein n ∈ N0 mit
Es folgt:
Πm+nd+1 (j, j 0 ) ≥ Πm (j, i)Πnd (i, i0 )Π(i0 , j 0 ) > 0
und d | m + nd + 1. Also gilt j ∼ j 0 .
4 Kommunikation und Periode 23
3 2
4 1
4 Kommunikation und Periode 24
... ...
-2 -1 0 1 2
2. Irrfahrt auf Z2
..
.
... ...
..
.
5 Stationarität 25
C0 = {(x, y) ∈ Z2 : x ≡ y mod 2}
= Menge der Punkte in Z2 , bei denen beide Koordinaten
gerade oder beide ungerade sind,
2
C1 = Z \ C0 .
5 Stationarität
Definition 5.1. Ein Wahrscheinlichkeitsmaß α heißt stationär für eine Markovkette mit
Übergangsmatrix Π, falls für alle i ∈ E gilt:
X
α(i) = α(j)Π(j, i).
j∈E
α = αΠ.
Gießt man an jedem Knoten j des Übergangsgraphen eine Menge α(j) Wasser in das
Netzwerk, so fließt α(j)Π(j, i) von j nach i. Ist α stationär, so ist die Bilanz bei jedem
Knoten ausgeglichen und das Netzwerk im Gleichgewicht.
Satz 5.2. Ist die Startverteilung µ der Markovkette (Xn )n∈N0 stationär, so hat Xn für
alle n ∈ N0 die Verteilung µ, d.h.
Pµ (Xn ∈ A) = µ(A)
Startet eine Markovkette in einer stationären Verteilung, so hat der Zustand zur Zeit
n dieselbe Verteilung wie der Zustand zur Zeit 0. In diesem Sinn ist die Kette im Gleich-
gewicht.
Beispiel 5.3 (Ehrenfest-Modell). Die Physiker Paul und Tatiana Ehrenfest haben es
1907 als vereinfachtes Modell für die Diffusion durch eine poröse Membran vorgeschla-
gen. Sie betrachteten ein Gefäß, das in zwei gleich große Kammern unterteilt ist, die
miteinander verbunden sind. Das Gefäß enthalte viele, z.B. N = 1023 , Gasmoleküle.
Modell. N Kugeln sind auf zwei Urnen U1 und U2 verteilt. Zu jeder Zeit n ∈ N0 wird
eine der N Kugeln ausgewählt und in die andere Urne gelegt. Sei Xn die Anzahl der
Kugeln in U1 zur Zeit n. Dann ist (Xn )n∈N0 eine Markovkette mit Übergangsmatrix Π
gegeben durch
i
Π(i, i − 1) = für 1 ≤ i ≤ N ,
N
i N −i
Π(i, i + 1) = 1 − = für 0 ≤ i ≤ N − 1,
N N
Π(i, j) = 0 für alle anderen Paare (i, j).
5 Stationarität 26
1
...
0
1
1 2 N −1 N
!
N 1
Behauptung. α(j) = für alle 0 ≤ j ≤ N ist eine stationäre Verteilung. Dies ist
j 2N
die Binomial (N, 12 )-Verteilung.
Wenn man die N Kugeln unabhängig voneinander mit Wahrscheinlichkeit 12 in U1 und
mit Wahrscheinlichkeit 12 in U2 legt, dann hat die Anzahl der Kugeln in U1 Verteilung α.
PN
Beweis. Zu zeigen: α(i) = j=0 α(j)Π(j, i) für alle 0 ≤ i ≤ N .
N 1 1 1
• Fall i = 0: α(1)Π(1, 0) = 1 2N · N = 2N
= α(0).
N 1 1 1
• Fall i = N : α(N − 1)Π(N − 1, N ) = N −1 2N · N = 2N
= α(N ).
• Fall 1 ≤ i ≤ N − 1:
Eine stationäre Verteilung α muss folgende Gleichung für alle i ∈ Z erfüllen: Vorlesung 7,
14.6.2022
X 1 1
α(i) = α(j)Π(j, i) = α(i − 1) + α(i + 1)
j∈Z
2 2
1 1
⇔ (α(i) − α(i − 1)) = (α(i + 1) − α(i))
2 2
⇒ α(i + 1) − α(i) = α(i) − α(i − 1)
= α(i − 1) − α(i − 2)
= α(1) − α(0).
Ausserdem gilt:
−1
X
α(0) − α(−j) = (α(i + 1) − α(i)) = j(α(1) − α(0))
i=−j
Es folgt
Wegen α(j) ∈ [0, 1] für alle j ∈ Z, ist das unmöglich. Also ist α(1) − α(0) = 0 und es
folgt:
α(j) = α(0) für alle j ∈ Z.
Wegen ( )
X X 0, falls α(0) = 0
α(j) = α(0) = 6= 1
j∈Z j∈Z ∞, falls α(0) > 0
gibt es keine stationäre Verteilung.
1
2
1
1
2 3 1
2
1 1
2
2
Übergangsmatrix:
1 1
0
12 2
1
Π= 0
2 2
0 0 1
α = ( 12 , 21 , 0) und β = (0, 0, 1) sind stationäre Verteilungen.
γλ Π = (λα + (1 − λ)β)Π
= λαΠ + (1 − λ)βΠ
= λα + (1 − λ)β da α und β stationär
= γλ .
Beispiel 5.7. Betrachte das vereinfachte Modell für das Wetter in Los Angeles mit
E = {s, r} und Übergangsmatrix
s r !
s p 1−p
Π=
r q 1−q
αΠ = α
⇔ α(Π − Id) = 0
!
35 1 p−1 1−p
⇔ , = (0, 0)
36 36 q −q
⇔ 35(p − 1) + q = 0
⇔ q = 35(1 − p).
Satz 5.8. Sei (Xn )n∈N0 eine Markovkette mit Übergangsmatrix Π und stationärer Ver-
teilung α mit α(i) > 0 für alle i ∈ E. Sei
α(j)Π(j, i)
Π0 (i, j) := für alle i, j ∈ E.
α(i)
Beweis.
Pα (Xn+1 = i | Xn = j)
Pα (Xn = j | Xn+1 = i) = Pα (Xn = j)
Pα (Xn+1 = i)
Π(j, i)α(j)
= = Π0 (i, j).
α(i)
Definition 5.9. Sei (Xn )n∈N0 eine Markovkette mit Übergangsmatrix Π. Ein Maß α
auf E, das verschieden vom Nullmaß ist, heißt reversibel für die Markovkette, falls für
alle i, j ∈ E gilt:
α(i)Π(i, j) = α(j)Π(j, i).
Die Markovkette heißt reversibel, wenn sie ein reversibles Maß besitzt.
Gießt man an jedem Knoten j des Übergangsgraphen eine Menge α(j) Wasser in das
Netzwerk, so fließt α(i)Π(i, j) von i nach j und α(j)Π(j, i) von j nach i. Ist α reversibel,
so ist die Bilanz entlang jeder Kante im Gleichgewicht. Somit ist das Netzwerk lokal im
Gleichgewicht. Intuitiv ist klar, dass dann auch an jedem Knoten die Bilanz ausgeglichen
ist, was bei einer stationären Verteilung der Fall ist. Dies zeigt der folgende Satz.
Satz 5.10. Jede reversible Verteilung ist stationär.
Beweis. Sei α reversibel. Dann gilt für alle i ∈ E:
X X
α(j)Π(j, i) = α(i)Π(i, j) da α reversibel
j∈E j∈E
Bemerkung 5.11. Ist eine Markovkette reversibel mit einer reversiblen Verteilung, die
α(i) > 0 für alle i ∈ E erfüllt, so gilt
α(j)Π(j, i)
Pα (Xn = j | Xn+1 = i) = nach Satz 5.8
α(i)
α(i)Π(i, j)
= da α reversibel
α(i)
= Π(i, j) = Pα (Xn+1 = j | Xn = i)
Zur Erinnerung:
i
Π(i, i − 1) = für 1 ≤ i ≤ N ,
N
N −i
Π(i, i + 1) = für 0 ≤ i ≤ N − 1.
N
5 Stationarität 30
Zu zeigen:
Stimmt.
Beispiel 5.13. Wir betrachten eine Markovkette mit folgendem Übergangsgraphen:
1 2
Übergangsmatrix:
0 1 0
Π = 0 0 1
1 0 0
Jedes reversible Maß α erfüllt:
(0, 0, 0) ist aber in der Definition eines reversiblen Maßes ausgeschlossen. Also ist die
Markovkette nicht reversibel.
Beispiel 5.14. Sei G = (V, E) ein Graph mit endlicher Knotenmenge V und einer Menge
E ungerichteter Kanten {i, j}. Sei di := |{e ∈ E : i ∈ e}| der Grad von i.
Die einfache Irrfahrt auf G ist eine Markovkette mit Zustandsraum V und Übergangs-
matrix (
1
, falls {i, j} ∈ E,
Π(i, j) = di
0, sonst.
Es gilt:
di Π(i, j) = dj Π(j, i)
für alle i, j ∈ V. Daher ist
di
, i ∈ V,
α(i) =
D
P
mit D := i∈V di ein reversibles Wahrscheinlichkeitsmaß.
Satz 5.15. Eine irreduzible Markovkette mit Übergangsmatrix Π besitzt genau dann ein Vorlesung 8,
reversibles Maß, wenn die beiden folgenden Bedingungen erfüllt sind: 21.6.2022
5 Stationarität 31
D.h. für jeden Pfad mit gleichem Start- und Endpunkt ist die Wahrscheinlichkeit,
den Pfad vorwärts zu durchlaufen, gleich der Wahrscheinlichkeit, den Pfad rück-
wärts zu durchlaufen.
Beweis. “⇒": Sei die Markovkette reversibel mit reversiblem Maß α. Da die Markovkette
irreduzibel ist, gilt (Übung)
n n
Y Y α(ij−1 )Π(ij−1 , ij )
Π(ij−1 , ij ) =
j=1 j=1
α(ij−1 )
n
Y α(ij )Π(ij , ij−1 )
= wegen Reversibilität
j=1
α(ij−1 )
n n
Y α(in ) Y
= Π(ij , ij−1 ) = Π(ij , ij−1 ) wegen in = i0 .
j=1
α(i0 ) j=1
1 ≤ j ≤ n. Setze
n
Y Π(ij−1 , ij )
α(i) = .
j=1
Π(ij , ij−1 )
Behauptung 1: α ist wohldefiniert.
Angenommen, k0 = k, k1 , . . . , km = i ist ein weiterer Pfad von k nach i mit der Eigen-
schaft m
Q
j=1 Π(kj−1 , kj ) > 0. Dann ist i0 = k, i1 , . . . , in = i = km , km−1 , . . . , k0 = k ein
Pfad von k nach k mit positiver Wahrscheinlichkeit. Aus (b) folgt
n
Y m
Y n
Y m
Y
Π(ij−1 , ij ) Π(kj , kj−1 ) = Π(ij , ij−1 ) Π(kj−1 , kj ).
j=1 j=1 j=1 j=1
für alle i, ` ∈ E. Falls Π(i, `) = 0, folgt aus (a) Π(`, i) = 0 und (6) gilt. Sei also Π(i, `) > 0.
Betrachte einen Pfad i0 = k, i1 , . . . , in = i mit nj=1 Π(ij−1 , ij ) > 0. Dann ist i0 =
Q
Die Irrfahrt auf dem gewichteten Graphen G ist eine Markovkette mit Zustandsraum V
und Übergangsmatrix ( a{i,j}
Π(i, j) = ai , falls {i, j} ∈ E,
0, sonst.
Behauptung: Die Markovkette ist reversibel.
Beweis 1.
Für alle i, j ∈ V gilt:
ai Π(i, j) = a{i,j} = aj Π(j, i).
Daher ist
α(i) = ai , i ∈ V,
ein reversibles Maß. Falls der Graph G endlich ist, läßt es sich zu einem Wahrscheinlich-
keitsmaß normieren.
Beweis 2.
Wir verifizieren die Voraussetzungen von Satz 5.15.
• Da G zusammenhängend ist, ist die Markovkette irreduzibel.
mit einem festen Zustand k ∈ V. Damit ist auch α(i) = ai ein reversibles Maß.
Satz 5.17. Sei (Xn )n∈N0 eine irreduzible Markovkette mit reversiblem Maß α. Dann ist
(Xn )n∈N0 eine Irrfahrt auf einem gewichteten Graphen.
Beweis. Da die Markovkette irreduzibel ist und jedes reversible Maß die Stationaritäts-
gleichung erfüllt, gilt α(i) > 0 für alle i ∈ E. Sei V = E die Knotenmenge und
Aus der Reversibilitätsgleichung folgt Π(i, j) > 0 ⇔ Π(j, i) > 0. Daher ist E wohl-
definiert. Setze
a{i,j} = α(i)Π(i, j).
Wegen der Reversibilitätsgleichung α(i)Π(i, j) = α(j)Π(j, i) sind diese Gewichte wohl-
definiert.
6 Starke Markov-Eigenschaft 33
Behauptung: Die Markovkette ist eine Irrfahrt auf dem gewichteten Graphen G = (V, E).
Sei X X X
ai = a{i,j} = α(i)Π(i, j) = α(i) Π(i, j) = α(i).
j∈V:{i,j}∈E j∈V:Π(i,j)>0 j∈V
Es folgt
a{i,j} α(i)Π(i, j)
= = Π(i, j).
ai α(i)
6 Starke Markov-Eigenschaft
Definition 6.1. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Eine Folge Fn ⊆ F, n ∈ N0 ,
von σ-Algebren heißt Filtration, falls
gilt.
Sei (Xn )n∈N0 eine Markovkette mit Zustandsraum E. Wir definieren
Fn := σ(X0 , X1 , . . . , Xn )
:= kleinste σ-Algebra, die alle Ereignisse der Form
Xt−1 (A) mit A ⊆ E und t ∈ {0, . . . , n} enthält.
(Fn )n∈N0 ist eine Filtration, die natürliche Filtration des Prozesses (Xn )n∈N0 . Die σ-
Algebra Fn enthält die Information des Prozesses bis zur Zeit n. Im folgenden arbeiten
wir typischerweise mit dieser Filtration.
{τ = n} ∈ Fn .
Beispiel 6.3. Sei (Xn )n∈N0 eine Markovkette mit Zustandsraum E und sei (Fn )n∈N0
die natürliche Filtration. Für A ⊆ E ist die Eintrittszeit von A definiert durch
τA = inf{n ∈ N0 : Xn ∈ A}
mit der Konvention inf ∅ = ∞. Dann ist τA eine Stoppzeit, denn für alle n ∈ N0 gilt:
{τA = n} = {X0 ∈
/ A, X1 ∈
/ A, . . . , Xn−1 ∈
/ A, Xn ∈ A} ∈ Fn .
τA = sup{n ∈ N0 : Xn ∈ A}
{τA = 0} = {X0 ∈ A, Xn ∈
/ A für alle n ≥ 1} ∈
/ σ(X0 ) = F0 .
6 Starke Markov-Eigenschaft 34
Wir setzen L := {` ∈ N0 : P (X` = k) > 0}. Wegen P (Xτ = k) > 0 ist L 6= ∅. Wir
können die letzte Summe auf ` ∈ L beschränken. Es folgt:
P̃ (A ∩ B)P (Xτ = k)
X
= = `}, X0∧` ∈ B0 , . . . , Xn∧` ∈ Bn , X` ∈ A0 , . . . , X`+m ∈ Am |X` = k)P (X` = k)
P (τ| {z
| {z }
`∈L ∈F` hängt nur von X0 , . . . , X` ab
Es folgt:
P̃ (A ∩ B) = Pδk (X0 ∈ A0 , . . . , Xm ∈ Am ) P (B | Xτ = k) .
| {z }
=P̃ (B)
Für i ∈ E sei
Ti := inf{n ≥ 1 : Xn = i}
die erste Zeit ≥ 1, zu der die Markovkette in i ist. Man nennt Ti die erste Rückkehrzeit
zu i. Für i, j ∈ E setzen wir
fij := Pi (Tj < ∞).
Sei ∞
X
Ni := 1{Xn =i}
n=1
Pj (Ni ≥ ` + 1) = 1 − Pj (Ni ≤ `)
`
X
=1− Pj (Ni = m)
m=0
`
!
fji fiim−1 (1
X
= 1 − 1 − fji + − fii )
m=1
nach Induktionsvoraussetzung. Im Fall ` = 0 ist die Summe leer.
`−1
!
X
= fji 1 − (1 − fii ) fiim
m=0
= fji (1 − (1 − fii` ))
Beachte: dies gilt auch im Fall fii = 1.
= fji fii` .
Wir setzen
Dann ist T ` die `-te Rückkehrzeit zu i und T ` ist eine Stoppzeit. Es gilt:
Es folgt:
Außerdem gilt:
Pj (XT `+1 = i) = Pj (Ni ≥ ` + 1) = fji fii` .
Damit folgt die Behauptung.
Es sei Pi (Ni < ∞) = 1. Nach dem bereits gezeigten ist fii < 1. Aus Korollar 6.8 folgt
∞
X ∞
X
Ei [Ni ] = `Pi (Ni = `) = `fii` (1 − fii ) < ∞.
`=0 `=1
7 Rekurrenz
Definition 7.1. Ein Zustand i ∈ E heißt
• rekurrent, wenn Pi (Ti < ∞) = 1,
Ei [Ti ] < ∞.
Beweis. Es gilt:
∞
X ∞
X
n
Π (i, i) = Pi (Xn = i)
n=0 n=0
X∞ h i
= Ei 1{Xn =i}
n=0
"∞ #
X
= Ei 1{Xn =i} nach dem Satz von der monotonen Konvergenz
n=0
= 1 + Ei [Ni ].
Π(i, i + 1) = p, Π(i, i − 1) = 1 − p.
P0 (X2n+1 = 0) = 0,
!
2n n
P0 (X2n = 0) = p (1 − p)n .
n
P∞
Um zu entscheiden, ob n=0 P0 (X2n = 0) divergiert, verwenden wir die Stirlingsche
Formel: √ 1
n! ∼ 2π · nn+ 2 e−n für n → ∞.
Damit ergibt sich ! 1
2n (2n)! 1 (2n)2n+ 2 22n
= ∼√ · = √ .
n n!n! 2π n2n+1 πn
Also
1
P0 (X2n = 0) ∼ √ (4p(1 − p))n .
πn
• Fall p = 12 .
∞
1 X
P0 (X2n = 0) ∼ √ ⇒ P0 (X2n = 0) = ∞.
πn n=0
Also ist 0 transient. Folglich sind für die asymmetrische Irrfahrt alle Zustände
transient.
Man kann zeigen, dass im symmetrischen Fall alle Zustände null-rekurrent ist.
Folglich sind bei einer irreduziblen Markovkette alle Zustände rekurrent oder alle
Zustände transient. Man nennt dann die Markovkette rekurrent bzw. transient.
7 Rekurrenz 39
(b) Ähnlich wie im Teil (a) erhält man aus der Transienz
∞
X
∞ > Ei [Ni ] ≥ Pi (Xn = i | Xm = j)Pi (Xm = j)
n=m+1
∞
X
= Πm (i, j) Pj (Xn = i)
n=1
nach der Markov-Eigenschaft.
= Πm (i, j)Ej [Ni ].
Satz 7.6. Eine irreduzible Markovkette mit endlichem Zustandsraum ist rekurrent. Vorl. 10,
5.7.2022
Beweis. Dies liegt daran, dass mindestens ein Zustand unendlich oft besucht werden
muss. Formal: Für alle n ∈ N gilt
X
1{Xn =i} = 1.
i∈E
Damit folgt
∞ X
X ∞
XX
∞= 1{Xn =i} = 1{Xn =i} .
n=1 i∈E i∈E n=1
Da E endlich ist, folgt für mindestens ein i ∈ E: Ej [Ni ] = ∞ und damit nach Satz 7.5
die Rekurrenz der Markovkette.
Definition 7.7. Ein Maß α auf (E, P(E)) heißt invariant für die Markovkette mit
Übergangsmatrix Π, falls gilt:
• α ist nicht das Null-Maß, d.h. es gilt nicht α(i) = 0 für alle i ∈ E,
Satz 7.8. Sei (Xn )n∈N0 eine irreduzible rekurrente Markovkette und sei 0 ∈ E ein
beliebiger Zustand. Sei
T0 = inf{n ≥ 1 : Xn = 0}
die erste Rückkehrzeit zu 0. Setze für i ∈ E:
"∞ #
X
α(i) = E0 1{Xn =i} 1{T0 ≥n} .
n=1
Dann gilt α(i) ∈ (0, ∞) für alle i ∈ E und α ist ein invariantes Maß für die Markovkette.
7 Rekurrenz 41
Für i 6= 0 ist α(i) die erwartete Anzahl Besuche in i bis zur Zeit T0 .
Für i = 0 gilt:
Xn = 0 für n ∈ {1, . . . , T0 } ⇔ n = T0 .
Somit ist α(0) = 1. Hier haben wir verwendet, dass P0 (T0 < ∞) = 1 ist, da die Markov-
kette rekurrent ist.
Lemma 7.9. X
α(i) = E0 [T0 ].
i∈E
Beweis.
"∞ #
X X X
α(i) = E0 1{Xn =i} 1{T0 ≥n}
i∈E i∈E n=1
∞ X
hX i
= E0 1{Xn =i} 1{T0 ≥n}
n=1 i∈E
| {z }
=1
nach dem Satz der monotonen Konvergenz.
= E0 [T0 ].
Beweis von Satz 7.8. Für alle i ∈ E folgt aus dem Satz der monotonen Konvergenz:
∞
X
α(i) = P0 (Xn = i, T0 ≥ n).
n=1
Es gilt:
P0 (X1 = i, T0 ≥ 1) = P0 (X1 = i) = Π(0, i). (8)
Für n ≥ 2 gilt:
X
P0 (Xn = i, T0 ≥ n) = P0 (Xn−1 = j, Xn = i, T0 ≥ n)
j∈E
X
= P0 (Xn−1 = j, Xn = i, T0 ≥ n)
j∈E\{0}
X
= P0 (Xn−1 = j, Xn = i, T0 ≥ n − 1) da j 6= 0.
j∈E\{0}
X
= P0 (Xn = i, T0 ≥ n − 1 | Xn−1 = j)P0 (Xn−1 = j) (9)
j∈E\{0}
Somit hängt das Ereignis {T0 ≥ n − 1} nur von X0 , X1 , . . . , Xn−2 ab. Anwenden der
Markov-Eigenschaft liefert:
α = αΠ = αΠn
Dies ist ein Widerspruch zur Irreduzibilität der Markovkette. Also gilt α(i) > 0 für alle
i ∈ E.
(11) liefert für alle n ∈ N:
X
1 = α(0) = α(j)Πn (j, 0).
j∈E
Wäre α(i) = ∞ für ein i ∈ E, so würde mit Hilfe der Irreduzibilität α(0) = ∞ folgen,
ein Widerspruch. Also ist α(i) < ∞ für alle i ∈ E.
Damit ist gezeigt, dass jede irreduzible rekurrente Markovkette mindestens ein inva-
riantes Maß besitzt.
Satz 7.10. Das invariante Maß einer irreduziblen rekurrenten Markovkette ist bis auf
Multiplikation mit einer positiven Konstanten eindeutig.
Beweis. Sei α das invariante Maß aus Satz 7.8 und sei β ein beliebiges invariantes Maß.
Wir zeigen folgenden Zusammenhang zwischen α und β:
Im Beweis von Satz 7.8 wurde gezeigt, dass für jedes invariante Maß β gilt:
Definiere
β(i)
Π̃(j, i) := Π(i, j) für alle i, j ∈ E.
β(j)
7 Rekurrenz 43
Wegen
X 1 X
Π̃(j, i) = β(i)Π(i, j) = 1
i∈E
β(j) i∈E
| {z }
=β(j)
Insbesondere gilt
Πn (i, j) > 0 ⇔ Π̃n (j, i) > 0.
Folglich ist die Markovkette mit Übergangsmatrix Π̃ irreduzibel. Wegen
folgt
∞
X ∞
X
Π̃n (i, i) = Πn (i, i) = ∞
n=0 n=0
nach Satz 7.2, da (Xn )n∈N0 rekurrent ist. Somit ist auch die Markovkette mit Übergangs-
matrix Π̃ rekurrent.
Sei P̃ die Verteilung der Markovkette mit Übergangsmatrix Π̃. Wir setzen für i ∈ E
und n ∈ N
Außerdem gilt:
bi (n + 1) = β(i)P̃i (T0 = n + 1)
X
= β(i) P̃i (X1 = j, T0 = n + 1)
| {z }
j∈E
= 0 für j = 0, da n ≥ 1
X
= β(i) P̃i (T0 = n + 1 | X1 = j)P̃i (X1 = j)
j∈E\{0}
X
= P̃j (T0 = n)β(i)Π̃(i, j) nach der Markov-Eigenschaft.
j∈E\{0}
X
= P̃j (T0 = n)β(j)Π(j, i)
j∈E\{0}
X
= bj (n)Π(j, i)
j∈E\{0}
Somit erfüllen die Folgen (ai (n))n∈N und (bi (n))n∈N beide die Gleichung
X
ci (n + 1) = cj (n)Π(j, i).
j∈E\{0}
Wegen ai (1) = bi (1) folgt ai (n) = bi (n) für alle n ∈ N. Damit ergibt sich
∞
X ∞
X ∞
X
β(0)α(i) = ai (n) = bi (n) = β(i)P̃i (T0 = n) = β(i)P̃i (T0 < ∞).
n=1 n=1 n=1
Da die Markovkette mit Übergangsmatrix Π̃ irreduzibel und rekurrent ist, folgt aus
Lemma 7.11 P̃i (T0 < ∞) = 1. Damit haben wir für alle i ∈ E gezeigt: β(i) = β(0)α(i).
Lemma 7.11. Für eine irreduzible rekurrente Markovkette gilt für alle i, j ∈ E:
Pi (Tj < ∞) = 1.
Nun ist k∈E Πm (j, k) = 1 und Πm (j, i) > 0. Wäre Pi (Tj < ∞) < 1, so wäre die rechte
P
Pi (Tj < ∞) = 1.
7 Rekurrenz 45
(b) Ist ein Zustand positiv rekurrent, so sind alle Zustände positiv rekurrent und es gilt
X
α(i) < ∞
i∈E
Also ist 0 positiv rekurrent. Da man in der Definition von α den Zustand 0 durch
jeden anderen Zustand ersetzen kann, folgt die Behauptung.
für das invariante Maß α aus Satz 7.8. Aus Teil (a) und der Tatsache, dass jedes
invariante Maß ein Vielfaches von α ist, folgt die Behauptung.
Eine Markovkette, deren Zustände positiv rekurrent sind, heißt positiv rekurrent.
Korollar 7.13. Eine irreduzible positiv rekurrente Markovkette besitzt genau eine sta-
tionäre Verteilung.
Satz 7.14. Eine irreduzible Markovkette ist positiv rekurrent genau dann, wenn sie
eine stationäre Verteilung besitzt. Wenn eine stationäre Verteilung α existiert, ist sie
eindeutig und erfüllt α(i) > 0 für alle i ∈ E.
Beweis. Betrachte eine irreduzible Markovkette.
„⇒“ Sei die Markovkette positiv rekurrent. Nach Korollar 7.13 gibt es eine eindeutig
bestimmte stationäre Verteilung α. Diese ist bis auf eine multiplikative Konstante
gegeben durch das invariante Maß α aus Satz 7.8, welches α(i) > 0 für alle i ∈ E
erfüllt.
„⇐“ Sei α eine stationäre Verteilung. Angenommen, die Markovkette wäre transient. Vorl. 11,
Dann folgt aus Satz 7.5 12.7.2022
hP i ∞ ∞
∞
X X
∞ > Ej [Ni ] = Ej n=1 1{Xn =i} = Pj (Xn = i) = Πn (j, i)
n=1 n=1
lim Πn (j, i) = 0.
n→∞
7 Rekurrenz 46
Da 0 ≤ Πn (j, i) ≤ 1 und
P
j∈E α(j) = 1 folgt aus dem Satz von der dominierten
Konvergenz
X
α(i) = lim α(j)Πn (j, i)
n→∞
j∈E
X
= α(j) lim Πn (j, i) = 0.
n→∞
j∈E
P
Dies ist ein Widerspruch zu i∈E α(i) = 1. Also ist die Markovkette rekurrent.
Aus Satz 7.12 (a) folgt die positive Rekurrenz.
Satz 7.15. Für die stationäre Verteilung β einer irreduziblen positiv rekurrenten Mar-
kovkette gilt:
1
β(i) = für alle i ∈ E,
Ei [Ti ]
wobei Ti := min{n ≥ 1 : Xn = i}.
Da β sich nur durch eine Konstante von α unterscheidet und ein Wahrscheinlichkeitsmaß
ist, folgt
α(0) 1
β(0) = P = .
i∈E α(i) E0 [T0 ]
Da in der Definition von α der Zustand 0 durch jeden beliebigen Zustand ersetzt werden
kann, folgt die Behauptung.
Satz 7.16. Jede irreduzible Markovkette mit endlichem Zustandsraum ist positiv rekur-
rent.
Beweis. Nach Satz 7.6 ist die Markovkette rekurrent. Nach Satz 7.8 gibt es ein invariantes
Maß α mit 0 < α(i) < ∞ für alle i ∈ E. Da E endlich ist, gilt i∈E α(i) < ∞. Somit
P
1 1 1
2 2 2
... ...
i−1 1 i 1 i+1 1
2 2 2
7 Rekurrenz 47
In Beispiel 5.4 haben wir gesehen, dass die Markovkette das invariante Maß
besitzt. Aus X
α(i) = ∞
i∈Z
folgt mit Satz 7.12, dass alle Zustände null rekurrent sind.
Π(i, i + 1) = p,
1
Π(i, i − 1) = 1 − p, i ∈ Z, p ∈ (0, 1), p 6=
2
und Übergangsgraph
Es gilt:
pα(i − 1) + (1 − p)α(i + 1)
i−1 ! i+1 !
p p
=p a + b + (1 − p) a + b
1−p 1−p
!
pi pi+1
=a + b +
(1 − p)i−1 (1 − p)i
i
p
=a + b (1 − p + p)
1−p
i
p
=a + b = α(i).
1−p
In diesem Fall ist das invariante Maß nicht eindeutig bis auf eine Konstante.
Beispiel 7.19. Betrachte die Irrfahrt auf N0 mit Reflexion in 0 mit ortsabhängigen
Übergangswahrscheinlichkeiten. Dies ist die Markovkette mit Übergangsgraph
p0 p1 p2 p3
...
0 q1 1 q2 2 q3 3 q4 4
8 Konvergenzsatz 48
Übergangsmatrix:
Π(i, i + 1) = pi , i ∈ N0 ,
Π(i, i − 1) = qi := 1 − pi , i ∈ N,
Π(i, j) = 0 für alle anderen Paare (i, j).
Also:
α(0) = α(1)q1 ,
α(i) = α(i − 1)pi−1 + α(i + 1)qi+1 für alle i ∈ N.
p0 1
Außerdem gilt: α(1) = q1 α(0) = q1 α(0). Die Markovkette ist positiv rekurrent, wenn
X p0 · · · pi−1
1+ < ∞.
i∈N
q1 · · · qi
pi−1
α(i) = α(0), i ∈ N.
qi
Die Markovkette ist positiv rekurrent genau dann, wenn
∞ i−1 ∞ i
X p 1X p p
= <∞ ⇔ <1
i=1
qi q i=0 q q
1
⇔ p<1−p ⇔ p< .
2
8 Konvergenzsatz
Hat eine Markovkette (Xn )n∈N0 eine stationäre Verteilung α als Startverteilung, so hat
Xn für alle n ∈ N0 Verteilung α. Was können wir über die Verteilung von Xn bei
einer beliebigen Startverteilung sagen? Konvergiert sie für n → ∞ gegen eine stationäre
Verteilung? Wir interessieren uns z.B. für
für i, j ∈ E.
8 Konvergenzsatz 49
Definition 8.1. Sei E abzählbar und seien µ, ν Wahrscheinlichkeitsmaße auf (E, P(E)).
Der Abstand von µ und ν in Totalvariation ist definiert durch
1X
dTV (µ, ν) := |µ(i) − ν(i)|.
2 i∈E
Offensichtlich ist dTV eine Metrik auf dem Raum der Wahrscheinlichkeitsmaße auf E
und es gilt
1X
0 ≤ dTV (µ, ν) ≤ (µ(i) + ν(i)) = 1.
2 i∈E
Satz 8.2 (Konvergenzsatz). Sei (Xn )n∈N0 eine irreduzible, aperiodische, positiv rekur-
rente Markovkette. Dann gilt für alle Startverteilungen µ, ν:
d.h. X
lim |Pµ (Xn = i) − α(i)| = 0
n→∞
i∈E
und
lim Pi (Xn = j) = α(j)
n→∞
für alle i, j ∈ E.
Bemerkung 8.3. Die Aussagen des Konvergenzsatzes gelten für irreduzible aperiodische
Markovketten mit endlichem Zustandsraum. Denn dann ist die Markovkette automatisch
positiv rekurrent.
Beispiel 8.4. Betrachte als vereinfachtes Beispiel für das Wetter die Markovkette mit
Übergangsmatrix
s r !
9 1
s 10 10
Π= 1 4
r 5 5
αΠ = α
⇔ α(Π − Id) = 0
!
1 1
− 10 10
⇔ (α(s), α(r)) 1 = (0, 0)
5 − 51
α(s) α(r)
⇔ − + =0
10 5
⇔ α(s) = 2α(r)
8 Konvergenzsatz 50
Beweis. Wegen
Es gilt
Andererseits gilt:
X
S= (µ(i) − ν(i))
i∈Amax
X X X
= µ(i) − ν(i) − (µ(i) − ν(i))
i∈Acmax
| {z }
i∈E i∈E
| {z } | {z } =−|µ(i)−ν(i)|
=1 =1
X
= |µ(i) − ν(i)| (14)
i∈Acmax
Für eine Zufallsvariable X bezeichne L(X) die Verteilung von X. Nimmt X Werte in
E an, so ist L(X) das Wahrscheinlichkeitsmaß auf (E, P(E)) mit
L(X)(A) = P (X ∈ A),
für alle A ⊆ E.
Man nennt (X̃, Ỹ ) auch eine Kopplung der Verteilungen L(X) und L(Y ).
Xp = 1{U ≤p} .
Dann gilt
P (Xp = 1) = P (U ≤ p) = p, P (Xp = 0) = 1 − p.
Also ist Xp ∼ Bernoulli(p). Dies ist eine Kopplung von Bernoulli(p), p ∈ [0, 1]. Sie besitzt
die nützliche Monotonieeigenschaft
p1 ≤ p2 ⇒ Xp1 ≤ Xp2
Satz 8.8. Seien µ und ν Wahrscheinlichkeitsmaße auf (E, P(E)). Für jede Kopplung
(X, Y ) von µ und ν gilt
P (X = Y ) ≤ 1 − dTV (µ, ν).
Außerdem gibt es eine Kopplung (X, Y ) von µ und ν, sodass Gleichheit gilt. Diese Kopp-
lung heißt optimal.
Beweis. Sei (X, Y ) eine Kopplung von µ und ν. Dann gilt für alle A ⊆ E:
P (X 6= Y ) ≥ P (X ∈ A, Y ∈
/ A)
= P (X ∈ A) − P (X ∈ A, Y ∈ A)
≥ P (X ∈ A) − P (Y ∈ A)
= µ(A) − ν(A).
P (X = Y ) ≤ 1 − dTV (µ, ν) = 0
8 Konvergenzsatz 52
und daher P (X = Y ) = 0 = 1 − dTV (µ, ν). Also ist jede Kopplung optimal.
Fall dTV (µ, ν) ∈ (0, 1): Für x, y ∈ R sei
Weiter gilt:
X X
1 − dTV (µ, ν) =1 − (µ(i) − ν(i))+ = 1 − (µ(i) − ν(i))
i∈E i∈E
µ(i)>ν(i)
X X
=1 − (µ(i) − µ(i) ∧ ν(i)) = µ(i) ∧ ν(i). (16)
i∈E i∈E
P (X = i) = P (X = i, U = 1) + P (X = i, U = 0)
= P (Z = i, U = 1) + P (V = i, U = 0)
= P (Z = i)P (U = 1) + P (V = i)P (U = 0), da U, V, Z unabhängig.
+
= µ(i) ∧ ν(i) + (µ(i) − ν(i))
= µ(i),
P (Y = i) = µ(i) ∧ ν(i) + (ν(i) − µ(i))+
= ν(i).
P (X = Y ) =P (U = 1) + P (V = W, U = 0)
=1 − dTV (µ, ν) + P (V = W )P (U = 0),
8 Konvergenzsatz 53
Satz 8.9. Seien (Xn )n∈N0 und (Yn )n∈N0 unabhängige irreduzible, aperiodische, positiv
rekurrente Markovketten mit derselben Übergangsmatrix Π und Startverteilungen µ und
ν. Sei
τ = inf{n ∈ N0 : Xn = Yn }.
Dann gilt P (τ < ∞) = 1. Der Prozess
(
Xn , falls n ≤ τ ,
X̃n =
Yn , falls n ≥ τ ,
Dann gilt:
Insbesondere können wir für n zwei verschiedene Primzahlen wählen und es folgt, dass
(i, j) Periode 1 hat. Also ist (Zn )n∈N0 aperiodisch.
Sei α die stationäre Verteilung von (Xn )n∈N0 .
Behauptung. β(i, j) = α(i)α(j), i, j ∈ E, ist eine stationäre Verteilung für (Zn )n∈N0 .
Es gilt:
i,i0 ∈E i,i0 ∈E
α(i0 )Π(i0 , j 0 )
X X
= α(i)Π(i, j)
i∈E i0 ∈E
0
= α(j)α(j ), da α stationär ist.
0
= β(j, j ).
Außerdem gilt
β(i, i0 ) = α(i)α(i0 ) = 1.
X X
i,i0 ∈E i,i0 ∈E
Insbesondere ist (Zn )n∈N0 nach Satz 7.14 positiv rekurrent. Mit Lemma 7.11 folgt für
alle i, j ∈ E
Somit ist
P(i,j) (τ < ∞) = 1.
Bleibt zu zeigen dass (X̃n )n∈N0 eine Markovkette mit Übergangsmatrix Π ist. Wir setzen
(
˜ := Yn , falls n ≤ τ ,
X̃n
Xn , falls n ≥ τ ,
Insbesondere folgt:
˜ )
(X̃n , X̃ 0
n n∈N0 = (Z0 , . . . , Zτ , χ ).
Wegen der starken Markov-Eigenschaft gilt bedingt auf (Xτ , Yτ ) = (i, i):
• χ und χ0 sind Markovketten mit Übergangsmatrix Π̃. Insbesondere haben sie die-
selbe Verteilung.
9 Ergodensatz 55
Definition 8.10. Eine Kopplung der stochastischen Prozesse (Xn )n∈N0 und (Yn )n∈N0 Vorl. 13,
ist ein stochastischer Prozess (X̃n , Ỹn )n∈N0 mit der Eigenschaft 26.7.2022
Beweis des Konvergenzsatzes (Satz 8.2). Es sei (Xn )n∈N0 eine irreduzible, aperiodische,
positiv rekurrente Markovkette mit Übergangsmatrix Π und Startverteilung µ. Weiter sei
(Yn )n∈N0 eine Markovkette mit Übergangsmatrix Π und Startverteilung ν, unabhängig
von der Markovkette (Xn )n∈N0 . Sei
τ = inf{n ∈ N0 : Xn = Yn }.
ist nach Satz 8.9 eine Markovkette mit Übergangsmatrix Π und Startverteilung µ, hat
also dieselbe Verteilung wie (Xn )n∈N0 . Insbesondere ist (X̃n , Yn )n∈N0 eine Kopplung von
Pµ und Pν . Daher gilt für alle A ⊆ E:
Wir nehmen das Supremum über alle A ⊆ E und folgern mit Lemma 8.5:
Mit
lim P (τ > n) = P (τ = ∞) = 0
n→∞
9 Ergodensatz
Satz 9.1. Sei (Xn )n∈N0 eine irreduzible, positiv rekurrente Markovkette und sei Abschnitt
ausgelassen
T0 := min{n ≥ 1 : Xn = 0}.
1
D.h. die Markovkette verbringt asymptotisch den Anteil E0 [T0 ] ihrer Zeit im Zustand 0.
Bemerkung 9.2. Seien Xn , n ∈ N0 , unabhängig und identisch verteilt mit Werten
in E. OBdA sei P (X0 = i) > 0 für alle i ∈ E (ansonsten verkleinern wir E). Setze
p = P (X0 = 0). Dann folgt aus dem starken Gesetz der großen Zahlen:
−1
1 NX
lim 1{Xn =0} = E[1{X0 =0} ] = P (X0 = 0) = p fast sicher.
N →∞ N
n=0
Dies ist ein Spezialfall des Ergodensatzes, denn (Xn )n∈N0 ist eine irreduzible Markov-
kette. Es gilt:
1
T0 ∼ geometrisch(p) ⇒ E0 [T0 ] = < ∞.
p
Somit ist die Markovkette auch positiv rekurrent.
1 L 1 L−1
X 1 L−1
X
T = (T `+1 − T ` ) = τ` −→ E0 [T0 ]
L L `=0 L `=0 L→∞
Pµ -fast sicher, d.h. die Konvergenz gilt für ω aus einer Menge Ω0 mit Pµ (Ω0 ) = 1.
Wir setzen
N
X −1
ν(N ) := 1{Xn =0}
n=0
als die Anzahl Besuche in 0 bis zur Zeit N − 1. Da (Xn )n∈N0 rekurrent ist, wird 0
unendlich oft besucht. Insbesondere gilt
lim ν(N ) = ∞
N →∞
9 Ergodensatz 57
Daraus folgt
N −1
⇒ lim = E0 [T0 ] Pµ -fast sicher
N →∞ ν(N )
ν(N ) ν(N ) N − 1 1
⇒ lim = lim · = Pµ -fast sicher
N →∞ N N →∞ N − 1 N E0 [T0 ]
Satz 9.3 (Ergodensatz). Sei (Xn )n∈N0 eine irreduzible, positiv rekurrente Markovkette
mit stationärer Verteilung α und sei
f :E→R
eine beschränkte Funktion. Dann gilt für jede Startverteilung µ Pµ -fast sicher:
−1
1 NX X
lim f (Xn ) = f (i)α(i) = Eα [f (X0 )].
N →∞ N
n=0 i∈E
Satz 9.1 ist ein Spezialfall davon mit f (i) = 1{0} (i), i ∈ E. In dem Fall ist f (Xn ) =
1{Xn =0} und
1
Eα [f (X0 )] = Eα [1{X0 =0} ] = Pα (X0 = 0) = α(0) = .
E0 [T0 ]
Beweis von Satz 9.3. Sei C := supi∈E |f (i)|. Wir setzen für i ∈ E
N
X −1
νi (N ) = 1{Xn =i} .
n=0
Einsetzen liefert
X νi (N ) X
SN ≤ 2C − α(i) + 2C α(i).
i∈I
N i∈E\I
und es folgt:
X νi (N )
lim SN ≤ 2C lim − α(i) +ε = ε,
N →∞ N →∞
i∈I
N
| {z }
−→ 0
N →∞
lim SN = 0.
N →∞
Beispiel 9.4. Betrachte eine Markovkette als vereinfachtes Modell für das Wetter mit
Zustandsraum E = {r, s, w}, r =
ˆ Regen, s =
ˆ Sonne, w =ˆ Wolken und Übergangsmatrix
r s w
1 1 1
r 2 4 4
1 1 1
Π= s
4 2 4
1 1 1
w 4 4 2
Berechnen Sie den mittleren Umsatz pro Tag im langjährigen Mittel. Dazu sei (Xn )n∈N0
eine Markovkette mit Übergangsmatrix Π. Definiere f : E → R durch
Gesucht ist
−1
1 NX
lim f (Xn ).
n→∞ N
n=0
Die Markovkette ist irreduzibel. Da der Zustandsraum endlich ist, ist sie positiv rekur-
rent. Es gibt eine eindeutige stationäre Verteilung α. Da Π doppelt stochastisch ist, ist
α die Gleichverteilung. Alternativ berechnet man α wie folgt:
αΠ = α ⇔ α(Π − Id) = 0
− 12 4
1 1
4
1
⇔ (α(r), α(s), α(w)) 4 − 21 1
4 = (0, 0, 0)
1 1
4 4 − 12
10 Monte-Carlo Simulation
Dieses Kapitel basiert auf Kapitel 7 des Buches [H0̈2] von Olle Häggström.
Problem: Wie simuliert man ein Wahrscheinlichkeitsmaß α auf einer endlichen Menge
E = {1, . . . , k}?
Eigentlich ist dies ganz einfach: Definiere g : [0, 1) → E durch
" i−1 i
!
X X
g(x) = i für x ∈ α(l), α(l) , i ∈ E.
l=1 l=1
10 Monte-Carlo Simulation 60
Ist U gleichverteilt auf [0, 1), dann hat g(U ) die Verteilung α, denn für alle i ∈ E gilt:
" i−1 i
!!
X X
P (g(U ) = i) = P U∈ α(l), α(l) = α(i).
l=1 l=1
Problem: Dies funktioniert in der Praxis nur, wenn |E| klein ist.
Beispiel 10.1 (Harte-Kugel-Modell). Sei G = (V, E) ein zusammenhängender Graph
mit
• Knotenmenge V = {v1 , . . . , vk } und
• Menge ungerichteter Kanten E = {e1 , . . . , el }.
Wir betrachten das Harte-Kugel-Modell auf G:
Jedem Knoten ordnen wir zufällig den Wert 0 oder 1 zu, unter der Nebenbedingung, dass
zwei benachbarte Knoten nicht beide den Wert 1 haben können. Dabei heißen u, v ∈ V
benachbart, wenn sie durch eine Kante verbunden sind.
Elemente von {0, 1}V heißen Konfigurationen. Eine Konfiguration heißt zulässig, wenn
sich keine zwei Einsen an benachbarten Knoten befinden.
Alle zulässigen Konfigurationen sollen gleich wahrscheinlich sein.
1 1
0 1
1 0
0 1
Das Modell wurde in der statistischen Physik eingeführt. Dabei nahm man an, dass
der zugrundeliegende Graph ein Teilwürfel von Z3 ist, d.h. etwa V = [−N, N ]3 ∩ Z3 .
Man möchte Gase modellieren, deren Teilchen nicht vernachlässigbare Radien besitzen
und sich nicht überschneiden können.
• Eine 1 bei v ∈ V bedeutet, dass sich an der Stelle v ein Teilchen befindet.
• Eine 0 bei v ∈ V steht für einen leeren Gitterplatz.
Definition 10.2. Sei ZG die Anzahl der zulässigen Konfigurationen auf G. Definiere ein
Wahrscheinlichkeitsmaß µG auf ({0, 1}V , P({0, 1}V )) durch
(
1
µG ({ξ}) = ZG , falls ξ zulässige Konfiguration,
0 sonst.
D.h. µG ist die Gleichverteilung auf der Menge der zulässigen Konfigurationen.
10 Monte-Carlo Simulation 61
Das ist exponentiell in N . Auch die Anzahl der zulässigen Konfigurationen wächst ex-
ponentiell in N . Typischerweise ist man an großen N interessiert, so dass man µG nicht
naiv simulieren kann.
Bemerkung 10.3. • Für ξ ∈ {0, 1}V sei e(ξ) die Anzahl Einsen in ξ.
• Sei X eine Zufallsvariable mit Verteilung µG .
• Eine Größe von Interesse: E[e(X)] = erwartete Anzahl von Einsen in einer Konfi-
guration, die zufällig gemäß µG ausgewürfelt wird.
Es gilt:
X 1 X
E[e(X)] = e(ξ)µG (ξ) = e(ξ)1{ξ ist zulässig} .
ZG
ξ∈{0,1}V ξ∈{0,1}V
1 Pn
So bekommen wir einen Schätzer, nämlich n i=1 e(Xi ), für E[e(X)].
Um µG zu simulieren, verwendet man die sogenannte Markov Chain Monte Carlo-
Methode (MCMC, 1950). Sie hat Anwendungen u.a. in der Bildverarbeitung und der
Bayesschen Statistik.
Allgemeine Idee: Um ein Wahrscheinlichkeitsmaß α auf einer endlichen Menge E zu
simulieren, konstruieren wir eine irreduzible, aperiodische Markovkette (Xn )n∈N0 , deren
eindeutige stationäre Verteilung α ist. Dann folgt aus dem Konvergenzsatz, dass für jede
beliebe Anfangsverteilung µ die Verteilung µ(n) von Xn gegen α konvergiert. D.h. für
große n ist µ(n) eine Approximation von α. Durch verlängern der Laufzeit kann man die
Güte der Approximation verbessern.
Problem: Wie konstruiert man eine solche Markovkette?
Ein MCMC-Algorithmus für das Harte-Kugel-Modell. Da µG (ξ) > 0 genau dann, wenn
ξ zulässig ist, wollen wir eine irreduzible, aperiodische Markovkette mit Zustandsraum
Lemma 10.6. µG |E ist ein reversibles Maß für die Markovkette (Xn )n∈N0 .
Beweis. Seien ξ, η ∈ E. Zu zeigen:
µG (ξ)Π(ξ, η) = µG (η)Π(η, ξ) ⇐⇒ Π(ξ, η) = Π(η, ξ)
Sei d(ξ, η) die Anzahl der Knoten, in denen sich ξ und η unterscheiden.
Fall d(ξ, η) = 0: Dann ist ξ = η und die Behauptung klar.
Fall d(ξ, η) ≥ 2: Da sich bei einem Übergang die Konfiguration nur an einem Knoten
ändert, ist Π(ξ, η) = 0 = Π(η, ξ). Also gilt die Behauptung.
Fall d(ξ, η) = 1: Sei v der Knoten, in dem sich ξ und η unterscheiden. Dann ist oBdA
ξ(v) = 0 und η(v) = 1. In jedem Fall haben alle Nachbarn von v in ξ und η den Wert 0
und es gilt:
1 1
Π(ξ, η) = · = Π(η, ξ).
|V | 2
Definition 10.7. Der beschriebene MCMC-Algorithmus gehört zur Klasse der Gibbs
sampler. Gibbs sampler sind nützlich zum Simulieren von Wahrscheinlichkeitsmaßen α
auf Zustandsräumen der Form
E = SV
mit S und V endlich.
Der Gibbs sampler ist eine Markovkette mit folgenden Übergangswahrscheinlichkeiten:
Zu jeder Zeit n + 1, n ∈ N0 ,
1. Wähle einen Knoten v ∈ V zufällig gemäß der Gleichverteilung.
2. Wähle Xn+1 (v) gemäß der Verteilung
P (Xn+1 (v) = σ) = α(ω(v) = σ|ω(u) = Xn (u) ∀u 6= v)
für σ ∈ S. Dabei schreiben wir kurz
{ω(v) = σ} = {ω ∈ E : ω(v) = σ} etc.
10 Monte-Carlo Simulation 63
Bemerkung 10.11. Die Metropoliskette (Xn )n∈N0 läßt sich wie folgt erzeugen: Ange-
nommen Xn = i. Wähle j gleichverteilt aus allen Nachbarn von i und setze
n o
j α(j)di
mit Wahrscheinlichkeit min α(i)d ,1 ,
Xn+1 = nj o
α(j)di
i mit Wahrscheinlichkeit 1 − min α(i)dj , 1 .
1
α(i)Π(i, j) = α(i) · ,
di
1 α(i)dj α(i)
α(j)Π(j, i) = α(j) · = .
dj α(j)di di
α(j)di
Ähnlich folgt im Fall α(i)dj ≤1
1 α(j)di α(j)
α(i)Π(i, j) = α(i) · = ,
di α(i)dj dj
1
α(j)Π(j, i) = α(j) · .
dj
Literatur
[BL03] P. Bonacich and T.M. Liggett. Asymptotics of a matrix valued Markov chain
arising in sociology. Stochastic Process. Appl., 104(1):155–171, 2003.
[Bré99] P. Brémaud. Markov chains. Gibbs Fields, Monte Carlo Simulation, and Queues.
Springer, 1999.
[H0̈2] O. Häggström. Finite Markov chains and algorithmic applications, volume 52 of
London Mathematical Society Student Texts. Cambridge University Press, Cam-
bridge, 2002.
[LR04] T.M. Liggett and S.W.W. Rolles. An infinite stochastic model of social network
formation. Stochastic Process. Appl., 113(1):65–80, 2004.