Sie sind auf Seite 1von 47

Einfuhrung¨

in die

Wahrscheinlichkeitstheorie

Thomas Richthammer

Vorlesung an der TUM im WS 2011/2012

10. Februar 2012

Inhaltsverzeichnis

1 Wahrscheinlichkeitsr¨aume

 

3

1.1 Einfuhrende¨

Beispiele .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3

1.2 Axiomatische Beschreibung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

1.3 Wahl des Wahrscheinlichkeitsraums

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

6

1.4 Diskrete Wahrscheinlichkeitsmaße

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

1.5 Stetige Wahrscheinlichkeitsmaße

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

1.6 Verteilungsfunktion

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

2 Zufallsvariablen

14

2.1 Verteilung einer Zufallsvariable

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

14

2.2 Simulation von Zufallsvariablen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

17

2.3 Transformation von Zufallsvariablen:

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

18

3 Bedingte Wahrscheinlichkeiten und Verteilungen

 

21

3.1 Bedingte Wahrscheinlichkeiten

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

21

3.2 Bedingte Verteilungen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

23

3.3 Unabh¨angigkeit

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

24

4 Erwartungswert

27

4.1 Erwartungswert

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

27

4.2 Kovarianz und Varianz

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

4.3 Verwendung von Indikatorfunktion und Bedingungen

.

.

.

.

.

.

.

.

.

.

32

4.4 Momentenerzeugende Funktionen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

34

5 Beispiele fur¨

Zufallsvariablen

 

35

5.1 Zuf¨allige Ereignisse in diskreter Zeit

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

5.2 Zuf¨allige Ereignisse in stetiger Zeit

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

37

5.3 Normalverteilung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

6 Grenzwerts¨atze

43

6.1 Gesetz der großen Zahl

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

43

6.1.1 Schwaches Gesetz der großen Zahl .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

43

6.1.2 Starkes Gesetz der großen Zahl

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

44

6.2 Zentraler Grenzwertsatz

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

46

1 Wahrscheinlichkeitsr¨aume

3

Vorwort

Dieses Skript ist eine Weiterentwicklung des Skriptes zur Vorlesung “Einfuhrung¨ in die Wahrscheinlichkeitstheorie” vom Wintersemester 2010/11. Besonderer Dank geht an die Studenten R. Hager, P. Hoffmann und A. Leitner, die eine erste Version dieses Skripts geTEXt haben, und an alle Studenten der Vorlesung, die mich auf Fehler im Skript hingewiesen haben.

Zur Verwendung des Skripts im Wintersemester 2011/12: Das Skript enth¨alt im We- sentlichen alles, was in der Vorlesung besprochen wurde, abgesehen von Bildern und Skizzen.

1

1.1

Wahrscheinlichkeitsr¨aume

Einfuhrende¨

Beispiele

Viele Vorg¨ange des t¨aglichen Lebens sind mit einer gewissen Unsicherheit behaftet. Bei- spiele hierfur¨ sind Wettervorhersage, Lotto, Aktienkurse, die Ausbreitung von Krank- heiten, das Verhalten großer Teilchenmengen (Physik), das Verhalten großer Menschen- massen z.B. bei Panik, die Wartezeit in Warteschlangen, u.s.w.

Die Wahrscheinlichkeitstheorie, ein Teilgebiet der Stochastik, dient zur mathematischen Beschreibung solcher Ph¨anomene. Diese Vorlesung soll eine erste Einfuhrung¨ in dieses Gebiet vermitteln.

Ziel der Vorlesung ist:

die pr¨azise Beschreibung unsicherer Situationen,

die Quantifizierung des Zufalls,

Gesetzm¨aßigkeiten zu erkennen und zu erkl¨aren.

Betrachten wir zun¨achst ein paar einfache konkrete Situationen:

(a) Einmaliges Werfen eines Wurfels.¨

Diese Situation wird komplett beschrieben

durch die Menge der m¨oglichen Ergebnisse {1, 2, 3, 4, 5, 6}, sowie deren Wahr- scheinlichkeiten:

Ergebnis

1

2

3

4

5

6

Wahrscheinlichkeit

1

1

1

1

1

1

6

6

6

6

6

6

(b) Zuf¨allige Bruchstelle einer Fahrzeugachse (der L¨ange 1). Die Menge der m¨oglichen Bruchstellen kann beschrieben werden durch [0, 1]. Dass die Achse exakt an einer

, (d.h. dies hat Wahrscheinlichkeit 0). Die Angabe der Einzelwahrscheinlichkeiten ist daher zur Beschreibung der Bruchstelle ungeeignet. Sinnvoll dagegen ist z.B.

ist extrem unwahrscheinlich

festen Stelle x [0, 1] bricht, z.B. x = 0.233517

die Betrachtung der Wahrscheinlichkeit fur¨ einen Bruch in [0, 1 2 ]. Aus Symmetrie-

grunden¨ wurde¨ man hierfur¨ annehmen, dass diese Wahrscheinlichkeit

2 1 ist.

1.2

Axiomatische Beschreibung

4

(c) Schadensf¨alle einer Versicherung. Ein m¨ogliches Ergebnis w¨are hier z.B. durch die Angabe der Zeitpunkte aller Schadensf¨alle bestimmt. Sinnvoll w¨are hier z.B. die Betrachtung der Wahrscheinlichkeit dafur¨ dass in einem gewissen Zeitraum 3 Schadensf¨alle stattfinden, oder dafur¨ dass zwischen 2. und 3. Schadensfall h¨ochs- tens 2 Tage liegen.

Diese Beispiele sollen zeigen, dass es zur Beschreibung eines probabilistischen Sachver- halts oft nicht ausreicht, die Wahrscheinlichkeiten aller m¨oglicher Einzelergebnisse zu betrachten. Stattdessen sollten besser Mengen von Ergebnissen (sogenannte Ereignisse) betrachtet werden. Im n¨achsten Abschnitt beschreiben wir zuf¨alliges Verhalten durch eine Funktion, die jedem Ereignis (das fur¨ uns interessant ist) seine entsprechende Wahrscheinlichkeit zuordnet.

Bemerkung: Die Wahrscheinlichkeitstheorie gibt keine Antwort auf die Frage: Was ist Zufall? Diese Frage ist Gegenstand der Philosophie (vgl. naive, frequentistische, subjektive Interpretation). Die Mathematik soll unabh¨angig von der Interpretation von Wahrscheinlichkeit funktionieren.

1.2 Axiomatische Beschreibung

Fur¨ die Beschreibung einer Situation mit Unsicherheit (=Zufallsexperiment) soll ein mathematisches Modell verwendet werden, bestehend aus:

Ω = Menge aller Ergebnisse (d.h. aller m¨oglichen Ausg¨ange des Experiments).

• F = Menge aller Ereignisse, die wir zur Beschreibung des Experiments verwenden wollen. Ein Ereignis ist hierbei eine gewisse Menge von Ergebnissen, d.h. eine Teilmenge von Ω.

P = Abbildung, die jedem Ereignis eine Wahrscheinlichkeit zuordnet.

Einige Eigenschaften sollten Ω, F, P sinnvollerweise grunds¨atzlich haben, unabh¨angig von der Art des betrachteten Zufallsexperiments. Diese werden in einer axiomatischen Definition zusammengefasst:

Definition:

Ein Mengensystem F ⊂ P(Ω) heißt σ-Algebra auf Ω

= , falls

(S1) Ω ∈ F

(S2) Fur¨

jedes A ∈ F ist auch A c (= Ω A) ∈ F .

(S3) Fur¨

beliebige A i ∈ F , i I (mit I abz¨ahlbar), ist auch iI A i ∈ F.

Eine Abbildung P : F → [0, 1] heißt Wahrscheinlichkeitsmaß auf (Ω, F ) falls:

(P1) P (Ω) = 1

(P2) Fur¨ disjunkte A i ∈ F , i I (mit I abz¨ahlbar), ist P ( iI A i ) = iI P(A i ).

= heißt Ergebnisraum. Ist F eine σ-Algebra auf Ω, so heißt (Ω, F )

Ereignisraum. Ist P ein Wahrscheinlichkeitsmaß auf (Ω, F ), so heißt (Ω, F , P ) Wahrscheinlichkeitsraum.

Die Menge Ω

1.2

Axiomatische Beschreibung

5

Bemerkung:

(P1) = Normiertheit (Ω enth¨alt mit Sicherheit alle m¨oglichen Ergebnisse) (P2) = σ-Additivit¨at (vgl. Massenfunktion)

Warum statt F nicht einfach ganz P(Ω)? Dann ist Forderung (P2) zu stark (Banach-Tarski-Paradox)

Warum Abz¨ahlbarkeit? Sonst Probleme z.B. bei “zuf¨alliger Bruchstelle”:

P ([0, 1]) = P ( x {x}) = x P({x}) = 0

Warum nicht einfach nur fur¨

endliche I?

Unendliche I n¨otig fur¨

Betrachtung von Grenzprozessen

(S1) n¨otig fur¨

(P1), (S3) n¨otig fur¨

(P2)

(S2),(S3): Abgeschlossenheitsaxiome: Bestimmte Mengenoperationen auf Ereig- nissen ergeben wieder Ereignisse

Bemerkung: Alle Mengenoperationen lassen sich auf Komplementbildung und Verei- nigung zuruckf¨ uhren,¨ z.B. A B = (A c B c ) c , A B = A B c , iI A i = ( iI A ) c , daher gilt fur¨ eine σ-Algebra:

c

i

• ∅ = Ω c = Ω ∈ F

A, B F

Fur¨

ist auch A B

∈ F

A i ∈ F , i I (mit I abz¨ahlbar) ist auch iI A i ∈ F

Fur¨

Aus (P1) und (P2) folgen viele weitere Eigenschaften von Wahrscheinlichkeitsmaßen.

Satz: Sei P ein Wahrscheinlichkeitsmaß auf (Ω, F ), und seien A, B, A i ∈ F.

(a)

(b)

(c)

Additivit¨at:

A B =

P (A B) = P (A) + P (B)

insbesondere:

P (A c ) = 1 P(A)

Monotonie:

A B

P (B) = P (A) + P (B A)

insbesondere:

A B

P (A) P (B)

σ-Stetigkeit:

A n A (d.h. A 1 A 2 A 3

mit n A n = A)

P(A n ) P(A)

A n A (d.h. A 1 A 2 A 3

mit n A n = A)

P(A n ) P(A)

(d)

Ein-/Ausschluß-Formel: P (

n n

i=1 A i ) =

k=1 (1) k+1

J⊂{1,

P(

,n}:|J|=k

n

A n ) = i=1 P(A i )

d.h. P (A 1 A 2

also insbesondere P (A B) = P (A) + P (B) P (A B)

2 n P(A i A 2 ) +

1i 1 <i

jJ A j ),

,

Beweis:

(a) Additivit¨at folgt aus (P2), mit B := A c folgt der Rest. (b), (c): Hausaufgabe, (d) beweisen wir sp¨ater.

1.3

Wahl des Wahrscheinlichkeitsraums

6

1.3 Wahl des Wahrscheinlichkeitsraums

Bemerkung:

Vor der Bearbeitung eines Problems sollte immer zuerst das verwendete Modell angegeben werden, d.h. der zugrundeliegende Wahrscheinlichkeitsraum (Ω, F , P ), sowie die Interpretation eines Ereignisses x Ω.

werden (aber manche

Die Wahl des Modells kann nicht mathematisch begrundet¨ Modelle sind plausibler als andere).

Verschiedene Modelle k¨onnen zum gleichen Ziel fuhren.¨

Der Ergebnisraum Ω sollte alle m¨oglichen Ergebnisse enthalten. Der Grad der Verein- fachung h¨angt davon ab, an was genau man interessiert ist.

Beispiel: Einmaliges Wurfeln.¨

M¨ogliche Ergebnismengen sind:

(a)

Ω = (R 3 ) N mit N := Anzahl der Atome des Wurfels¨

 

(x 1 ,

,

x N ) Ω: x i := Position des i-ten Atoms nach dem Wurf in R 3

Problem: Wahl von P ist kompliziert, die Lage jedes einzelnen Atoms interessiert normalerweise gar nicht!

(b)

Ω = {1, 2,

 

,

6, 0} wobei 0 = unklarer Ausgang, z.B. Wurfel¨

bleibt auf Kante

stehen. Normalerweise wird 0 einfach ignoriert. Dies fuhrt¨ zu:

(c)

Ω = {1,

,

6}. Hier beschreibt x Ω die Augenzahl.

(d)

Ω = {0, 1} mit 0 = “gerade Augenzahl”, 1 = “ungerade Augenzahl” Problem: Ereignis “Augenzahl ist 4” kann nicht beschrieben werden!

Bei der Wahl des Ereignisraumes legt man in der Regel zun¨achst fest, welche Art von elementaren Ereignissen auf jeden Fall betrachtet werden sollen.

Definition: Fur¨

σ-Algebra, die S enth¨alt. Ist σ(S) = F , so heißt F die von S erzeugte σ-Algebra, und

S heißt Erzeuger von F .

ein gegebenes Mengensystem S ⊂ P(Ω) bezeichne σ(S) die kleinste

Bemerkung: Die kleinste σ-Algebra, die S enth¨alt, kann man explizit konstruieren:

Sei F der Durchschnitt aller σ-Algebren, die S enthalten. Dann ist F tats¨achlich eine σ-Algebra, die S enth¨alt, und fur¨ jede weitere σ-Algebra F , die S enth¨alt, gilt F ⊃ F.

Beispiel:

Falls Ω abz¨ahlbar ist (z.B. endlich), w¨ahlt man in der Regel S = {{ω} : ω }. Man erh¨alt dann σ(S) = P(Ω) (denn jede Teilmenge ist abz¨ahlbare Vereinigung von 1-elementigen Mengen).

1.4

Diskrete Wahrscheinlichkeitsmaße

7

Falls Ω ein topologischer Raum ist (z.B. R n oder eine Teilmenge davon), w¨ahlt man in der Regel S als das System aller offenen Mengen. Man erh¨alt dann σ(S) =:

B , die sogenannte Borel-σ-Algebra.

Bemerkung:

Oft ist Ω = R, F = B R =: B. Es gilt B = P(R), aber B enth¨alt alle Mengen, die man in gewisser Weise “sinnvoll definieren” kann.

Erzeuger, z.B.

• B hat neben der Menge der offenen Mengen noch weitere nutzliche¨ S := {(−∞, c] : c R} oder S := {[a, b] : a b R}.

Die Betrachtung von Erzeugern hat einen weiteren Vorteil:

Satz: (Eindeutigkeitssatz.) Seien P 1 , P 2 Wahrscheinlichkeitsmaße auf (Ω, F ), und sei S ⊂ P(Ω) -stabil (d.h. A, B ∈ S ⇒ A B ∈ S) mit σ(S) = F . Ist P 1 (A) = P 2 (A) A ∈ S, dann gilt bereits P 1 (A) = P 2 (A) A ∈ F , d.h. ein Wahrscheinlich- keitsmaß ist durch seine Werte auf S bereits eindeutig festgelegt.

Beweis: Maßtheorie.

Beispiel: Sei Ω = N, F = P(N) und P ein Wahrscheinlichkeitsmaß. S = {∅, {1}, {2}, ist ein -stabiler Erzeuger von F . Dass P durch seine Werte auf S eindeutig festgelegt ist, sieht man hier auch direkt: P (A) = P ( xA {x}) = xA P ({x}).

}

Die Wahl eines geeigneten Wahrscheinlichkeitsmaßes ist in der Regel der schwierigste Teil der Modellbildung. In der Vorlesung betrachten wir meist diskrete oder stetige Wahrscheinlichkeitsmaße. Wie man diese konstruiert, wird in den n¨achsten beiden Ab- schnitten besprochen.

1.4 Diskrete Wahrscheinlichkeitsmaße

Ist Ω abz¨ahlbar, kann man ein geeignetes P definieren, indem man die Wahrscheinlich- keit aller Ergebnisse angibt:

Definition: Sei Ω abz¨ahlbar.

Eine Funktion ρ : Ω [0, 1] mit xρ(x) = 1 heißt Z¨ahldichte.

P (A) := xA ρ(x) heißt diskretes Wahrscheinlichkeitsmaß mit Z¨ahldichte ρ.

Bemerkung: P ist ein Wahrscheinlichkeitsmaß auf (Ω, P(Ω)), denn (P1) ergibt sich aus Normiertheit, (P2) aus dem verallgemeinertem Kommutativit¨atsgesetz

Das wichtigste Beispiel ist die diskrete Gleichverteilung.

1.4

Diskrete Wahrscheinlichkeitsmaße

8

Definition: Sei Ω endlich. Das Wahrscheinlichkeitsmaß auf (Ω, P(Ω)) mit Z¨ahldichte

ρ(x) :=

|| 1 , x Ω heißt (diskrete) Gleichverteilung auf Ω : U .

Bemerkung: Ist P = U die Gleichverteilung auf (Ω, P(Ω)), so ist

P(A) = ρ(x) =

xA

xA

|| = |A|

1

# betrachtete Ergebnisse

# m¨ogliche Ergebnisse .

|| =

Beispiel: Man w¨ahle rein zuf¨allig eine Zahl aus N = {1, 2, 3, scheinlichkeit ist die Zahl gerade? (Vermutete Antwort: 1 2 .)

}.

Mit welcher Wahr-

L¨osung: Wahrscheinlichkeitsraum: Ω = N, F = P(N), A = {2, 4, 6, Wir verfolgen drei Ans¨atze:

}.

Was ist P ?

(a) Da die Zahl rein zuf¨allig gew¨ahlt werden soll, wurden¨ wir gerne eine Z¨ahldichte ρ

w¨ahlen mit ρ(n) = c 0 konstant. Falls c = 0, so folgt nN ρ(n) = 0 = 1. Falls c > 0,

so folgt nN ρ(n) = ∞ · c = = 1. In beiden F¨allen ergibt sich ein Widerspruch zur

Normiertheitsbedingung. Wir sehen also, dass es keine Gleichverteilung auf N gibt!

(b) Wir w¨ahlen ein großes N und P = U {1,2,

2 1 . (Aber die zuf¨allige Zahl ist hier immer 2N .)

} . Hier gilt wie vermutet P (A) =

,2N

N

2N =

(c)

2 n1 ρ(1)n N, und

aus der Normiertheit folgt 1 = nN ρ(n) = nN 2 n1 ρ(1) = 1 2 ρ(1) = 2ρ(1), d.h.

Wir w¨ahlen P mit Z¨ahldichte ρ so dass ρ(n + 1) = 1 2 ρ(n) n N. (Diese Wahl ist

naturlich¨

etwas beliebig.) Es gilt dann ρ(n) =

1

2 ρ(n 1) =

1

1

=

1

1

ρ(1) = 1 2 und somit ρ(n) = 1 n . Hieraus ergibt sich

2

P(A) = ρ(n) =

nA

mN

1

2 2m =

mN

1 1 4 m = 1 − 1 4
1 1
4 m =
1 − 1
4

1 = 1

3 .

Wir stellen fest: Die Aufgabe ist schlecht gestellt. Es ist nicht klar, was “rein zuf¨allig

in N” bedeutet.

Bemerkung: Die Formel P (A) = |A|

||

sieht leicht aus, aber es kann ziemlich schwierig

sein, die Anzahl der Elemente einer Menge richtig zu z¨ahlen!

Beispiel: Es wird drei mal gewurfelt.¨ Bestimmen Sie die Wahrscheinlichkeiten der Ereignisse A = “Summe = 5”, B = “6 dabei”, C = “jeder Wert mehr als vorher”.

, 6}}

(mit x i = Ergebnis im i-ten Wurf), F = P(Ω), P = U . Es gilt || = 216.

(a) A = {(1, 2, 2), (2, 1, 2), (2, 2, 1), (1, 1, 3), (1, 3, 1), (3, 1, 1)}. Wir erhalten |A| = 6 und

somit P (A) =

(b) B = B 1 B 2 B 3 wobei B i = {(x 1 , x 2 , x 3 ) Ω : x i = 6}. Wir versuchen zun¨achst

|B| = |B 1 | + |B 2 | + |B 3 | = 3 · 36. Dies ist aber falsch, denn die B i sind nicht disjunkt!

L¨osung: Wahrscheinlichkeitsraum: Ω = {1,

,

6} 3

= {(x 1 , x 2 , x 3 ) : x i

∈ {1,

6 1

216 =

36 .

1.4

Diskrete Wahrscheinlichkeitsmaße

9

Das Ergebnis (6, 2, 6) wurde z.B. doppelt gez¨ahlt. Ein richtiges Ergebnis erh¨alt man mit der Einschluss-Ausschluss-Formel:

P(B) =

3

i=1

P(B i )

1ij3

1

P(B i B j ) + P(B 1 B 2 B 3 ) = 3 · 6 3 ·

1

1

6 2 + 6 3 .

Einfacher ist: P (B) = 1

(c) C = {(x 1 , x 2 , x 3 ) Ω : x 1 < x 2 < x 3 }, also |C| = 3

5

P (B c ) = 1 ( 6 ) 3 .

6 = 5 · 4 und P (C) = 5·4

6 3 .

Beispiel: Poker wird mit 4 × 13 = 52 Karten gespielt. Eine Poker-Hand besteht aus 5

Karten. Man bestimme die Wahrscheinlichkeit dafur,¨

(a) einen Zwilling (aber nichts besseres)

folgendes Blatt zu erhalten:

(b) zwei Zwillinge (aber nichts besseres)

L¨osung: Ω = Menge aller Kombinationen von 5 aus 52 Karten, F = P(Ω), P = U .

(a) |A| = 13 4

ten, dann drei weitere Werte und je eine Karte.) Es folgt P (A) 42.3%.

(b) |B| = 13

weiteren Wert und eine Karte.) Es folgt P (B) 4.8%.

2

2

12

4

3

4 3 . (W¨ahle zuerst Wert fur¨

den Zwilling, und 2 entsprechende Kar-

2

2 · 11 · 4. (W¨ahle zuerst zwei Werte und je zwei Karten, dann einen

Beispiel: n Bosonen (z.B. H 2 - Atome) werden auf N Zellen (des Ort-/Impulsraumes) verteilt. Wie hoch ist die Wahrscheinlichkeit, dass keine Zelle doppelt besetzt ist?

L¨osung: Wir verfolgen zwei verschiedene L¨osungsans¨atze:

(1) Wir setzen Ω = {1,

fur¨

gilt

, N } n , F = P(Ω), P = U . Fur¨

x Ω bezeichne x i die Zelle

, x n ) : x i alle verschieden}, und es

Teilchen i. Das Ereignis ist dann A = {(x 1 ,

P(A) = |A| ||

= N · (N 1) ·

· (N n + 1)

N n

=

N!

1

(N

n)! N n .

N = n}, F = P(Ω), P = U .

Fur¨ k Ω bezeichne k i die Anzahl von Teilchen in Zelle i. Das Ereignis ist dann A = {k Ω : k i ∈ {0, 1}}. Es gilt |A| = N . (W¨ahle n der Zellen zur Besetzung.) Fur¨ || verwenden wir einen Trick: Wir beschreiben das Ergebnis k 1 = 3, k 2 = 2, k 3 = 0

(o sind die n Teilchen, | sind N 1 Zellw¨ande). Es ist dann

durch: ooo|oo||o|oo|

(2) Wir setzem Ω = {(k 1 ,

, k N ) Z N : k i 0, k 1 +

n

+k

|o.

|| = n+N1

n

. (W¨ahle n von (n + N 1) Pl¨atzen fur¨

die Teilchen.) Es folgt

P(A) = |A|

|| =

N!

(N n)! ·

1

N · (N + 1) ·

· (N + n 1) .

Die Ergebnisse sind je nach Wahl des Modells verschieden. In physikalischen Experi-

menten zeigt sich, dass das Modell (b) die Realit¨at besser beschreibt. (Bosonen sind nicht unterscheidbar, und in (b) haben wir die Gleichverteilung auf Konfigurationen

von nicht unterscheidbarer Teilchen.)

1.5

Stetige Wahrscheinlichkeitsmaße

10

1.5 Stetige Wahrscheinlichkeitsmaße

Interpretiert man P als Massenverteilung ergibt sich folgendes Bild:

Ist Ω abz¨ahlbar, so sitzt die Masse in abz¨ahlbar vielen Punkten: “Massenpunkte”

Ist dagegen Ω = R n , so ist die Masse uber¨ ganz Ω verschmiert: “Massendichte”

Definition: f : R n R heißt (Borel-) messbar, falls f 1 (A) ∈ B R n fur¨ alle A ∈ B.

Bemerkung:

“Praktisch alle interessanten Funktionen” sind messbar (Maßtheorie), z.B.

stetige Funktionen oder Indikatorfunktion: 1 A (x) :=

1

0

fur¨

fur¨

x A

A

x /

mit A ∈ B R .

Fur¨

messbare Funktionen f 0 existiert das Lebesgue-Integral (Maßtheorie):

f (x)n (x) = f (x)dx = dxf (x) = dx 1

dx

n f(x 1 ,

, x n ).

Ist f 0 Riemann-integrierbar, so ist f messbar, und das Lebesgue-Integral ist gleich dem Riemann-Integral.

1 A (x)n (x) = λ n (A). λ n ist das sogenannte Lebesguemaß. λ 1 ist die L¨ange, λ 2 die Fl¨ache, λ 3 das Volumen.

Definition:

Eine messbare Funktion f : R n [0, ) mit f (x)dx = 1 (Normierung) heißt Dichtefunktion (auf R m ).

= f (x)1 A (x)dx heißt stetiges Wahrscheinlichkeitsmaß f .

P (A) := A f (x)dx mit Dichtefunktion

Bemerkung: P ist tats¨achlich ein Wahrscheinlichkeitsmaß auf (R n , B R n):

(P1) P (R n ) = f (x)dx = 1 wegen Normierung. (P2) folgt aus den Eigenschaften des Lebesgue-Integrals.

Bemerkung: f (x) ist ein gewisses Maß dafur,¨

wie wahrscheinlich der Punkt x ist.

Aber f (x)

= P ({x}), sondern: P ({x}) = {x} f (y)dy =

x

x

f (y)dy = 0.

Auch hier ist das wichtigste Beispiel die Gleichverteilung.

Definition: Sei S ∈ B R n mit 0 < λ n (S) < . Das Maß mit Dichtefunktion f (x) =

c

· 1 S (x) =

1 (S) 1 S (x) heißt (stetige) Gleichverteilung auf S: U S .

λ

n

Bemerkung: Ist P = U S , so sind alle x S “gleichwahrscheinlich” und es gilt:

A ∈ B S : P(A) = A f (x)dx =

1

λ n (S)

1 A (x)dx = λ λ n n (A) (S)

= “Volumen

von A

 

“Volumen

von S .

1.5

Stetige Wahrscheinlichkeitsmaße

11

Beispiel: Romeo und Julia treffen sich heimlich. Beide haben eine Versp¨atung von zwischen 0-1 Stunde. Muss einer auf den anderen l¨anger als 1/4 Stunde warten, begeht er Selbstmord. Bestimme die Wahrscheilichkeit fur¨ ein “gluckliches¨ Ende”!

t Ω sei t 1 die Versp¨atung

von Romeo und t 2 die Versp¨atung von Julia. Das betrachtete Ereignis ist dann A :=

{(t 1 , t 2 ) : |t 1 t 2 | ≤

mit Fl¨ache λ 2 (Ω) = 1. Es folgt

L¨osung: Wir setzen Ω = [0, 1] 2 , F

= B , P = U . Fur¨

4 1 }, d.h. ein Quadrat weniger zweier Dreiecke. Ω ist ein Quadrat

P(A) = λ λ 2 2 (A) (Ω)

= λ 2 (A) = 1

1

2 · 2 · ( 4 ) 2 = 1 ( 4 ) 2 =

3

3

7

16 .

Alternativ (aber schwieriger) kann man P (A) = 1 A (x)dx auch berechnen durch

dx 1 dx 2 1 A (x) =

0

1

4

dx 1

0

1

4 +x 1

dx 2 +

1

4

3

4

1

dx 1

1

4 +x 1

4 +x

1 dx 2 + 1 dx 1 1

3

4

1

4 +x 1

dx 2 =

7

16 .

Beispiel: (Bertrandsches Paradox.) In einem Kreis mit Radius 1 wird zuf¨allig eine Sehne gezogen. Mit welcher Wahrscheinlichkeit ist diese l¨anger als die Seite des einbe- schriebenen gleichseitigen Dreiecks?

L¨osung: Wir beschreiben drei L¨osungsvarianten:

(1) Wir beschreiben die Sehne durch ihren Mittelpunkt. Ω = {(x, y) : x 2 + y 2 1}, F = B , P = U . Das Ereignis A wird dann gerade durch den Inkreis des Dreiecks

beschrieben (Radius 1 2 ). Es folgt P (A) = λ 2 (A) = (

2 1 ) 2 π

1 2 π

= 1

4 .

λ 2 (Ω)

(2) Wir beschreiben die Sehne durch ihren Mittelpunktswinkel. Ω = (0, π), F = B , P =

U . Das Ereignis ist dann A = ( 2 3 π, π), also P (A) = λ 1 (A) =

λ 1 (Ω)

π

3 = 1

π

3 .

(3) Wir beschreiben die Sehne durch ihren Abstand zum Mittelpunkt. Ω = [0, 1], F =

B , P = U . Das Ereignis ist dann A = [0, 1 2 ], also P (A) = λ 1 (A) = 1

λ 1 (Ω)

2 .

Dass man verschiedene Antworten erh¨alt erscheint paradox, ist es aber nicht. Es kommt eben darauf an, wie genau der Zufallsmechanismus aussieht, mit dem die Kante gew¨ahlt

wird. “Rein zuf¨alliges” ziehen einer Sehne l¨asst verschiedene Interpretationen zu.

Bemerkung: Man kann auch Zufallsexperimente betrachten, die stetige und diskrete Anteile haben. Ist zum Beispiel Ω = {(x 1 , x 2 ) : x 1 N, x 2 R} = N×R und F = B , so kann ein Wahrscheinlichkeitsmaß definieren durch P (A) = x 1 dx 2 f(x 1 , x 2 )1 A (x 1 , x 2 ) mit f : N × R