Wiesler
Grundlagen der Wahrscheinlichkeitsrechnung
und stochastischer Prozesse fUr Ingenieure
Grundlagen der Wahrscheinlich-
keitsrechnung und stochastischer
Prozesse fur Ingenieure
Mit 48 Bildern
Das Werk einschlieBlich aller seiner Teile ist urheberrechtlich geschOtzt. Jede
Ven.vertung auBerhalb derengen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulassig und strafbar. Das gilt besonders fUr
Vervielfaltigungen, Obersetzungen, Mikroverfilmungen und die Einspeiche-
rung und Verarbeitung in elektronischen Systemen.
© 2000 B. G. Teubner Stuttgart· Leipzig
Kenntnisse aus dem Bereich der Stochastik sind fUr die Arbeit eines
Ingenieurs, insbesondere in der Kommunikationstechnik, heute unbe-
dingt erforderlich. 1m Studiengang Elektrotechnik werden die Studie-
renden an der Universitat Karlsruhe im dritten Semester durch die Vor-
lesung Wahrscheinlichkeitstheorie an dieses Wissensgebiet herangefUhrt.
Das vorliegende Buch gibt den seit dem Wintersemester 1997/98 vorge-
tragenen Inhalt dieser Vorlesung (einschliefllich der zugehorigen Ubung)
wieder. Der Umfang betragt zwei Semesterwochenstunden Vorlesung und
eine Semesterwochenstunde Ubung.
Nach einer kurzen Einleitung werden der Wahrscheinlichkeitsraum und
die bedingten Wahrscheinlichkeiten, sowie der Begriff der Zufallsvaria-
bIen eingefiihrt. An die Behandlung der Kennwerte von Zufallsvaria-
bIen schlieflt sich die Diskussion der wichtigsten speziellen Wahrschein-
lichkeitsverteilungen an. 1m Kapitel iiber mehrdimensionale Zufallsva-
riablen werden insbesondere der Korrelationskoeffizient und die Funk-
tionen mehrdimensionaler Zufallsvariablen ausfiihrlich besprochen. Die
Kapitel iiber die Grundlagen stochastischer Prozesse und iiber speziel-
Ie stochastische Prozesse run den den Inhalt der Vorlesung abo Fiir eine
zweistiindige Vorlesung mit einstiindiger Ubung wird also ein verhalt-
nismaflig grofles Wissensgebiet abgedeckt. Das verlangt von den Studie-
renden einen hohen Einsatz bei der person lichen Erarbeitung des Stof-
fes. Ais Beispiele und Ubungsaufgaben wurden haufig Probleme aus der
Nachrichtentechnik ausgewahlt. Auf die Behandlung von Fragestellun-
gen aus der Statistik (Schatz- und Testtheorie) kann an dieser Stelle
verzichtet werden. Diese Themen werden in weiterfUhrenden Vorlesun-
gen nach dem Vordiplom aufgegriffen (z.B. Nachrichteniibertragung oder
Statistische Nachrichtentheorie).
VI Vorwort
Die Herren Ralf Muche und Matthias Gauckler haben das handschrift-
liche Manuskript in eine fUr den Druck geeignete Form gebracht. Die
druckfertigen Bilder wurden von Frau Angelika Olbrich gestaltet. Ihnen
danken wir, genauso wie Herrn Dr.-Ing. Gunnar Wetzker, der an vielen
in halt lichen Diskussionen beteiligt war, fur ihre Hilfe.
AbschlieBend bleibt noch der Wunsch, daB das Buch nicht nur von den
Studierenden in der Vorlesung Wahrscheinlichkeitstheorie, sondern auch
von anderen Studierenden und in der Praxis tatigen Ingenieuren ange-
nom men wird. AIle Leser sind aufgerufen, ihre konstruktive Kritik zu
auBern (int@etec.uni-karlsruhe.de) und damit zur kontinuierlichen Ver-
besserung der Inhalte und ihrer Darstellung beizutragen.
Karlsruhe im September 1999,
Friedrich Jondral, Anne Wiesler
Inhaltsverzeichnis
1 Einleitung 1
2 Der Wahrscheinlichkeitsraum 5
2.1 Ereignisse....................... 5
2.2 Die Definition der Wahrscheinlichkeit von Laplace 9
2.3 Die Definition der Wahrscheinlichkeit von Kolmogoroff . 12
2.4 Ubungsaufgaben . . . . . . . . . . . . . . . . . . . . .. 17
3 Bedingte Wahrscheinlichkeiten 26
3.1 Definition und Eigenschaften 27
3.2 Unabhangige Ereignisse 31
3.3 Ubungsaufgaben 32
4 Zufallsvariablen 37
4.1 Verteilungsfunktion und Dichte 38
4.2 Funktionen von Zufallsvariablen . 44
4.3 Ubungsaufgaben . . . . . . . . 47
5.3 Ubungsaufgaben · . . . . . . . . . . . . . . . . . . . . . . 63
6 Spezielle Wahrscheinlichkeitsverteilungen 76
6.1 Die Zweipunktverteilung . 76
6.2 Die Binomialverteilung. . 77
6.3 Die Polynomialverteilung 80
6.4 Die Poissonverteilung. . . 81
6.5 Die Hypergeometrische Verteilung 84
6.6 Die (stetige) Gleichverteilung 87
6.7 Die Exponentialverteilung 89
6.8 Die Normalverteilung. 90
6.9 Die Weibullverteilung 95
6.10 Ubungsaufgaben · .. 97
Literaturverzeichnis 220
Index 222
1 Einleitung
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
2 1 Einleitung
reits an den Gymnasien erfolgt, nicht mehr aus. Der Leser solI hier viel-
mehr mit der Begriffswelt der Wahrscheinlichkeitstheorie vertraut
gemacht werden.
Ganz wesentlich fur das mit diesem Buch verfolgte Anliegen erscheint das
Kapitel 2, in dem ausgehend vom Begriff des Ereignisses zunachst einmal
die Laplacesche Definition der Wahrscheinlichkeit behandelt wird, urn
den Zusammenhang zwischen Wahrscheinlichkeit und relativer Haufig-
keit zu verdeutlichen. Danach wird herausgearbeitet, daB die Behandlung
endlicher Wahrscheinlichkeitsraume nicht ausreicht und daB auch die
unmittelbare Anschaulichkeit fUr eine allgemeine Definition des Wahr-
scheinlichkeitsbegriffs ihre Grenzen hat, wenn Wahrscheinlichkeitsraume
mit uberabzahlbar unendlich vielen Elementarereignissen ins Spiel kom-
men. Diese Uberlegungen fUhren direkt auf die Kolmogoroffschen Axio-
me und die daraus resultierende allgemein giiltige Definition der Wahr-
scheinlichkeit, ohne die z.B. eine EinfUhrung normalverteilter Zufallsva-
riablen eigentlich gar nicht moglich ist.
Bevor auf dem eingeschlagenen formalen Weg fortgeschritten wird, wer-
den im Kapitel 3 die bedingten Wahrscheinlichkeiten und die eng damit
zusammenhangende Unabhangigkeit von Ereignissen behandelt.
Kapitel 4 bringt die Definition der Zufallsvariablen und eine Diskussion
der unmittelbar daraus folgenden Begriffe Verteilungsfunktion und Dich-
teo Durch Heranziehen der 8-Distribution wird es moglich, diskrete und
stetige Zufallsvariablen gleich zu behandeln. AnschlieBend werden Funk-
tionen von Zufallsvariablen betrachtet, mit deren Hilfe es z.B. moglich
ist, die Verteilungsfunktion des Betrags einer Zufallsvariablen zu ermit-
teln.
Das Kapitel 5 beschaftigt sich mit den Kennwerten von Zufallsvariablen.
Zunachst wird allgemein der Begriff des k-ten Moments, aus dem dann
die wichtigen Definitionen des Erwartungswerts und der Varianz abgelei-
tet werden, eingefuhrt. Danach wird die charakteristische Funktion einer
Zufallsvariablen angegeben, die mathematisch gesehen eher beweistech-
nisch wichtig ist. Fur den Ingenieur ist jedoch der Zusammenhang zwi-
schen Dichte und charakteristischer Funktion wesentlich: Es handelt sich
dabei urn die in ihrer Bedeutung fur die Praxis nicht zu unterschatzende
Fouriertransformation.
Nachdem die dafur notwendigen Begriffe eingefUhrt und diskutiert wur-
den, konnen im Kapitel 6 spezielle Wahrscheinlichkeitsverteilungen mit
1 Einleitung 3
2.1 Ereignisse
Definition 2.1-1
Ein endlicher Ergebnisraum ist eine nichtleere Menge n =
{6, 6,··· '~N}. Die Elemente ~n E n heiften Ergebnisse. Jede
Teilmenge A c n wird als Ereignis, jede einelementige Teilmenge
{~n} C n wird als Elementarereignis bezeichnet. Der Ergebnis-
mum n und die leere Menge 0 sind stets Ereignisse, n heiftt das
sichere, 0 das unmogliche Ereignis.
Beispiele:
(i) Das Werfen einer Mtinze ist ein Zufallsexperiment, des sen Ergeb-
nisraum n = {Kopf, Zahl} ist. Die Ergebnisse sind "Kopf' und
"Zahl". Ereignisse sind die leere Menge 0, {Kopf} , {Zahl} und n,
wobei {Kopf} und {Zahl} Elementarereignisse sind.
(ii) Ein weiteres Zufallsexperiment ist das Werfen eines Wtirfels, das
Ergebnis eines Wurfs ist ein Elementarereignis. Ein Ereignis ist
auch
A={ die gewtirfelte Augenzahl ist gerade}
= { "zwel." , "VIer
. " , "sechs "} .
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
6 2 Der Wahrscheinlichkeitsraum
konstruieren.
Die Menge aller Ereignisse ist hier also die Potenzmenge ~(n) des Er-
gebnisraums n. Die Anzahl der Ereignisse ist dann
Ereignisse.
Mit A ist auch
ein Ereignis. Dieses wird auch als Negation oder als Komplement von
A bezeichnet.
Die Differenz von A und B kann nun auch als
A-B = AB
geschrieben werden.
Eine Veranschaulichung der gerade eingefUhrten Begriffe zeigt Bild 2.1-1.
Ais einfache Ubung kann man sich leicht davon uberzeugen, daB fUr
Ereignisse A, B, C, . .. die Relationen
AUA = Aj Au 0 = OJ AU 0 = Aj Au B =B u A
(Kommutativitat von U)j
Au (B U C) = (A U B) U C = Au B U C
(Assoziativitat von U)j
AnA = Aj An 0 = Aj An 0 = 0j An B =B n A
(Kommutativitat von n)j
An (B n C) = (A n B) n C = An B n C
(Assoziativitat von n)j
8 2 Der Wahrscheinlichkeitsraum
An (B U C) = (A n B) u (A n C);
Au (B n C) = (A U B) n (A U C)
gelten.
Definition 2.1-2
Ie) Teilereignis
U At = nAt (2.1-3)
tET tET
nAt = U At (2.1-4)
tET tET
(2.2-1)
Beispiel [Bey95]: Ein idealer Wiirfel wird N = 100 mal geworfen. Die
Augenzahlen k treten dabei mit folgenden Haufigkeiten auf:
k II 1 2 3 4 5 6
hN(k) 1113 20 11 19 21 16
H (B) = 19 + 21 + 16 = ~ = 0 56.
N 100 100"
H (C) = 20 + 19 + 16 = ~ =0 55.
N 100 100'
Hieraus folgt
Folgerungen:
Bemerkung:
Da HN{A) auf der Basis von N Versuchen herechnet wird, ist es nicht
zulassig, aus HN{A) = 1 (bzw. HN(A) = 0) auf A = n (hzw. A = 0) zu
schlie13en!
2.2 Die Definition der Wahrscheinlichkeit von Laplace 11
Definition 2.2-2
Treten aile Elementarereignisse {~n}; n = 1,2, ... ,N; eines end-
lichen Ergebnisraums n = {6, 6, ... '~N} gleich hiiufig auf, ist
das zugehorige Zufallsexperiment ein Laplacesches Zufallsex-
periment.
Fiir Laplacesche Zufallsexperimente kann der Wahrscheinlichkeitsbegriff
wie folgt eingefiihrt werden:
Definition 2.2-3
In einem Laplaceschen Zufallsexperiment ist
(i) Wir beobachten ein Zufallsexperiment, das die Anzahl der in einer
Telefonzentrale eingehenden Anrufe tiber dem Zeitintervall [0, T)
zahlt.
Ereignisse sind hier z.B.
(ii) Ein anderes Zufallsexperiment ist die Messung der Spannung an ei-
nem rauschenden Widerstand. In diesem Fall sind z.B. alle Mengen
Bemerkungen:
(i) 0 und 0 liegen stets in lB, da fUr jedes A E lB gilt A E lB und mit
(2.3-2) zunachst AUA = 0 E lB und daraus mit (2.3-1) IT = 0 E lB
folgt.
(ii) Aufgrund der de MORGANschen Formeln und wegen (2.3-1) ist
eine (I-Algebra auch gegen abzahlbare Durchschnittsbildung abge-
schlossen:
00
Somit la6t sich aus jedem Teilsystem M C '13(0) eindeutig eine (1-
Algebra lB = lB(M), namlich die von M erzeugte u-Algebra, kon-
struieren, fiir die gilt:
(i) lB(M) J M
(ii) 1st lB' J Meine (I-Algebra
=> lB' J lB(M),
d.h. lB = lB(M) ist die kleinste (I-Algebra, die M enthalt.
(ii) Jede hOchstens abzahlbare Vereinigung laSt sieh auch als Vereini-
gung disjunkter Mengen schreiben.
(2.3-6)
Belllerkung:
Ersetzt man das dritte Axiom durch die Forderung, daB fUr disjunkte
Ereignisse A, B E '23
gelten solI, wird klar, daB es sich bei den Kolmogoroffschen Axiomen urn
Abstraktionen der Eigenschaften (2.2-2) bis (2.2-4) relativer Haufigkeiten
handelt. Axiom 3 ist eine sinnvolle Erweiterung der Forderung (2.3-7).
Definition 2.3-3
P(A) heiflt Wahrscheinlichkeit des Ereignisses A.
Damit kann fur jedes Zufallsexperiment mit der Ergebnismenge fl, einer
geeigneten a-Algebra '23 uber fl und der Wahrscheinlichkeit aus Defini-
tion 2.3-3 ein Wahrscheinlichkeitsraulll (fl, 23, P) zur Modellierung
des Zufallsexperimentes gefunden werden.
Satz 2.3-1
Beweis:
zu (iii): Es gilt Au B = (AB) U (AB) U CAB) und die drei rechts ste-
henden Ereignisse sind paarweise disjunkt. Daher gilt naeh
Axiom 3
P(A U B) = P(AB) + P(AB) + P(AB). (2.3-11)
Satz 2.3-3
Beweis:
A = B u (AB) und die reehts stehenden Mengen sind disjunkt. Mit
Axiom 3 folgt P(A) = P(B) + P(AB) ~ P(B) :S P(A), weil (Axiom 1)
P(AB) ~ O.
2.4 Ubungsaufgaben 17
2.4 Ubungsaufgaben
Zur L6sung der Ubungsaufgaben ist die Beachtung von Anhang A hilf-
reich.
Aufgabe 2.1
Drei Bits werden uber einen digitalen Nachrichtenkanal ubertragen. Je-
des Bit kann verfiiJscht oder richtig empfangen werden.
b) 101 = 23 = 8
0= {(V, V, V), (V, R, V), (V, R, R), (V, V, R),
(R, V, V), (R, R, V), (R, V, R), (R, R, R)}
18 2 Der Wahrscheinlichkeitsraum
B2 = Al UA 2 UA 3
= {(V, V, V), (V, R, V), (V, R, R), (V, V, R),
(R, V, V), (R, R, V), (R, V, R)}
B3 = B2 = Al n A2 n A3
= {(R,R,R)}
B4 = (Al n A2 n A 3 ) U (A2 n Al n A 3)
U (A3 n Al n A 2) U (Al U A2 U A 3)
= {(V, R, R), (R, V, R), (R, R, V), (R, R, R)}
Aufgabe 2.2
Es sei n = {I, 2, 3, 4} gegehen.
a) Welche der folgenden Mengensysteme sind a-Algehren?
A = {0,n}
B = {0, n, {I}, {2, 3}, {4}}
2.4 UbungsauEgaben 19
b) Geben Sie die kleinste a-Algebra fiber n an, in der die Mengen {I}
und {2} enthalten sind.
b) ~= {0,n,{1},{2},{1,2},{2,3,4},{1,3,4},{3,4}}
Aufgabe 2.3
101 = G) = 6
Inl = G) + G) + G) + 1 = 26.
Fallt nur eine Verbindung aus, so sind immer noch aIle Rechner
verbunden.
Bei zwei AusfaIlen dilrfen nur bestimmte Kombinationen von Ver-
bindungen ausfaIlen und bei drei Ausfallen gibt es keine Moglich-
keit mehr, daB aIle Rechner in Verbindung bleiben:
IAI = 2 + G) = 12
- 12 14
P(A) =1- P(A) =1- 26 = 26 ~ 0,538
Aufgabe 2.4
Welches der folgenden Ereignisse ist wahrscheinlicher:
a) Bei vier Wilrfen mit einem Wilrfel mindestens eine sechs zu erhal-
ten oder
mit&-9) P(A 2) = 1 - P( A2 )
35 24
= 1 - 3624 ~ 0,491
Aufgabe 2.5
Beim Lottospiel werden ohne ZurUcklegen 6 Zahlen aus 49 gezogen. Be-
rechnen Sie folgende Wahrscheinlichkeiten:
2.4 Ubungsau[gaben 23
n= {(al, ... ,a6);ai€{I, ... ,49},al < a2 < ... < a6}
_ (48) 43
P(C} = 1 - P(C} = 1 - _6_ = 1 - - ~ 0 1224
(~9) 49'
Aufgabe 2.6
Ein elektronisches Schaltwerk besteht aus 5 Relais (1, ... , 5). Jedes Re-
lais ist mit der Wahrscheinlichkeit 0,5 geschlossen.
E A
4 5
=} mit Distributivgesetz
P(B) = P ((AI n A 3) U (A2 n A 3)) + P(A4 n A5)
-P ((AI n A3 n A4 n A5) U (A2 n A3 n A4 n A5))
=} mit (2.3-10)
P(B) = P(A I n A 3) + P(A 2 n A 3) - P(A I n A2 n A 3 )
+P(A4 n A5) - [P(A I n A3 n A4 n A5)
+P(A 2 n A3 n A4 n A5)
-P(A I n A2 n A3 n A4 n A5)]
3 Bedingte
Wahrscheinlichkeiten
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
3.1 Definition und Eigenschaften 27
Solche und ahnliche Beispiele legen die Einfiihrung des Begriffs der be-
dingten Wahrscheinlichkeit nahe.
Beispiel: Wir werfen zwei ideale Wilrfel, von den en der eine rot und
der andere weiB sei.
(a) Wie groB ist die Wahrscheinlichkeit, zwei Sechsen zu werfen, unter
der Bedingung, daB mit dem weiBen Wilrfel eine Sechs gewilrfelt
wird?
(b) Wie groB ist die Wahrscheinlichkeit, zwei Sechsen zu werfen, unter
der Bedingung, daB mit dem weiBen Wilrfel eine gerade Augenzahl
geworfen wird?
A = {(6,6)}
B = {(r,6); r E {I, 2, 3, 4, 5, 6}}
1
P(AB) = P(A) = 36' da A c B
P(B) = ~
P(AIB) = P(AB) = ~
P(B) 6
(b) A = {(6,6)}
28 3 Bedingte Wahrscheinlichkeiten
P(C) = ~
P(AIC) = P(AC) = ~
P(C) 18
Bemerkung:
Die Auflosung von (3.1-1) nach P(AB) fUhrt auf die Multiplikations-
regel itir Wahrscheinlichkeiten:
(3.1-4)
Beispiel [Web92]:
In einem Raum sind N Personen versammelt. Unter der Voraussetzung,
daB jedes Jahr 365 Tage hat (es gibt keine Schaltjahre) und daB die
Geburtstage iibers Jahr gleichverteilt sind, solI die Wahrscheinlichkeit
dafiir, daB mindestens 2 Personen am gleichen Tag Geburtstag haben,
berechnet werden.
(b) N :S 365: Wir stell en uns vor, die Person en seien durchnumeriert
und betrachten folgende Ereignisse:
A ={alle haben an verschiedenen Tagen Geburtstag},
Ai={ die i-te Person hat an einem anderen Tag als
die i - I vorhergehenden Personen Geburtstag}.
Es folgt
und daraus
- 364 . 363 ... (365 - N + I)
P(A) = 1 - P(A) = 1 - 365 N - 1 .
I N I 10 I 20 I 23 I 30 I 50 I 100 I
I P(A} I 0,117 I 0,411 I 0,507 I 0,706 I 0,970 I 0,99999969 I
Satz 3.1-1
Die Ereignisse An (1 :sn :s
N) seien eine vollstiindige Ereig-
nisdisjunktion und es gelte P(A n } > 0 'tin. Dann folgt fur jedes
B E !l3 die Formel von der totalen Wahrscheinlichkeit
N
P(B} = LP(BIAn}P(An} (3.1-5)
n=l
und, wenn P(B} > 0 ist, die Formel von Bayes
(a) (3.1-5):
Da L:~=l An = n gilt, ist B = Bn = L:~=l AnB. Da die AnB
paarweise disjunkt sind, folgt P(B} = L:~=l P(AnB} und wegen
P(A n } > 0 'tin mit (3.1-1):
P(B} = L:~=l P(BIAn}P(An}.
(b) (3.1-6):
FUr B E !l3 gilt unter Anwendung von (3.1-2):
Bemerkung:
Die Wahrscheinlichkeiten P(AnIB} werden a posteriori Wahrschein-
lichkeiten genannt, da sie die Wahrscheinlichkeiten der An nach Ein-
treten von B angeben. 1m Gegensatz dazu sind die P(A n } die a priori
Wahrscheinlichkeiten fur das Auftreten der An.
3.2 Unabhangige Ereignisse 31
(i) Mit (3.1-1) gilt fUr den Fall, daB A unabhangig von B ist,
P(BIA) = P(AB)
P(A)
= P(B) . (3.2-3)
Definition 3.2-2
(3.2-4)
gilt.
Bemerkungen:
(i) Statt von voUstandiger Unabhangigkeit spricht man oft auch kurz
nur von U nabhangigkeit der An. Diese saUte jedoch nicht mit paar-
weiser Unabhangigkeit verwechselt werden!
3.3 Ubungsaufgaben
P(N) = 0,8
P(S) = 0,2
P(AIN) = 0,95 P(AIS) = 0,3
Gesucht:
P(NIA) = P(N n A) = a, 76 ~ a 93
P(A) 0,82 '
Aufgabe 3.3
In einer Geldborse befinden sich drei Miinzen. Die erste zeigt auf beiden
Seiten einen Kopf, die zweite zeigt beim Werfen Zahl und Kopf mit
gleicher Wahrscheinlichkeit und die dritte ist so beschaffen, daB sie beim
Werfen mit Wahrscheinlichkeit 0,8 Kopf und mit Wahrscheinlichkeit 0,2
Zahl zeigt.
a) Der Borse wird zufallig eine Miinze entnommen und geworfen. Nach
dem Wurf zeigt sie Kopf. Mit welcher Wahrscheinlichkeit ist es die
erste Miinze?
1·1
1.3
1 f
+ 0,5 . 3 + 0,8 . 3
1 ;:::, 0,4348
P(Ai) = ~
P(Kopf und Zahl) = P((K, Z)) + P((Z, K))
3
2: P((K, Z)IA i ) . P(Ai)
i=1
3
+ 2: P((Z, K)lAi) . P(Ai)
i=1
=
1
3 . (1 . 0,5 + 0,5· 0,2 + 1 . 0,2 + + 0, 5 . 0,8 + 0) °
~=0,4
3
4 Zufallsvariablen
x (8) =1
X (0) =2
X (0) =3
X (§) =4
X (~) =5
X (ill] ) =6
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
38 4 Zufallsvariablen
Definition 4.1-1
Eine Funktion
Die Funktion
1. F : 1R -+ [0, 1]
2. lim F(x) = 0,
X--+-CX)
lim F(x) = 1
x-+oo
Definition 4.1.-3
Die ZuJallsvariable X heiftt diskret, wenn ihr Wertebereich eine
endliche oder hochstens abziihlbar unendliche Menge ist.
Belllerkung:
Nimmt die Zufallsvariable X die (hOchstens abzahlbar unendlich vielen)
Werte Xl, X2, . .. an, sind
Pn = P(X = X n) (4.1-4)
P(X=x,,1
..1
6
---+---+---+---r---r---r--~-------~
2 3 4 5 6
Definition 4.1-4
Eine ZuJalisvariable X heiftt stetig, wenn eine integrierbare
Funktion
J(x) 2: 0 Vx E IR (4.1-5)
4.1 Verteilungsfunktion und Dichte 41
!
x
Bemerkung:
Da lim F(x) 1 gilt (Eigenschaft 2 einer Verteilungsfunktion), folgt
x-+oo
ftir f(x):
!
(Xl
f(x)dx = 1
-(Xl
f(x) gibt also an, wie die Wahrscheinlichkeitsmasse 1 tiber die x-Achse
verteilt ist.
Beispiele:
ftir x E [-11",11")
(4.1-7)
sonst
1
...----+-----,l1t
x
-1t
o 1t
(ii) Durch
1
f(x) = -exp (X2)
-- (4.1-8)
..j21i 2
fix)
x
-4 -3 -2 -1 2 3 4
o
Bild 4.1-4: Dichte der Standardnormalverteilung N(Oj 1)
j f(x) dx.
X2
Die Wahrscheinlichkeitdafiir, daB X einen Wert aus dem Intervall (Xl, X2]
annimmt, ist daher durch die Flache unter der Dichte iiber diesem In-
tervall gegeben. Insbesondere folgt bei stetigen Zufallsvariablen Vx:
P(X = x) = dx-+O
lim P(x < X ~ x+ ~x)
= lim Xj+dXf(X)dX
dx-+O
=0 (4.1-10)
Folgerung:
Fiir eine stetige Zufallsvariable X verschwinden aile Wahrscbeinlicbkei-
ten der Form P(X = x), obwobl die Ereignisse {~jX = x} nicht mit
dem unmoglichen Ereignis zusammenfaIlen miissen. Bild 4.1-5 zeigt die
4.1 VerteiJungsiunktion und Dichte 43
definierten Wahrscheinlichkeitselements.
fIx)
P(X,<X~X2) = r
'.
f(x)dx
----------~~--~~~~~~~------- x
00
benutzt werden.
Stellt X eine diskrete Zufallsvariable dar, so ergibt sich fUr deren Ver-
teilungsfunktion immer eine Treppenfunktion.
44 4 Zufallsvariablen
Es gilt namlich
!
x
Fx(x) f(u) du
-00
!
x 00
~l
1 fUr Xn ~ x
0 fur Xn >x
= I:
n:Xn::;X
Pn·
=p(x~y:b)
(4.2-2)
4.2 Funktionen von Zufallsvariablen 45
1
jy(y) = ~Ix
- b) .
(y-a- (4.2-3)
1
jy (y) = .jfffa exp -
- J.l)2) .
((y 2a2 (4.2-4)
(ii) Y = aX 3 + b, a > 0
Wie in (i) ist die hier durchgefiihrte Abbildung von X umkehr-
bar eindeutig. Es folgt
=P (X ~ ~) = Fx ( ~) ,
woraus sich durch Differentiation nach y ergibt:
jy(y) = 1 Ix (V y-b)
3aV (~)2 a
1m Gegensatz zu (i) und (ii) ist die Abbildung (4.2-5) nicht um-
kehrbar eindeutig (Bild 4.2-1).
46 4 Zufallsvariablen
--------~~------x
o 1
Hier gilt
Fy(y) = P(Y ~ y) = P(aX + b~ y)
2
=P(IXI~JY:b)
=P(-JY: b~ X ~ JY : b)
[FX (F.l)
= -Fx ( -F.l) 1 fUr y >b
(4.2-6)
o sonst
Jy(y) =
o sonst
(4.2-7)
4.3 Ubungsaufgaben 47
In Beispiel (iii) hat die Gleichung y = ax2 + b die beiden reellen Wurzeln
Xl = Y~ ~
----;;--a- und X2 = -Y ----;;--a- (4.2-8)
und die Dichte von Y = aX 2 + b laf3t sich mit g(x} = ax2 + b, dort wo
sie nicht verschwindet (y > b), schreiben als
wobei g' die erste Ableitung von 9 (nach x) ist und Xl sowie x2 gemaf3
(4.2-8) eingesetzt werden miissen.
Allgemein gilt: Wenn Xl, X2, .•• ,XN die reellen Wurzeln der Gleichung
y = g(x} sind, kann die Dichte der Zufallsvariablen Y = g(X) in der
Form
(4.2-9)
geschrieben werden, worin dann natiirlich die Xn; n = 1,2, ... , N; Funk-
tionen von y sind. Dabei ist selbstverstandlich der Definitionsbereich der
Funktion g(x} zu beachten.
4.3 Ubungsaufgaben
Aufgabe 4.1
Beim Werfen eines griinen und eines roten Wiirfels sollen die Wahr-
scheinlichkeiten fUr die Augensummen bestimrnt werden.
A2 = {(I, In
1
IA21 = 1 P(X = 2) = 36
A3 = {(1,2),(2,1)}
2
I A 31 = 2 P(X = 3) = 36
A4 = {(I, 3), (3, 1), (2, 2n
3
I A 41 = 3 P(X = 4) = 36
A6 = {(3,3),(4,2),(2,4),(5,1),(1,5)}
5
I A 61 = 5 P(X = 6) = 36
A7 = {(3, 4), (4,3), (5,2), (2,5), (1,6), (6, In
6
I A 71 = 6 P(X = 7) = 36
As = {(4,4), (5,3), (3,5), (6,2), (2,6)}
5
lAs I = 5 P(X = 8) = -
36
4.3 Ubungsaufgaben 49
f(x)
6/36
5/36
4/36
3/36
2/36
1136
I I
2 3 4 5 6 7 8 9 10 II 12 x
Zufallsvariable R: n -t lR;
(r,g) -t r
6
P(A) = P(R = 1) = 36
50 4 Zufallsvariablen
11 = {(I,I),(2,I),(3,I),(4,I),(5,I),(6,I)}
Zufallsvariable G: n ---+ 1R;
(r,g) ---+ 9
6
P(11) = P(G = 1) = -
36
<7 = {(I,I),(2,2),(3,3),(4,4),(5,5),(6,6)}
Zufallsvariable Y: n ---+ 1R;
(r,g)---+r-g
6
P(<7) = P(Y = 0) = -36
1
=
6·6·6
=> nicht vollstandig unabhangig
4.3 Ubungsaufgaben 51
f
-00
f(x) dx = 1 und f(x) > °"Ix.
Da die Dichte f symmetrisch zur y-Achse ist, gilt:
00
~= / f(x)dx
o
00
[BS70):
1 ] u=x
= €. lim [ - e Pu
2 b-+-oo p u=b
= €. lim
2 b-+-oo
[~ePx
p
- ~ e Pb ] = ~ e Px
p 2
52 4 Zufallsvariablen
x>O
I I I
x 0 x
2 2 2 P u=o
o
= ~ - e. ~ (e - px - 1) = 1 _ ~ e - px
2 2 P 2
Damit gilt:
~{
1. ePx fur x :::; 0
2
F(x)
1 - 1.
2
e- Px fUr x >0
Aufgabe 4.3
1 A
f(x) = :; V + (x _ 11,)2' A > 0,
eine Dichte gegeben ist.
a) Es ist f(x) 2: 0 \Ix, das heiBt es muB nur gezeigt werden, daB
I
+00
f(x) dx =1 gilt.
-00
4.3 Ubungsaufgaben 53
If = -AI = -AI
+00 +00 +00
(x) dx 1 dx 1
-(X) 7r -(X) A2 + (x - p,)2 7r -(X) A2 [1 + (X>:IL) 2] dx
+00
= 7r\ -L [1 + (~)2] dx
1
= ;:
I
+00
1
1 + y2 dy
-00
[BS70j
= 1
-[arctanyL = -1 [7r (7r)]
7r -2 - --
+00
7r 00 2
1
= -7r
7r = 1
I I [ + (U-
x x
b) Fx(x) = f(u) du = \
7rA 1
1
y)
2] du
-00 -(0)..
1 1
= - arctan((x - p,)/A) +-
7r 2
!
00
Bemerkungen:
(i) Die Forderung nach der Existenz des Integrals in (5.1-1) ist wichtig.
Man kann z.B. zeigen, daB fUr eine Cauchy-verteilte Zufallsvariable
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
5.1 Momente einer ZuEallsvariablen 55
E(X) / xf(x) dx
-exl
exl exl
/ x L P(X = xn)o(x - x n) dx
-exl n=l
exl exl
exl
(~3)
LXnPn (5.1-2)
n=l
Beispiele:
(i) X sei eine N(p; cr 2)-verteilte Zufallsvariable, d.h. ihre Dichte ist
nach (4.2-4)
1 ((X - p)2)
f(x) = ../2icr exp - 2cr2 .
exl
exl
= _1 (j
v'2i
100
yexp (_y2)
2
dy
-00
...
=0
+ J.L _1_
v'2i
1 00
exp (_ y2)
2
dy
-00
...
=1
=J.L
(ii) Der einmalige Wurf eines idealen Wiirfels ergibt die in Bild 4.1-
2 gezeigten Einzelwahrscheinlichkeiten. Damit erhiiJt man fUr den
Erwartungswert der Zufallsvariablen X, die das Wurfergebnis be-
schreibt, nach (5.1-2):
6 1 6
E(X) = LXnPn = (; Ln
n=l n=l
Definition 5.1-2
1m Falle seiner Existenz heiflt der Erwartungswert
I
00
E ([X - E(XW) =
-00
I
00
Bemerkung:
Von besonderer Bedeutung ist das durch
(5.1-5)
5.1 Momente einer Zufallsvariablen 57
. x - /-L
mlty= - -
0"
= -1-
y"i;i0"
100
0" 2 Y 2 (y2) O"dy
exp - -
2
-00
1
= 0" 2 y"i;i 1 00
Y 2 exp (y2)
- 2 dy
-00
...
=1 ([BS70])
6 1 6
D2(x) = ~)Xn - E(X)]2Pn = 6 ~)n - 3~F
n=1 n=1
1
= 6[6,25 + 2,25 + 0,25 + 0,25 + 2,25 + 6,25]
1 35
= 6. 17 ,5 = 12
58 5 Kennwerte von Zufallsvariablen
Bemerkung:
Eine N(pj (72)-verteilte Zufallsvariable hat den Erwartungswert p und
die Varianz (72. 1hr k-tes zentrales Moment ist allgemein ([Pro95j, S.41):
falls k gerade
(5.1-6)
falls k ungerade
Fur diskrete Zufallsvariablen ergibt sich daraus mit (4.1-12) der Spezi-
alfall
00 00
L
00
= g(xn)P(X = xn).
n=l
1. Ein Wert, flir den die Dichtefunktion f(x) ein lokales Maximum
annimmt, heiBt Modalwert der stetigen Zufallsvariablen X.
P(X < xp) ::; p, P(X > xp) ::; 1 - p (0 < p < 1) (5.1-9)
fix)
1
00
11'
00
= L ejsxn P(X = x n )
00
cp(s) (5.2-4)
n=l
cp(s) = _1_1
,j'i;
00
~1
00
(quadratische Erganzung)
5.2 Charakteristische Funktion 61
S2) 1
= exp ( - "2..,fIif 100
exp ((X-
-
j
2 S)2) dx
-00
~---------v~--------~
=1 ([8870])
Y = o-X + P,
folgt daraus:
Satz 5.2-1
Existiert das k-te Moment der ZuJallsvariablen X, ist es durch
cp(kJ (0)
E(Xk) = .k ' (k = 1,2, ... ) (5.2-6)
J
gegeben.
Beweis: Es ist
I
00
-00
62 5 Kennwerte von ZuEallsvariablen
und das letzte Integral existiert, da das k-te Moment von X existiert.
Flir s = 0 folgt:
cp(k) (0) = (j)k E(Xk)
Beispiel: X sei N(J.Li (72)-verteilt.
(5.2-5) (. (72s2)
cp(s) = exp JSJ.L - -2-
Bemerkung:
Aus (5.2-6) folgt (bei vorausgesetzter Existenz) flir die Varianz von X
= -<p"(0) + [<p'(0)]2 .
1st X eine diskrete Zufallsvariable, die nur nichtnegative ganzzahlige
Werte annimmt, folgt aus (5.2-4)
=L
00
L
00
(z E C, Izl ~ 1)
die erzeugende Funktion von X.
5.3 Ubungsau[gaben 63
Bemerkung:
Wegen 1jJ(1} = L~=o P(X = n} = 1 konvergiert 1jJ(z} fUr Izl ::; 1 absolut
und gleichmaBig. 1jJ( z} ist stetig. Die F'unktion 1jJ( z} bestimmt in eindeu-
tiger Weise die Verteilung von X, d.h. die Werte P(X = n}, da sie sich
nur auf genau eine Weise als Potenzreihe darstellen laBt.
Existiert das k-te Moment von X, laBt es sich mit Hilfe der Ableitungen
der Funktion 1jJ(z} bis zur Ordnung k bestimmen.
5.3 Ubungsaufgaben
Aufgabe 5.1
Augenzahl Xn II 1 2 3 4 5 6
0.2
0,1
4 6
Xn
Fx(x)
0,9
0,8
0,7
0,6
0,5
0,4
0.3
0,25
0,2
0,1
Xn
4
(5,1-2) 6
c) • E(X) = L xnP(X = xn)
n=1
~ E(X) = 1 . 0, 1 + 2 . 0, 15 + 3 . 0,2 + 4 . 0, 1 + 5 . 0, 15
+6 . 0,3 = 3,95
• Median: P(X < xp) ::; Pi P(X > xp) ::; 1 - P,P = ~
P(X < 4) = P(X ::; 3) = 0,45::; 0,5
P(X > 4) = 1 - P(X ::; 4) = 1 - 0,55 = 0,45 ::; 0,5
Xl = 4
D~r Median ist in diesem Fall eindeutig .
6
E([X - E(X)]2) = 2:(X n - E(X))2 P(X = Xn)
n=l
= (-2,95)2·0,1 + (-1,95)2
. 0, 15 + (-0,95)2 . 0,2
+ (0,05)2 ·0,1 + (1,05)2
·0,15 + (2,05)2 ·0,3
= 3,0475
Aufgabe 5.2
Man zeige fiir eine stetige Zufallsvariable X, fiir die die ersten beiden
Momente existieren, und Y = aX + b mit a, b E IR folgende Beziehungen:
a) E(Y) = aE(X) +b
b) D2(y) = a2D2(X)
-00
(ax + b)f(x) dx
!
00
= (axf(x) + bf(x)) dx
-00
! !
00 00
= a· xf(x) dx + b· f(x) dx
-00 -00
"---v---"
=1
66 5 Kennwerte von ZuEallsvariablen
E(Y) = a· E(X) +b
b) D2(y) = D2(aX + b)
(5.~5)
E ([aX + b - E(aX + bW)
':l E ([aX + b - aE(X) - b]2)
= E ([a(X - E(X)W)
= E (a 2(X - E(X»2)
':l a2E[(X - E(X»2] = a2D2(X)
Definit~n 5.1-1 ! 00
! !
00 00
= x 2f(x) dx - 2E(X)xf(x) dx
-00 -00
!
00
+ E2(X)f(x) dx
-00
!
00
+ E2(X)·
------
= E(X2) - 2E(X)E(X) f(x) dx
-00
=1
5.3 Ubungsaufgaben 67
Aufgabe 5.3
o sonst.
= l-exp{-~}
2(12
fur r 20
sonst
68 5 Kennwerte von Zufallsvariablen
! ! :: {-;;2}
00 00
!
00
_
1·3· ... ·(2k-1).,Iii'
2k+lak+O.5
flir n gerade (n = 2k)
{
2at~1 flir n ungerade (n = 2k + 1)
E(R) -
-
~
(J"2
ft
22( 1 )1+0.5
2U2
!
00
c) E(R2) = r2 fR(r) dr
-00
1 1
(J"2 2( 1 )2
~
Aufgabe 5.4
,XK \
P(X = K) = - e- A ,'x> 0
K!
annimmt.
b) Man berechne mit Hilfe von <p(s) den Erwartungswert E(X) und
die Varianz D2(X).
=L
00
+00 K
wegen L ~! = eX fur Ixl < 00
K=O
= e- A exp {'xe jS }
E(X) = cp(l).(O)
J
E(X)
\ . js. ,X( e
= AJe e.
js - 1) I
J s=o
= ,Xj =,X
j
E(X2) = cp(2~2(0)
J
E(X2) = (-1) . (,Xj 2ejS • exp {.A(e jS - I)} + (,Xje j8 )2
. exp {'x(e j8 - I)}) 18=0
= (-1)· (-,X + (j,X)2)
= ,X2 + ,X
Aufgabe 5.5
Gegeben sei die rayleighverteilte Zufallsvariable R aus Aufgabe 5.3.
R2
x g(R) = -·a
22
R
g'(R) = a2
Wurzeln: rl = +V2a 2x r2 = -V2a 2x
fx(x)
fn(rd + fn(r2)
Ig'(rdl Ig'(r2)1
~
=0 da r2<0
=
fur x ~ 0
:::::} fx(x) =
sonst
! !
00 00
! !
00 00
= e- x cos(sx) dx +j e- x sin(sx) dx
o 0
x
+j [ e- 2 (- sin(sx) _ s COS(Sx))] 00
l+s 0
1~ls2(-1)+j (1~ls2(-S))
1 + js 1 + js 1
1 + s2 (1 + js)(l - js) 1- js
72 5 Kennwerte von Zufallsvariablen
cp(l) (O)
c) E{X)
J
= J
(I - jS)2j
I8=0 = 1
cp(2) (O)
E{X2) = -2 I =2
j2 (I - js)3 j2 8=0
D2{X) = E{X2) - E2{X) = 2 - 1 = 1
Aufgabe 5.6
Wurzeln: Xl = VY X2 = - VY
5.3 Ubungsau[gaben 73
1 (-(Y+1-L 2))
= J27rYO' exp 20'2
. ~2 [exp (2JYI-L)
20'2 + exp (_ 2JYI-L)]
20'2
=
1
J27rYO' exp
(-(y20'2+ 1-L2)) cosh (JYI-L)
7
fur y 2: 0
00
b) E(Y) = / yJy(y) dy
-00
00 y [ (_(JY-I-L)2)
= /
2y'27rYO' exp 20'2
o
*
74 5 Kennwerte von Zufallsvariablen
[1
~ 2vha 2(Z + p)' exp { - ;;, } dz
+
+1'
1 2(Z - J.L)2exp {- ;;2 } dZ]
I
00
1(z
o
_1 [2/
~a
00
o
z2exp {_~}
2a
dz
2
+2 / 2:
00
p2 exp { - 2 } dz
o
2:
o
+/ (z + p)2 exp { - 2 } dz
-/.1
6 Spezielle "Wahrscheinlich-
keitsverteilungen
Modell: Es wird ein Versuch ausgefUhrt, bei dem entweder das Ereignis
A = {X = xI} oder A = {X = X2} eintritt.
Wahrscheinlichkeitsverteilung:
P(A) = P(X = xd = p
~
0 fur x < X2
F(x) { 1-p fur X2 ~ x < Xl
1 fur x ~ Xl
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
6.2 Die Binomialverteilung 77
Beispiele:
(i) MUnzwurf
(ii) Ein Radargerat detektiert nach Absenden eines Impulses mit Wahr-
scheinlichkeit p ein Echo.
Sonderfall:
FUr N = 1 ist Xl null-eins-verteilt.
Wahrscheinlichkeitsverteilung:
Gesucht ist P(XN = K), 0 ~ K ~ N. Da die Versuche im Bernoul-
li Schema unabhangig voneinander durchgefiihrt werden, tritt, wenn
XN = Kist, A genau K-mal und if genau (N - K)-mal auf, d.h. wenn
man die Anzahl der moglichen Kombinationen (ohne Wiederholung!)
78 6 SpezieJle Wahrscheinlichkeitsverteilungen
beriicksichtigt, folgt:
E(X N ) = Np
D2(XN) = Np(l - p)
(a) Wie groB ist die Wahrscheinlichkeit dafiir, daB das ganze Byte kor-
rekt iibertragen wird?
(b) Wie groB ist die Wahrscheinlichkeit fiir das Auftreten von genau 2
Bitfehlern ?
(c) Wie groB ist die Wahrscheinlichkeitfiir das Auftreten von hochstens
2 Bitfehlern?
(d) Wie groB ist die Wahrscheinlichkeit fiir das Auftreten von min de-
stens 2 Bitfehlern?
Es ist:
P(X,=k)
0,336
0,294
0,168
0147
0,~6
I 0,009
------+--;---+--;---+-~~-.--.---._-k
° 2 3 4 5 6 8
Bemerkungen:
Fur die relative Haufigkeit HN(A) = khN(A) gilt also, wenn sie
als Zufallsvariable interpretiert wird,
E(HN(A)) = p = P(A)
D2(HN(A)) = p(1 - p) .
N
80 6 Spezielle Wahrscheinlichkeitsverteilungen
N! K, K2 K r +1
I K I
K 1·· K I · Pl P2 ... Pr+l (6.3-1)
2···· r+l·
N! K, K2 Kr N-K
= K l ! ... Kr!(N - K}! . Pl P2 ... Pr q (6.3-2)
,X
p= N' (6.4-1)
dann ist
(6.4-2)
N! (,X)K( ,X)N-K
P(XN = K) = K!(N _ K)! N 1- N
Beachtet man nun, daB der dritte Faktor auf der rechten Seite dieser
82 6 Spezielle Wahrscheinlichkeitsverteilungen
lim (1-
N-too
~)N
N
= e-A
gilt, folgt (6.4-2).
Definition 6.4-1
Eine Zu/allsvariable X, die die Werte K = 0,1,2, ... mit den
Wahrscheinlichkeiten (6.4-2)
>.K
P(X = K) = K!e- A (>. > 0)
annimmt, ist mit dem Parameter>' poissonverteilt.
Bemerkung:
Es gilt fiir die Zufallsvariable X aus Definition 6.4-1 :
E(X) = >., D2(X) = >., ip(s) = exp(>.(e j8 - 1))
-~ BiiOliilloMrtliUlg
... ... ~ .•• .- -I'I*Ioi'1/IItIIwIg
~1 ~1
o 1 Z J 4 5 I 1 • t 10 r o 1 2 3 4 5 • 1 • t 10 r
(al N=5; p=O.3 (bl N=10; p=O.15
9
::;. P(X 2: 10) =1- P(X ~ 9) =1- L P(X = k)
k=O
k
o 1 2 3 4 5 6 7 8 9 10 11 12
Bemerkung:
Die Einzelwahrscheinlichkeiten PK = P(X = K} einer poissonverteilten
Zufallsvariablen X geniigen der Rekursion
-,\
Po = e
A
PK = KPK-1 K = 1,2, ....
(6.5-1)
Definition 6.5-1
Eine ZuJallsvariable X mit Einzelwahrscheinlichkeiten nach (6.5-1)
unterliegt einer hypergeometrischen Verteilung.
Beispiele:
(i) Sie spielen Lotto. Wie groB ist die Wahrscheinlichkeit, daB Sie bei
einer Auswahl von 6 aus 49 Zahlen genau 4 Richtige haben?
Satz 6.5-1
Das heipt, dap fur grope N (Faustregel: N < 0,05) die hypergeo-
metrische Verteilung niiherungsweise der Binomialverteilung mit
den Parametern p = ~ und n entspricht.
Beweis:
Fur festes n und k gilt namlich
86 6 Spezielle Wahrscheinlichkeitsverteilungen
M(M - l)(M - 2) ... (M - k + 1)
kl
+ 1)
N(N - l)(N - 2~ ... (N - n
n.
(N - M)(N - M - 1)··· (N - M - n + k + 1)
(n - k)!
n! M(M - 1) ... (M - k + 1)
k!(n - k)! . N(N - 1)··· (N - k + 1)··· (N - n + 1)
·(N - M)(N - M - 1) ... (N - M - n + k + 1).
n! (n)
k!(n - k)! k'
0 flir x < a
F(x) = { ~=: flira:Sx<b (6.6-1)
1 flirx2:b
00 b
E(X) = j xJ(x)dx =j xb ~ a dx
-00 a
1 1
.b a2
2 -
=-
b- a 2
= -(a+b)
2
(6.6-2)
b
E(X2) = jX2_1_ dx = _1_. b3 - a3
b-a b-a 3
a
=-_.
1 b3 - a3 (a + b)2
b- a 3 4
4(b3 - a3 ) - 3(b - a)(a 2 + 2ab + b2)
= ~----~~--~~------~
12(b - a)
4b 3 - 4a 3 - 3a2b - 6ab 2 - 3b3 + 3a 3 + 6a 2b + 3ab 2
=
12(b - a)
b3 - a 3 + 3a 2b - 3ab2 (b - a)3 (b - a)2
12(b - a) 12(b - a) 12
88 6 Spezielle Wahrscheinlichkeitsverteilungen
Beispiel [Jon91]:
Ein Analog-Digital-(A/D)-Wandler setzt analoge in digit ale Signale urn.
Die Werte des digitalen Signals entsprechen irn allgerneinen nicht rnehr
denen des analogen Signals, es tritt ein Quantisierungsfehler auf (Bild
6.6-1). Wir nehrnen an, daB der Quantisierungsfehler X fiber der Hohe
q der Quantisierungsstufe gleichverteilt ist. Wie groB ist die Varianz des
Quantisierungsfehlers?
OIl
DID
,.... / : \ --I~t!-
DOl
/::\ /: \
-c,,-tiV~~~\'-I~~~~~\-""-''-''~: t
"I"0
000
:/ Y :
. :/: N 101
~ 100
Kennlinie Ouantisierungsfehler
Bild 6.6-2 zeigt Dichte und Verteilungsfunktion einer fiber [a, b) gleich-
verteilten Zufallsvariablen.
fIx) F(x)
1
boa
---r----r-----~-------x ---+----,~----_r-----x
a b a b
0 fur x <0
f(x) = { - ,oX> 0 (6.7-1)
oXe-'xx fur x >0
o
F(x) ~{ flir x :::; 0
flir x> 0
(6.7-2)
E(X) =~ (6.7-3)
D2(X) = :2 (6.7-4)
1
cp(s) = --. [Fis70j, S. 183f.
1- JS
oX
--+-------~~~==--x --~-------------------x
gegeben ist.
Bemerkungen:
(i) Die Normalverteilung wird mit Recht als die wichtigste Verteilung
der Wahrscheinlichkeitstheorie angesehen. Ihre Bedeutung beruht
vor allen Dingen darauf, daB Zufallsvariablen als normalverteilt
angesehen werden konnen, die durch additive Uberlagerung ei-
ner groBen Zahl von unabhangigen zufalligen Einflussen (d.h. Zu-
fallsvariablen) entstehen, wobei jede der einzelnen Zufallsvariablen
einen im Verhaltnis zur Gesamtsumme nur unbedeutenden Beitrag
liefert (vergleiche Abschnitt 7.8).
(6.8-2)
6.8 Die Normalverteilung 91
Erwartungswert
(6.8-4)
falls k gerade
(6.8-5)
falls k ungerade
charakteristische Funktion
fIx)
----~~-----._+--_.----r-------~----x
F(x)
1 .---------------------------:.:.;--;..------ - - - - - -
--------~~--_+--._------------------x
Bild 6.8-1: Dichte und Verteilungsfunktion einer N(J],j (12) verteilten Zu-
fallsvariablen
92 6 Spezielle Wahrscheinlichkeitsverteilungen
Bild 6.8-2: Einflufl der Parameter J.l und (72 auf die Normaiverteilungs-
dichte
y= X-J.l
(7
wird die N(J.lj (72)-verteilte Zufallsvariable X in die N(O; l)-verteilte Zu-
fallsvariable Y transformiert.
Fur die Verteilungsfunktion F(x) einer N(J.l; (72) verteilten Zufallsvaria-
bIen gilt
1 2
= 2· v'1f
= ~ + ~ erf ( x;;: )
mit cler (Gauflschen) Fehlerfunktion
erf(x) = 2
v'1f j x
e- t 2 dt. (6.8-7)
o
6.8 Die Normalverteilung 93
x
e- t2 dt (6.8-8)
erfc(x) = 2Q(V2x),
Q(x) = 1 - <I>(x),
= P (Iy + ~I > ~)
= P(Y + ~ < -~) + P(Y + ~ > ~)
= P(Y < -2) + P(Y > 1)
und Y ist N(O; 1)-verteilt. Durch Nachschlagen in einer Tabelle der Stan-
dardnormalverteilung (siehe Anhang D) findet man:
= _1
v'2-ff
1
2
00
exp (_ t 2 ) dt
2
vk I
00
/3 (j
J{x) = 7i (x)i1-1 exp {(X)i1}
- (j , x~O
r(x) = I00
o~-------=~~~---
x
o
Bild 6.9-1: Einflu6 des Parameters /3 auf die Dichte der Weibullverteilung
Erwartungswert:
Mit (5.1-1) gilt
96 6 Spezielle Wahrscheinlichkeitsverteilungen
dx = (}.!.U 1//3-1
du !3
E(X) = ! 00
o
!3ue(-U)(}*u1//3-1 du
Varianz:
Mit (5.1-3) und k = 2 gilt:
E(X2) =! 00
u(1//3)(}!3ue(-U)(}*u 1//3-1 du
o
=! 1)
00
u(2//3)(}2e- u du = (}2 r (~ +
o
= (}2 r (~ + 1) _ [r (* + 1) ]
(}2 2
Bemerkung:
FUr!3 = 1 ergibt sich die Exponentialverteilung mit A = t und fiir !3 = 2
ergibt sich die Rayleighverteilung mit (}2 = 20- 2 •
6.10 Ubungsau[gaben 97
6.10 Ubungsaufgaben
Bei der ersten Ziehung der Gliickspirale 1971 wurden fUr die Ermittlung
einer 7-stelligen Gewinnzahl aus einer Trommel, die Kugeln mit den
Ziffern 0, ... ,9 je 7-mal enthiilt, nacheinander rein zufallig 7 Kugeln
ohne Zuriicklegen gezogen.
b) Fur jede Zahl stehen 7 Kugeln zur Auswahl, d.h. es wird 7 mal aus
7 Kugeln eine gezogen:
77
:::} P(A 2 ) = 1m ~ 1,36307· 10- 7
c) A3 = {(al, ... ,a7)fO;mitalE{21, ... ,27},
a2 E{2 l , ... ,27 }\{ad, a3 E{3 l , ... ,3 7},
a4 f {l l , ... ,1 7},a5E{4 l , ... ,4d,
a6 f {2l , ... 27 }\{al, a2},
a7f{2l, ... , 27}\{al,a2,a6}}
IA31 = 7 . 6 . 7 . 7 . 7 . 5 . 4 = 288120
P(A )
3
= 288120 '" 4 7688. 10- 8
101 "',
~0,323324
100 6 SpezieJ1e Wahrscheinlichkeitsverteilungen
=
1 °
_ (100) (_1
365
)0 (1 __1 )100
365
:=:;j 0,23993
6.10 Ubungsaufgaben 101
(~+ 1) ,
r
E(X) = 8,86230 = ()r
r
Einsetzen in
[r(b+ 1)f -b r b) -
100 27324
78,54036 ' 2( r 2 ( b)
102 6 Spezielle Wahrscheinlichkeitsverteilungen
F (x) = 1 - exp { - ( :0 f} ,x ~ 0
(i) P(X:::; 1) = F(l) = 1- (e-<O,1)2) ~ 0,00995
(ii) P(X > 10) = 1 - F(lO) = e- 1 ~ 0,36788
(iii) P(5 < X :::; 10) = F(lO) - F(5) = (e- O,25 - e- 1 ) ~ 0,41092
F ( )
s t
= P(X :::; t
IX
>s
) = P(XP(X
:::; t n X>
> s)
s)
Unter der Bedingung, daJ3 der Motor bis zum Ende des funften
Betriebsjahrs ohne auszufallen gearbeitet hat, fcilit er vor dem Ende
des zehnten Betriebsjahres mit Wahrscheinlichkeit 0, 52763 aus.
6.10 Ubungsau[gaben 103
F~)= { ° 1 - e->'x
fur x<o
-
fur x > °
F(3, 83 [TageD = 1 - e->.·3,83 = 0,5
0,5 = e->.·3,83
0,05 = e->"x
InO,05 = -,\. x
In 0, 05
x = ----=-:x- ~ 16,55 [Tage]
7 Mehrdimensionale
Zufallsvariablen
Definition 7.1-1
(7.1-1)
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
7.1 Verteilungsfunktion und Dichte 105
Definition 7.1-2
Die Funktion
Definition 7.1-3
Durch partielle Ableitungen der VerteilungsJunktion F(x) nach al-
len Variablen ergibt sich die Dichte der mehrdimensionalen Zu-
Jallsvariablen X
a2
= aXl aX2 F(X). (7.1-5)
Beispiel:
X = (i~) hat eine zweidimensionale Normalverteilung, wenn ihre
Dichte die Gestalt
besitzt. Fur die Parameter der Dichte gelten dabei die Ungleichungen
-l<p<1.
Zur Abkurzung set zen wir in (7.1-7)
c= 1 (7.1-8)
27r0"10"2..Jl7
1. Fall: p = 0
Die Hauptachsen A = 2a und B 2b der Ellipsen sind
parallel zur Xl- bzw. x2-Achse mit
O"~ sin 2 'Y + O"~ cos 2 'Y + 2pO"l0"2 sin'Y cos 'Y
O"~ cos 2 'Y + O"~ sin 2 'Y - 2pO"l0"2 sin 'Y cos 'Y .
!
00
!
00
Randdichten von X.
Bemerkungen:
(i) Die Randdichten JXl (xd und JX2(X2) sind die Dichten der Kom-
ponenten des Zufallsvektors X = (Xl, X2)T.
7.2 Randdichten und bedingte Dichten 109
Definition 7.2-2
X sei eine zweidimensionale ZuJallsvariable mit der Dichte f(x) =
f(XliX2) und es gelte fxl(xd > 0 sowie f X2(X2) > O. Dann heiflt
(7.2-3)
(7.2-4)
Bemerkungen:
(i) Eine bedingte Dichte besitzt alle Eigenschaften einer Dichte (ver-
gleiche Abschnitt 4.1).
!
Xl
(7.2-5)
Entsprechend zu Satz 3.1-1 ergeben sich mit (7.2-1) und (7.2-3) die
Formel von der totalen Wahrscheinlichkeit f"tir Dichten
00
Beweis:
Gleichung (7.2-8) eingesetzt in die rechte Seite von (7.2-9) ergibt:
00 00
00 00 00
gilt.
Bemerkung:
Diskrete Zufallsvariablen X, Y sind unabhangig, wenn
gilt.
Erwartungswerte flir zweidimensionale Zufallsvariablen werden nach
00 00
berechnet.
Definition 7.3-2
X und Y seien zwei ZuJallsvariablen.
_ (X Y) _ cov(X, Y)
PX,Y - P , - y'D2(X)D2(y)
- _ Y - f.Ly
Y
und - ---'--c-.
(Ty
--) 1 (73-5)
E ( XY = - - E {(X - f.Lx)(Y - f.Ly)} '= Px.y
(Tx(Ty
-1 :s PX,y :s 1. (7.3-6)
Belllerkung:
Der Korrelationskoeflizient PX,y stellt ein Ahnlichkeitsmafi der Zufalls-
variablen X und Y dar:
Fiir Ipx,yl = 1 sind X und Y maximal ahnlich. Fiir PX,y = 0 sind sie
sich komplett unahnlich, man sagt, sie seien unkorreliert.
Unabhangige Zufallsvariablen sind unkorreliert. Die Umkehrung dieser
Aussage gilt im allgemeinen nicht. Haben jedoch X und Y eine Nor-
malverteilung und hat (X, y)T eine zweidimensionale Normalverteilung,
folgt aus PX,y = 0 die Unabhangigkeit von X und Y.
Fiir beliebige Zufallsvariablen X und Y gelten im Falle der Existenz von
E(X) und E(Y) bzw. von D2(X) und D2(y) die Beziehungen
(7.3-9)
(7.4-2)
Aus (7.4-2) konnen die Dichten bzw. die Verteilungen fur Summe, Pro-
dukt und Quotienten zweier Zufallsvariablen berechnet werden.
(a) SummeZ=X+Y
Mit
Mit f (x, y), f x (x) und Jy (y) bezeichnen wir die Dichten des
Zufallsvektors (X, y)T und der Zufallsvariablen X bzw. y.
U1 = X, U2 =X +Y =Z
{:} X = UI, Y = U2 - U1 =Z - X.
1 0
J= =1.
-1 1
Mit (7.4-2) erhalten wir damit fur die Dichte des Zufallsvektors
(X,Z):
h(x, z) = f(x, z - x)
116 7 Mehrdimensionale Zufallsvariablen
!
00
Daraus folgt
! !!
Z Z 00
!
00
und
II
Z 00
Satz 7.4-1
Die Dichte der Summe Z = X + Y zweier unabhiingiger
Zufallsvariablen X und Y ist die Faltung der Einzeldichten
(7.4-5).
In diesen Zusammenhang paSt auch der im folgenden formulierte
Multiplikationssatz charakteristischer Funktionen:
Satz 7.4-2
X und Y seien unabhiingige ZuJallsvariablen mit den charak-
teristischen Funktionen cp x (s) bzw cpy (s). Die charakteristi-
sche Funktion der ZuJallsvariablen Z = X + Y ist dann
Beweis:
Mit X und Y sind auch e jsX und e jsY unabhangige Zufallsvariablen
und damit folgt
7.4 Funktionen zweidimensionaler Zufallsvariablen 117
= E {e jsX } . E {e jsY } .
(b) Produkt Z = x· y
(7.4-1) schreibt sich hier
U1 = X, U2 = Z = X . Y
Y = U2 = Z.
U1 X
1 0 1 1
J=
z 1 x IJI = T;r
-"X2 x
f (x,~) I~I
00
ff
Z 00
f 1~lfx(x)Jy (~)
00
f f I~I
Z 00
(c) Quotient Z =
X/Y
Fiir allgemeine Zufallsvariablen X und Y ergibt sich:
!
00
=! !
Z 00
Fz(z) f(yu,y)lyldydu
-00 -00
!
00
!!
Z 00
Z=X+jY (7.5-1)
Bemerkung:
Die Verteilung der komplexen Zufallsvariablen Z ist durch die zweidi-
mensionale Verteilungsfunktion F(x, y) = P(X :::; x, Y :::; y) des Zufalls-
vektors (X, y)T bestimmt.
Die Momente komplexwertiger Zufallsvariablen sind zunachst genauso
definiert wie bei reellen Zufallsvariablen, es handelt sich dabei aber urn
komplexe Zahlen. Dies hat Folgen:
7.6 Transformation von Zufallszahlen 119
Es folgt
= D2(X) + D2(y).
Die Kovarianz der komplexen Zufallsvariablen Zl und Z2 (d.h.
die Kovarianz des Vektors (Zl' Z2)T) ist definiert durch
(7.5-3)
Bemerkung:
Es gilt der Zusammenhang
Satz 7.6-1
Es sei X eine ZuJallsvariable mit der VerteilungsJunktion Fx(x).
Die ZuJallsvariable Z = g(X) (g eindeutig umkehrbar) ist genau
dann im Intervall [0, 1) gleichverteilt, wenn gilt
Beweis:
im Intervall [0,1)
Satz 7.6-2
Gegeben sei eine im Intervall [0,1) gleichverteilte ZuJalisvariable
Z und eine ZuJalisvariable Y. Y hat genau dann die gewunschte
VerteilungsJunktion F y (y), wenn gilt
Y = F y 1 (Z).
Beweis:
Mit Satz 7.6-1 gilt ffir Z gleichverteilt in [0,1) und eine beliebige Zufalls-
variable Y
Z = Fy(Y)
¢:} Fyl(Z) = Y.
7.6 Transformation von Zufallszahlen 121
Mit Satz 7.6-1 und Satz 7.6-2 kann nun der folgende allgemeine Satz
gezeigt werden:
Satz 7.6-3
Es sei eine ZuJallsvariable X mit der VerteilungsJunktion Fx(x)
gegeben. Die ZuJallsvariable Y hat die gewiinschte Verteilungs-
funktion Fy(y), wenn
gilt.
Beweis:
Aus Satz 7.6-1 erhalt man mit Z = Fx (X) eine gleichverteilte Zufallsva-
riable Z und mit Satz 7.6-2 ergibt sich aus Y = Fyl(Z) = Fyl(Fx(X))
eine Zufallsvariable mit der Verteilungsfunktion Fy.
Beispiel:
Vorhanden ist ein Zufallsgenerator, der gleichverteilte Zufallszahlen Z
im Intervall [0,1) erzeugt. Gesucht ist eine Transformation g(Z), die die
Zufallszahlen in exponentialverteilte Zufallszahlen Y iibertragt.
Lasung:
Z sei gleichverteilt in [0,1). Mit Satz 7.6-2 ergibt sich eine exponential-
verteilte Zufallsvariable Y durch
Y = Fyl(Z) mit
Fy(y) = 1 - e->'y y>O
::} Z = 1 - e->'y
::} 1 - Z = e->'y
1
--In(l- Z) = Y.
>.
122 7 Mehrdimensionale Zufallsvariablen
y= ~
N ..2
~~ N
y= ~ X
2
r
11..
n-1 n n=1 n
R="\V R="\V
N~~2 N~~2
Rayleigh-verteilt verallgemeinert Rice-verteilt verallgemeinert
Raylelgh-verteilt Rice-verteilt
Sind die Zufallsvariablen Xn; n = 1,2, ... ; N{O; a 2 )-verteilt und un-
abhangig, besitzt
N
Y = L X~ (7.7-1)
n=l
R= .;y (7.7-2)
Bernerkung:
In der Nachrichtentechnik werden rayleighverteilte Zufallsvariablen zur
Modellierung von Mehrwegeausbreitungen benutzt, wenn es keinen di-
rekten Ausbreitungspfad yom Sender zum Empfanger gibt.
Sind die Zufallsvariablen Xn; n = 1,2, ... ,N; N(/-Ln; (j2)-verteilt und
unabhangig, ist Y (7.7-1) nichtzentral x~-verteilt mit N Feiheits-
graden. R = v'Y (7.7-2) besitzt fUr N = 2 eine Rice-Verteilung und
flir N > 2 eine verallgerneinerte Rice-Verteilung.
Bernerkung:
In der Nachrichtentechnik werden riceverteilte Zufallsvariablen zur Mo-
dellierung von Mehrwegeausbreitungen benutzt, wenn es einen direkten
Ausbreitungspfad yom Sender zum Empfanger gibt.
Flir normalverteilte Zufallsvariablen gilt der
Satz 7.7-1
Die ZuJallsvariablen Xl und X 2 seien unabhiingig und besitzen
eine N(/-Ln; (j;)- Verteilung; n = 1,2. Die Summe Y = Xl + X 2
hat dann eine N (/-Ll +/-L2; (jr
+ (j~) - Verteilung.
Beweis:
Die Zufallsvariablen Xn haben gemaB (5.2-5)
(i) Die Erweiterung der Aussage von Satz 7.7-1 ist trivial: Sind die
124 7 Mehrdimensionale ZuEallsvariablen
I fur~EA
In(O ={ (7.8-1)
o sonst
(7.8-2)
durch N liefert
(7.8-3)
(7.8-4)
Beweis:
Es ist
1m Integrationsbereich gilt
(x - c)2 1
~-:2---'-- ~ ( x, c E IR)
€
und so folgt
P{IX - cl ~ €} =
/
Ix-cl::::<
f(x)dx
<
/
Ix-cl::::<
(x -2 c)2
€
f(x) dx
00
~ €~ / (x - C)2 f(x) dx
-00
126 7 Mehrdimensionale Zufa11svariablen
Folgerung:
Mit c = E(X) folgt aus der Tschebyscheffschen Ungleichung (7.8-4):
(7.8-5)
Wir kehren nun zur Diskussion der relativen Hiiufigkeit HN(A) (7.8-3)
zuriick und stellen mit Hilfe der Ungleichung (7.8-5) fest, daB
(7.8-6)
Bemerkung:
Die Wahrscheinlichkeit P(A) ist nicht der Grenzwert der relativen Hiiufig-
keit HN(A). Aber gemaB (7.8-6) konvergiert
(7.8-7)
Den Beweis von (7.8-7) findet man zum Beispiel in [Fis70], S.260.
Bemerkung:
Die bei der relativen Haufigkeit beobachteten Stabilitatseigenschaften
(7.8-6), liegen auch fUr das arithmetische Mittel unabhangiger, identisch
verteilter Zufallsvariablen vor.
1m folgenden wollen wir uns ein Bild von der Wichtigkeit der Normal-
verteilung machen. Wir beginnen die Diskussion mit einem
Beispiel [Bey95]: Gegeben seien die unabhangigen uber dem Intervall
[0,1] stetig gleichverteilten Zufallsvariablen X l ,X2 ,X3 , X 4 .
8 2 = Xl + X2 nimmt Werte aus [0,2] an und besitzt gema13 (7.4-5) die
Dichte
0 fur z~O
z fur O<z~l
f S 2 (z) = (7.8-8)
2-z fUr 1<z~2
0 fUr 2<z
Auch X3 + X4 hat die Dichte (7.8-8). Damit ergibt sich die Dichte von
128 7 Mehrdimensionale Zufallsvariablen
0 fur z~O
z3
6' fUr O<z~1
2 2
-2" + z - 2z +"3
z3 2
fur l<z~2
fS4 (z) = 4z2 + lOz _
(7.8-9)
z3 _
2
22
3
fur 2<z~3
0 fUr 4<z
.... fs 2(z)
". .... - ....
---+----~+-----~------r-~--._------ Z
2 3 4
Aus (7.8-9) kann uber den Zusammenhang (4.2-3) die Dichte von
z _S4- E {S4}
4 - .jD2(S4}
bestimmt werden. Wenn man diese Dichte gemeinsam mit der Dichte
einer N(Oj 1}-verteilten Zufallsvariablen aufzeichnet, ergibt sich Bild 7.8-
2. Die standardisierte Summe Z4 nahert offenbar eine N(Oj 1}-verteilte
Zufallsvariable an.
7.8 Gesetze der graBen Zahlen und Grenzwertsatze 129
Dichte der
------~---------+----~--~~-------- z
Genauer gilt
Satz 7.8-4 (Zentraler Grenzwertsatz):
X 1 ,X2 , ... sei eine Falge unabhiingiger, identisch verteilter Zu-
fallsvariablen mit
N
dann gilt mit SN = L Xn fur jedes x E R
n=l
lim P {SN; : m
N--+oo Nd
~
:s x} = v27r JX exp (_y2)
2
dy. (7.8-10)
-00
Bemerkungen:
Z _ SN-Nm
N - VNd
konvergiert fUr N ~ 00 gegen die Verteilungsfunktion einer N(O; 1)-
verteilten Zufallsvariablen.
(ii) Den Beweis des Satzes 7.8-4 findet man z.B. in [Fis70j, 8.235.
130 7 Mehrdimensionale Zufallsvariablen
(iii) Der zentrale Grenzwertsatz gilt unter weiterreichenden als den hier
erwlthnten Bedingungen. So kann (bei Einfiihrung anderer Rand-
bedingungen) auf die Forderung verzichtet werden, daB die Zufalls-
variablen Xl, X 2, . .. identisch verteilt sind [Ren 71].
(7.8-11)
Bemerkungen:
N
(i) SN =L Xi ist die Summe (identisch) Null-Eins-verteilter Zufalls-
n=l
variablen {Bernoullisches Versuchsschema}.
(ii) Als Faustregel wird im allgemeinen angegeben, daB die Approxi-
mation der Binomialverteilung mit der Normalverteilung fiir prak-
tische Zwecke ausreicht, wenn D 2 {SN}:::: 9 gilt.
(iii) Oft wird bei der Approximation der Binomialverteilung eine Ste-
tigkeitskorrektur vorgenommen [Hen97].
Statt
wird oft
benutzt.
7.8 Gesetze der groBen Zahlen und Grenzwertsatze 131
fIx)
x
o
Beispiel [Jon91]:
Ein Frequenzsprungsender benutze den Frequenzbereich zwischen 30 MHz
und 80 MHz. Die Kanalbandbreite betrage 25 kHz, d.h. es gib 2000 Kan~ile,
die aIle mit gleicher Wahrscheinlichkeit angesprungen werden. Eine Sen-
dung dauere 10 s, die Dauer des einzelnen Hops sei 10- 3 s. Die Sendung
besteht also aus 104 Hops. Eine Frequenz wird mit einem Empfanger
beobachtet: Wie grofl ist die Wahrscheinlichkeit dafiir, dafl mindestens
3 Hops der Sendung erfaflt werden?
Gesucht ist die Wahrscheinlichkeit
Der Satz von de Moivre-Laplace versetzt uns in die Lage, diese Wahr-
scheinlichkeit zu berechnen: Es ist N = 104 , P = 20100' woraus mit N p = 5
und JNp(1- p) = 2,24 folgt:
= P{XN 2: -0,89}
132 7 Mehrdimensionale Zufallsvariablen
1
V21i JOO
-0,89
exp (_ y2 ) dy:::::: 0,81
2
Bemerkung:
In den Rahmen der hier zitierten Grenzwertaussagen gehort auch der
in Abschnitt 6.4 bewiesene Satz 6.4-1, der den Zusammenhang zwischen
Binomial- und Poissonverteilung kennzeichnet. Dieser Satz wird deshalb
auch als Poisson scher Grenzwertsatz bezeichnet.
Eine experimentelle Bestatigung des Satzes von de Moivre-Laplace stellt
das Galtonsche Brett (Bild 7.8-4) dar [Ren71]. Es enthalt N Reihen
von Hindernissen in regelmaBiger Anordnung. In der n-ten Reihe gibt
es genau n Hindernisse. Eine herunterfallende Kugel wird in jeder Rei-
he mit der Wahrscheinlichkeit p = t nach links oder rechts abgelenkt.
Unter der letzten Hindernisreihe befinden sich N + 1 Speicher zum Sam-
meln der Kugeln. Eine Kugel gelangt in den k-ten Speicher von links
(k = 0,1,2, ... ,N), wenn sie an genau k Reihen nach rechts und an den
tibrigen N - k Reihen nach links abgelenkt wurde. Wenn angenommen
wird, daB die Ablenkungen an den verschiedenen Reihen voneinander
unabhangig sind, ist die Wahrscheinlichkeit fUr das Ereignis "die Ku-
gel landet im k-ten Speicher von links" gleich (~) ~. LaBt man eine
groBe Anzahl von Kugeln tiber das Galtonsche Brett rollen, entwickelt
sich in den Speichern eine Verteilung der Kugeln, die (im Mittel) der
GauBdichte ahnlich ist.
7.9 Ubungsaufgaben
Aufgabe 7.1 [Bos95]
Beim Roulette-Spiel wird eine der 37 Zahlen 0,1,2, ... ,36 ausgespielt.
Setzt man auf das untere Dutzend {I, 2, ... , 12}, so erhalt man bei Ge-
winn den dreifachen Einsatz, d.h. man hat einen Reingewinn von X = 2.
Bei jeder ausgespielten Zahl, die nicht in {I, 2, ... ,12} enthalten ist,
verliert man den Einsatz (X = -1). Setzt man auf "Impair", d.h. auf
die ungeraden Zahlen, so erhalt man bei Gewinn den doppelten Einsatz
(Reingewinn Y = 1). Wird eine gerade Zahl ausgespielt, verliert man
den Einsatz (Y = -1). In dem speziellen Fall einer ausgespielten Null,
kann man den halben Einsatz herausnehmen (Y = -1/2).
Ein Spieler setze nun jeweils eine Einheit auf {I, 2, ... , 12} und eine auf
"Impair" .
a) Mit den Ereignissen K = {I, 2, ... , 12}, U = {I, 3, 5, ... ,35} und
n = {O, 1, 2, ... ,36} mit Inl = 37 ergibt sich:
6
P(X = 2, Y = 1) = P(K n U) = P({l, 3, ... , ll}) = 37
1
P(X = 2, Y = -2) = P(K n {O}) = P(0) = 0
P(X = 2,Y = -1) = p(KnU)
6
= P( {2, 4, ... , 12}) = 37
P(X,Y) Y= 1 Y -- - !2 Y =-1
6 6
X=2 37 0 37 P(X=2)=*
12 1 12
X=-l 37 37 37 P(X=-l)=~
(X = 2,Y = 1) =} X+Y=3
1 3
(X=2'Y=-2) =} X+Y=-
2
(X = 2, Y = -1) =} X+Y=l
(X = -1, Y = 1) =} X+Y=O
1 3
(X = -l,Y= --) =} X +Y =--
2 2
(X = -l,Y = -1) =} X +Y =-2
Werte von X +Y
Wahrscheinlichkeiten
7.9 Ubungsaufgaben 135
f(x, y) = e-(x+y); x 2: 0 , y 2: O.
Z=Y-X
=> U1 = Z = Y - X, U2 =Y
=> X = Y - Z = U2 - U1 , Y = U2
-1 1
J= = -1 => IJI = 1
o 1
136 7 Mehrdimensionale Zufallsvariablen
h(z, y) = f(y - z, y)
mit y - z 2: 0 und y 2: o.
ff(y-z,y)dy
fz(z) = { Zx,
J f(y-z,y)dy z:::;o
o
J e- 2y + z dy
00
={
z
f e- 2y + z dy z:::;o
0
!2
00
1 1
1) P(Z > 0) = e- z dz = 2
o
! ~eZdz+ ! ~e-Zdz
o 1
= [~eZ[1 + [-~e-zJ:
= ~ _ ~e-1 + ( _ ~e-1 + ~)
= 1- e- 1
7.9 Ubungsaufgaben 137
f(x, y) = e-(x+y); x 2 0, y2 0
I I
00 00
= e -x [ -e -Y] 0
00
= e -x ;
c
10 0 ~ 2, 58 ~ c ~ 25,80.
Aufgabe 7.4
X sei N(O, 1) verteilt. Berechnen Sie jeweils den Korrelationskoeffizien-
ten p(X, Y) ffir
a) Y=X 2 ,
a)
E(X) = 0
E(Y) = E(X2) = 1
Wegen D2(X) = E(X2) - E2(X) = E(X2) = 1
= E{(X3 - X)}
= E{X3} - E{X} = E{X3}
Damit gilt:
= E(X4) - 1 (6.~5) 3 - 1 = 2
D2(X) = 1
( X Y) - cov(X, Y) __ 0_ - 0
p , - JD2(X)D2(Y) - y'1:2 -
-------
=1
= E{X(aX)} = aE{X2} = 1
a a
140 7 Mehrdimensionale Zufallsvariablen
Man bestimme:
a) die Konstante a,
00
f f f(x;y)dxdy = l.
-00 -00
rr /2 [rr /2
[ [a - sin
1
(x + y) dx dy
rr/2
= a / [- cos (x + Y)l:~l dy
o
rr/2
= / [- cos (~ + y) + cos (y)] dy
o
Randdichte:
J J~
"
2" "
"2
1
= 2[-cos(x x="- = 2
+Y)]x=g 1 [7r
-cos("2 +y) +cos(y) ]
sin (x + y) 7r
fx(xly) = fx(xlY = y) = cos ()
y + sm
. (y ) - X,y <
0< - -2
21 [sm
. 7r
fx(x) = (x) + cos (x)] 0<
- X <-
- 2
sin (x + y) 7r
jy(ylx) = jy(ylX = x) = cos () O<x,y<-
x + sm. (x ) - - 2
J J
00 "
"2
(!
-00
~~ "inxdx + IX'~Xdx)
[BS70]: = ~ ([sin x - x cos x]! + [cos x + x sin x]!)
=~(1+~-1)=~
142 7 Mehrdimensionale Zufallsvariablen
"
2"
E(XIY = y) = / x· fx(xly) dx
o
"
2"
= . ( ) 1
sm y + cos y
() /x .
. sm (x + y) dx
o
"
= . () 1
sm y + cos Y
()([-XCOS(x+Y)l:~!+/2COS(X+Y)dX)
o
= . () 1 ()(~2sin(y)+[sin(x+Y)l:~!)
sm y + cos Y
= . ( ) 1 ()
sm y + cos Y
(~2 sin (y) + cos (y) - sin (y))
= 1 _ (2 _ ~) sin (y)
2 sin (y) + cos (y)
Aufgabe 7.6
1. Losung:
P(Z = k) = L P(X = i, Y = l)
i+l=k
=L P(X = i)P(Y = l)
i+l=k
mit l = k - i
k
= L P(X = i)P(Y = k - i)
i=O
(\
"1+"2
\)k
=~
~(k)\i\k-i ~ k! AiAk-i
i "1"2 =~i!(k-i)! 12
2. Losung:
und
Aufgabe 7.7
Gegeben sei die komplexwertige Zufallsvariable Z = X + jY, wobei X
und Y N(O, a 2 )-verteilt und unabhangig sind.
Y
<I> = arctan X
J = cosr.p -r sinr.p
= r cos 2 r.p + r sin2 r.p = r
sin r.p r cosr.p
r {x2 + y2}
f(r, r.p) = f(x, y) . r = 27r(T 2 exp - 20- 2
r {r2 } r~O
= 0-2 . exp - 20- 2 '
=> Rayleighverteilung
00
= fOO _ r . exp {-
211"0- 2
~}
20- 2
dr
o
146 7 Mehrdimensionale Zufa11svariablen
1 1
[BS70j: = - .-
2rra 2 2 ~1
1
2rr fiir 0 :-::; <p < 2rr
Aufgabe 7.8
Bei einem bestimmten Versuch trete ein Ereignis Emit der Wahrschein-
lichkeit p = 0,4 ein. Es bezeichne HN(E) die relative Haufigkeit des
Eintretens von E bei N unabhangigen Wiederholungen des Ausgangs-
versuchs. Man berechne approximativ die Wahrscheinlichkeit
P(p - 0,05 < HN(E) < p + 0,05)
fiir N = lOO und N = 1000.
Aufgabe 7.9
Fur das Funktionieren einer bestimmten Maschine ist es erforderlich, daB
ein bestimmtes auswechselbares Teil intakt ist. Uber die Lebensdauer X
148 7 Mehrdimensionale Zufallsvariablen
eines solchen Teils ist bekannt, daB sie ausreichend genau normalverteilt
ist mit J-L = 106 [Stunden] und 0' = 10 [Stunden]. An jedem Arbeitstag
laufen gleichzeitig 10 dieser Maschinen wahrend 16 Stunden. Die Zeit
fUr das Auswechseln der besagten Teile solI im folgenden auBer Betracht
gelassen und die Lebensdauern der einzelnen Teile als unabhangig ange-
nommen werden.
150
E(Y) = L J-L = 150 J-L = 15900 [Stunden],
n=l
150
D2 (Y) = L D2 (X) = 150· 100 [Stunden2],
n=l
Aufgabe 7.10
Xi sei das Ergebnis der i-ten Messung (i = 1,2,···) einer physikalischen
KenngroBe. Die Xi seien Zufallsvariablen mit der Standardabweichung
0-.
E
_ (1
(X) = E
n
;: ~ Xi
)
= E(X i ) = Jl
150 7 Mehrdimensionale Zufallsvariablen
__ u2
=> P(IX - ILl < f) 2 1 - -2 2 0,9
nf
Es muB gelten:
25 ~ 0, 1 => n 2 250
n
--
P ( IX - ILl < U)
5" = P
(U -- U)
- 5" < X - IL < 5"
= 4> (~)
u/vn
- 4> (-~)
u/v'n
Die Bedingung
ist aquivalent zu
~ 21,64
=> n 2 68.
Die Zusatzinformation "normalverteilter MeBfehler" reduziert also
die Anzahl der zur Gewahrleistung einer vorgegebenen Genauigkeit
mit vorgegebener Sicherheitswahrscheinlichkeit notigen Messungen
betrachtlich.
7.9 Ubungsau[gaben 151
Aufgabe 7.11
Gegeben sind zwei im Intervall [0, 1) gleichverteilte, unabhangige Zufalls-
zahlen U1 , U2 • Aus diesen ZufalIszahlen sollen zwei unabhangige N(O, a 2 )_
verteilte ZufalIszahlen X und Y erzeugt werden. Man gebe die Transfor-
mationsfunktionen X = gl(U1 ,U2) und Y = g2(U1 ,U2) an.
Tip: Man erzeuge zuerst Betrag IZI und Phase <P von Z aus Aufgabe
7.7.
fiir r 2: 0
sonst
Die Phase <P ist gleichverteilt im Intervall [0, 27r) und hat somit die Ver-
teilungsfunktion
0 fiir cp <0
F<t>(cp) = { f; fiir 0 :::; cp < 27r .
1 fiir cp 2: 27r
R und <P konnen mit Hilfe der gleichverteilten Zufallsvariablen U1 , U2
folgendermaBen dargestellt werden (Satz 7.6-2):
R = Fii1(U1) = J-2a 2 In(l-:- Ud
und
mit
X = Rcos<p Y = Rsin<P
ergibt sich
X = J -2a In(1 - Ud . cos(27rU2)
2
Bemerkungen:
(i) t wird im allgemeinen als Zeit interpretiert, d.h. t ist ein kontinu-
ierlicher Parameter.
(iv) Statt X(t,~) schreiben wir im folgenden X(t), bedenken dabei je-
doch immer, daB es sich um einen stochastischen ProzeB handelt.
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
8.1 Definition stochastischer Prozesse 153
8.2 Scharmittelwerte
Genauso wie Momente ffir ZufaIlsvariablen definiert werden (Definition
5.1-2) werden auch Momente stochastischer Prozesse erkHi.rt. Weil aIle
Realisierungen in den Mittelungsprozef3 einbezogen werden, handelt es
sich dabei urn Scharmittelwerte.
Definition 8.2-1
00
t.~(!;,·I)
I\. M (VI,. fV\" M /l .
v '" III
~
X(!;2'1)
_IlH
V
.
f
I
X(!;3.l l
1ItJ\,rvw-.
V V I
(8.2-2)
II
00 00
= XtlXt2f(Xtl,Xt2)dXtl dXt2
-00 -00
Definition 8.2-3
Ein stochastischer ProzejJ, dessen Erwartungswert (l. Moment)
konstant ist und fur dessen Autokorrelationsfunktion
(8.2-3)
BelDerkung:
Jeder stark stationare Proze6 ist auch schwach stationar. Die Umkeh-
rung dieser Aussage gilt nieht: Schwache Stationaritat bezieht sich nur
auf die ersten beiden Momente, wahrend sieh die starke Stationaritat
auf salDtliche Diehten eines stochastischen Prozesses bezieht. Statt von
schwacher Stationaritat sprechen wir im folgenden kurz von Statio-
naritat.
Mit der Autokorrelationsfunktion eng verwandt ist die Autokovarianz-
funktion:
Definition 8.2-4
Definition 8.2-5
Der stochastische Prozefl X (t) heiflt norlDal (oder Gaufipro-
ze6), wenn fur jedes N und beliebige Zeitpunkte tI, t2,'" , tN
der Zufallsvektor [X(td,X(t2)"" ,X(tN)jT eine N-dimensio-
nale Normalverteilung besitzt.
BelDerkung:
1st der normale Proze6 zusatzlich stationar, gilt ilN(t) = ilN 'V t und die
Elemente der Kovarianzmatrix 'E'N hangen nur von den Zeitdifferenzen
ti - tj abo Aus Gleiehung (7.3-7) und (7.3-9) folgt, daB ein Gau6pro-
zeB durch Vorgabe von Mittelwertvektoren i1N und Kovarianzmatrizen
'E'N vollstandig bestimmt ist. Daraus folgt, daB ein (schwach) stationarer
Gau6proze6 stark stationar ist. Da die umgekehrte Aussage grundsatz-
lich gilt, sind rur norlDale Prozesse starke und schwache Statio-
naritat aquivalent.
8.2 Scharmittelwerte 157
Sind X(t) und Y(t) zwei stationare Prozesse, stellen die Zufallsvariablen
X(t n }; n = 1,2, ... ,Nj und Y(t~)j m = 1,2, ... ,Mj fUr die Zeitpunkte
tl < t2 < ... < tN und t~ < t~ < ... < t~ Zufallsvariablen dar. Beide
Prozesse zusammen werden durch ihre gemeinsamen Dichten
Definition 8.2-6
(8.2-5)
!!
00 00
Definition 8.2-7
Die Prozesse X (t) und Y (t) heiflen stochastisch unabhiingig, wenn
158 8 Grundlagen stochastischer Prozesse
bestimmt.
Die Autokorrelationsfunktion eines komplexen Prozesses ist durch
Tn
(8.3-2)
1
2 E {Z*(td Z (t1 +
E·(Z).::.E(Z·)
1
2E{Z(t1 + T)Z*(td}
= ~E{Z(tDZ*(t~ - Tn
<PZZ(-T). (8.3-3)
Sind Z(t) = X(t) + jY(t) und W(t) U(t) + jV(t) zwei komplexe
stochastische Prozesse, erhalten wir fiir ihre Kreuzkorrelationsfunktion:
1
= 2{<pxu(t1, t2) + <pyv(t1, t2)
+ j[<pYU(tl, t2) - <PXV(tl, t2)]}
<pZW(T) = ~E{Z*(tdW(tl + Tn
1
= 2E{W(t1 + T)Z*(td}
= ~E{W(t~)Z*(t~ - Tn
= <PWZ(-T) (8.3-5)
160 8 Grundlagen stochastischer Prozesse
8.4 Zeitmittelwerte
Von den in Bild 8.2-1 skizzierten Moglichkeiten der Mittelwertbildung
fUr einen stochastischen ProzeB wurde in Abschnitt 8.2 der Scharmit-
telwert diskutiert. Vnd nur die Scharmittelwerte sind fur den ProzeB
reprasentativ.
Ein Zeitmittelwert sagt nur etwas uber die einzelne Realisierung aus,
er kann von Realisierung zu Realisierung variieren. Es gibt jedoch eine
Klasse stationarer Prozesse, fUr die Scharmittelwerte und Zeit mittel-
werte identisch sind:
Definition 8.4-1
Der stationare stochastische ProzejJ X(t) ist ergo disch, wenn
aile seine statistischen Eigenschaften aus einer einzigen Realisie-
rung x(t) abgeleitet werden konnen.
Bemerkung:
Die Ergodizitat laBt sich im allgemeinen nicht ohne weiteres nachprufen.
Man hilft sich hier mit der Ergodenhypothese, mit der die Ergodizitat
einfach postuliert wird, oder man begnugt sich mit eingeschrankten Aus-
sagen.
Definition 8.4-2
Es seien 9 : 1R -+ 1R eine reellwertige Funktion und x(t) ein Pfad
des stationaren stochastischen Prozesses X (t).
-
g[x(t)] = i~~ 2T 1/ T
g[x(t)] dt (8.4-1)
-T
m -
= x(t) = T-+oo 1/
lim -T
2
T
x(t) dt (8.4-2)
-T
den zeitlichen Mittelwert des Pfades, der fur ergodische Prozesse mit
dem Erwartungswert E{X(t)} ubereinstimmt.
8.4 ~eitrnittelvverte 161
Definition 8.4-3
Der stationiire stochastische Prozep X(t) heipt ergodisch
beziiglich g, wenn
gilt.
Bemerkungen:
Autokorrelationsfunktion:
T
<pXX(T) = lim ~
T ..... oo 2T
/ x(t)x(t + T) dt (8.4-6)
-T
162 8 Grundlagen stochastischer Prozesse
Autokovarianzfunktion:
T
cxx(r) = .
)~~ 1 / [x(t) - m)[x(t
2T + r) - m] dt (8.4-7)
-T
Kreuzkovarianzfunktion:
T
Definition 8.5-1
X (t) sei ein stationiirer stochastischer Prozeft mit der A utokorre-
lationsfunktion ip x x (r). Dann heiftt
f
00
f ~xx(f)ej27r!T
00
(ii) Es gilt
f ~xx(f)
00
1st X (t) ein reeller stochastischer ProzeB, ist ip x x (r) reell und gerade,
dann ist aber auch ~ x x (f) reell und gerade. Fur komplexe Prozesse gilt
ipzz(r) = ipzz(-r) (8.3-3) und damit
f
00
f
00
=f
00
ipzz(r)e j27r !T dr
-00
= ~zz(f)·
164 8 Grundlagen stochastischer Prozesse
Definition 8.5-2
<PXy(f) = !00
-00
<f!xy(r)e-j2rrfr dr (8.5-4)
<PXy(f) = !00
-00
<f!xy(r)ej2rrfr dr
= !00
-00
<f!yx(-r)ej2rrfr dr
= !00
-00
<f!yx(r)e-j2trfr dr
!
00
Jx~!(Xn)
00
JJ
00 00
= <fJxx(k - n)
<fJxx(n, k)
cxx(n, k) = cxx(k - n) = <fJxx(k - n) - [E{X(n)}]2 .
gegeben ist.
Das Leistungsdichtespektrum des zeitdiskreten stationaren Prozes-
ses X(n) erhalt man aus der Fouriertransformation von <fJxx(m). Da
166 8 Grundlagen stochastischer Prozesse
L
00
!
1-
2
8.7 Ubungsaufgaben
Aufgabe 8.1
Es sei X(t), t > 0 ein stochastischer Prozefi mit der Verteilungsfunktion
dF(x)
iX(t)(x) = ~
= 2. ~ . exp { - ( Tf} , x 2: 0
!
00
b)
L
00
x(t)
o o o
-3T -IT -T 0 IT 2T 3T 4T 5T
y(t)
,.----,
,,
I
I
,,
I
,, , ,,
I ,,, 0 , I 0 ,, I , I ,,, 0 ,,, I
,,
, ,
-3T -2T -T 0 IT 2T 3T 4T 5T
Bild 8.7-1: Mogliche Realisierungen von X{t) (oben) und Y{t) (unten)
8.7 Ubungsaufgaben 169
L L
00 00
und
mit m i= n
E{X(tdX(t2)} = E{X(td}· E{X(t2)}
=p.p=p2
sonst
Der Proze13 X (t) ist, obwohl sein 1. Moment konstant ist, nicht
stationar, da die Autokorrelationsfunktion nicht nur von der Zeit-
differenz T = t2 - tl abhangig ist.
170 8 Grundlagen stochastischer Prozesse
p2 . 1;1 + p. (1 _1;1)
Insgesamt gilt somit:
<PYY(T) = {
p2 1¥ + P (1 - 1¥) fur ITI < T
p2 sonst
Aufgabe 8.3
Gegeben sei ein stochastischer ProzeB
X(~, t) = A(~) . cos[27r fot + Y(O]
wobei fo eine reelle Konstante ist. Die Zufallsvariablen A und Y sei-
en stochastisch unabhangig. Y sei im Intervall [-7r,7r) gleichverteilt, A
besitze eine N(O, 2)-Verteilung. Man bestimme
des Prozesses.
2../
..-
+ 27r cos [27r fO(t1 + t2) + 2y] dy
-..-
,
'"
=0
Aufgabe 8.4
X(t) sei ein normaler, stationarer ProzeB mit E{X(t)} = O. Er besitze
die Au tokorrelationsfunktion
T>O.
b) E{X2(t)} = <pxx(O) = 1
c) Da X(t) ein normaler ProzeB ist, ist die gemeinsame Dichte von
X(td und X(t2) eine GauBdichte. Zu deren Bestimmung sind Mit-
telwerte m1, m2, Varianzen 0"1,0"2 und der Korrelationskoeffizient
p zu ermitteln.
Nach Voraussetzung ist der ProzeB mittelwertfrei:
O"i = E{X2(td} - mi
= <pxx(O) = 1
= E{X(tdX(t2)} = E{X(O)X(2T)}
= <pxx(2T) = e- 2.
Insgesamt folgt fUr die gemeinsame Dichte:
9 Spezielle stochastische
Prozesse
1m letzten Kapitel dieses Buches wollen wir uns mit speziellen stochasti-
schen Prozessen beschaftigen. Die fur die Anwendung uberaus wichtige
Klasse der normalen oder Gauf3prozesse haben wir bereits in Abschnitt
8.2 (Definition 8.2-5) kennengelernt. Wir werden uns hier zunachst einem
Spezialfall aus dieser Klasse zuwenden.
No
~xx(f) = 2" Vf (9.1-1)
Gemaf3 (8.5-2) hat das weif3e Gauf3sche Rauschen daher die Autokorre-
lationsfunktion (vergleiche auch Tabelle B-1)
!
00
tpxx(r) = ~o ej21r / df
T
-00
(9.1-2)
F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
9.1 WeiBes GauJ3sches Rauschen 175
(a)
o
(b) tiefpaBbegrenzt
...---+--,No
-f-B-
-8/2 o B/2
Bemerkungen:
(i) Die mittlere Leistung des weif3en Gauf3schen Rauschens ist nicht
endlich.
(iii) Aufgrund von (9.1-2) sind fur einen weif3en Gauf3schen Rausch-
prozef3 X(t} die Zufallsvariablen X(td und X(t2} unkorreliert und
damit, da es sich urn einen Gauf3prozef3 handelt, unabhangig, wenn
nur r = t2 - tl f 0 gilt.
No fur If I ~ ~ (9.1-3)
ipxx(f) = {
o sonst
_ N sin(7I"BT)
cpxx (T ) - 0 • (9.1-4)
7I"T
Bemerkungen:
(9.1-5)
x(l)
9.2 PoissonprozeB
In paketvermittelnden Ubertragungssystemen muB die Verarbeitung der
Pakete in Knoten diskutiert werden. Die Ankunft der Pakete folgt haufig
einem PoissonprozeB X (t). Wir betrachten ein kleines Zeitintervall der
Lange Ilt und stellen an diesen AnkunftsprozeB folgende Forderungen:
2. Es gilt
. . o(~t)
lEs gilt hm - - = O.
at->o ~t
178 9 Spezielle stochastische Prozesse
Mit X(O} = 0 gibt X(t} die Anzahl der im Intervall der Dauer t einge-
troffenen Pakete an.
Satz 9.2-1
Es gilt fur t 2: 0
Ahnlich wie im Beweis von Satz 6.4-1 ergibt sich Gleichung (9.2-1).
Mit den Uberlegungen aus Abschnitt 6.4 folgt
(9.2-3)
Folgerung:
Wegen (9.2-2) ist der PoissonprozeB nichtstationar.
Ebenfalls aus (9.2-2) ergibt sich fUr den Parameter
,X = E{X(t)}
t
D{X(t)} 1
E{X(t)} = v>:t'
Fur ,Xt » 1 (¢:} t » *}
ist die Verteilung also urn den Erwartungswert
'xt konzentriert. MiBt man daher im (groBen) Intervall der Lange t die
Anzahl ankommender Pakete n, ist T ein vernunftiger Schatzwert fur 'x.
Weiterhin gilt
P{X(t} = O} = e- At •
Mit wachsendem t geht daher die Wahrscheinlichkeit dafur, daB kein
Paket ankommt, mit t exponentiell gegen Null.
Wir betrachten nun (siehe Bild 9.2-1) ein groBes Zeitintervall und mar-
kieren die Ankunftszeiten der Pakete.
II I
Bild 9.2-1: Ankunftszeitpunkte der Datenpakete an einem Knoten bei
Poisson-Statistik
Satz 9.2-2
Fur einen Poissonschen Ankunjtsprozep X(t) besitzt die Zufalls-
variable T eine Exponentialverteilung, d. h. die Dichte von T ist
(vergleiche (6.7-1))
0 fur 7 <0
h(7) = { - ,'\ > O. (9.2-4)
'\e- AT fur 7 >0
Beweis:
Die Zufallsvariable T kann so interpretiert werden, daB sie den Ankunfts-
zeitpunkt fUr das erste Paket nach einem beliebigen Zeitnullpunkt be-
schreibt (Bild 9.2-2).
---------T---------
I
i
lbeliebiger) Ankunftszeitpunkt
Zeitnullpunkt des ersten Datenpakets
!
00
2 1
D {T} = A2 .
A
e
1
o A
Folgerung:
Unterliegen die Ankunftszeitpunkte der Pakete an einem Knoten einer
Poissonverteilung, ist die Zeitdifferenz T zwischen den Ankunftszeiten
zweier aufeinanderfolgender Pakete exponentialverteilt.
strome
M
P{N(t, t + ~t) = O} = II p{N(m)(t, t + ~t) = O}
m=l
M
= II [1 - Am~t + o(~t)l
m=l
= 1 - A~t + o(~t)
M
mit A = LAm. Ahnlich ergibt sich
m=l
Definition 9.3-1
X(t) heiflt Markoffscher ProzeB, wenn
Wir wollen uns hier auf die Betrachtung der fur die Praxis besonders
wichtigen Markoffketten, bei denen es sich urn stochastische Prozesse
mit diskreter ZustandsInenge Z = {1, 2, ... ,i, i + 1, ... } und diskre-
ter ZeitparaIneterInenge T = {to, tl, t2, ... ,tm , tm+l, ... } handelt,
konzentrieren. Fur die betrachteten Zeitpunkte, die nicht aquidistant
sein mussen, gelte
o :S to < tl < t2 < ... < tm < tm+1 < ....
Definition 9.3-2
Der zustands- und zeitdiskrete stochastische ProzejJ X(t) heijJt
Markoflkette, wenn
Definition 9.3-4
Die Markoffkette X(t) heiftt homogen, wenn fur beliebige Zu-
stiinde i, j und beliebige Zeitpunkte t m , tm+l die Ubergangswahr-
scheinlichkeiten Pi,j (t m , tm+l) = Pi,j nicht von der Zeit abhiingen.
Die Ubergangswahrscheinlichkeiten einer homogenen Markoftkette sind
zeitunabhangig. Die Ubergangsmatrix einer homogenen Markoftkette mit
endlicher Zustandsmenge ist dann
Mit anderen Worten: Die Zeilensumme von 'P' ist 1 fUr aIle Zeilen.
Definition 9.3-5
Eine (N x N)-Matrix 'P' = [Pij], fur deren Elemente
N
PtJ-- >
_ 0 Vi,j und LPij = 1 Vi
j=l
Zustand rum
CD CD
~j/
CD ®
Zeitpunkt t+ 1
oder in Vektorschreibweise
pr(t + 1) = pr(t)'P'. (9.3-4)
(9.3-5)
Satz 9.3-1
Sind A und B' stochastische M atrizen, ist auch 7J' = A . B' eine
stochastische Matrix.
Folgerung:
Da die Ubergangsmatrix'P' eine stochastische Matrix ist, sind auch ihre
Potenzen r stochastische Matrizen.
Wir wollen nun homogene Markoflketten mit bewerteten Graphen be-
schreiben:
Definition 9.3-6
o :s Pij :s 1,
Beispiele [Web92]:
°
r= [0,5 0,25 0,25]
P = 0,5 0,5 .
0,3 0,7
°
0,5
(ii) Auf den diskreten Punkten 1,2, ... ,5 der Zahlengeraden bewegt
sich ein Teilchen pro Zeiteinheit mit der Wahrscheinlichkeit p = 0,6
nach rechts und mit der Wahrscheinlichkeit 1 - p = 0,4 nach links.
Erreicht das Teilchen die Punkte 1 oder 5, ist die Irrfahrt beendet.
Bestimme P(3), wenn p(O) = (0,1,0,0, O)T ist, d.h. die Irrfahrt im
Zustand 2 beginnt.
Es gilt
1
° 0,6° ° °
0,4
° ° °
P'=
° 0,4
° 0,6
°
° ° 0,4
° 10,6
° ° ° °
188 9 Spezielle stochastische Prozesse
1 0 0 0 0
0,496 0 0,288 0 0,216
?= 0,16 0,192 0 0,288 0,36
0,064 0 0,192 0 0,744
0 0 0 0 1
P(Xg=il
2 3 4 5
P()(,=il
2 3 4 5
Definition 9.3-7
Ein Zustand i heiflt absorbierend, wenn Pii = 1 gilt. Die Men-
ge R der absorbierenden Zustiinde heiflt Rand. Z \ R ist die
Menge der inneren Zustande. Eine Markoffkette heiflt ab-
sorbierend, wenn R =J. 0 und R von jedem inneren Zustand aus
erreichbar ist.
Es gilt der
Satz 9.3-2
Fiir eine absorbierende Markoffkette endet die Irrfahrt in einem
Zustand des Randes R.
Beispiel [Web92]: Fur die homogene Markoftkette aus dem vorigen
Beispiel zeigt Bild 9.3-4 den Ubergangsgraphen. Es sind
Wir interessieren uns nun fUr die Wahrscheinlichkeit dafur, daB die Irr-
fahrt in einer Teilmenge U C R des Randes endet, sowie fUr die mittlere
Dauer der Irrfahrt bis zur Absorption im Rand R.
Dazu bezeichnen wir
mit mi: die mittlere Dauer der Irrfahrt yom Zustand ibis zur Absorp-
tion im Rand R.
190 9 Spezielle stochastische Prozesse
Die Giiltigkeit von (9.3-7) ist aus Bild 9.3-5 sofort ableitbar.
Beispiel [Web92]:
Ein Spieler besitzt 1 DM. Er nimmt an einem Glucksspiel, das ihn mit
der Wahrscheinlichkeit 0, 5 den doppelten Einsatz gewinnen laf3t, teil. Er
will das Spiel beenden, wenn er 5 DM besitzt, und setzt in jeder Runde
so viel, daB er seinem Ziel moglichst nahe kommt.
Losung:
Ps = 1jPo = °
PI = 0,5· P2
P2 = 0,5· P4
P3 = 0,5 . 1 + 0,5 . PI
P4 = 0,5 . 1 + 0,5 . P3
¢:}
P _
1 - ° °
0,5 . 0,375 _
1 - , 5. , 125 -
°
,
2
m5 = °
b) mi sei die mittlere Dauer des Spiels vom Zustand i aus. Mit ma =
ergibt sich mit (9.3-7):
mi = 1 + 0, 5 . m2
m2 = 1 + 0, 5 . m4
m3 = 1 + 0, 5 . mi
m4 = 1 + 0,5 . m3
L
<Xl
1
<PAA(kT) = 2E{A(nT)A*((n + k)T)}.
{A(nT)} ist die Folge von Symbolen, die iibertragen werden solI, und
~ ist die Symboliibertragungsrate. g(t) ist ein reeller deterministischer
Impuls.
9.4 Zyklostationare Prozesse 193
00
00
= mA 2: g(t - nT)
n=-oo
= f f
n=-oo m=-oo
~ E{A(mT)A*(nT)}
. g(t - mT)g(t +T - nT)
00 00
2: 2: <PAA«n - m)T)
n=-oo m=-oo
Es gel ten
Definition 9.4-1
Ein stochastischer Prozefl Z(t), dessen Erwartungswert und des-
sen A utokorrelationsfunktion periodisch mit derselben Periode T
sind, heiflt (schwach) zyklostationar.
Bemerkung:
Die Autokorrelationsfunktion zyklostationarer Prozesse <pzz(t + T, t)
hangt von t + T und tab!
194 9 Spezielle stochastische Prozesse
00
9.5 Ubungsaufgaben
Aufgabe 9.1
Da N(t) und M(t) weiBe GauBsche Rauschprozesse sind, sind sie mittel-
wertfrei (Kapitel 9.1).
b) E {X(t)} = 'E-{N(t)}
v - - ' cos(27rft) + ______
E {M(t)} sin(27rft)
=0 =0
=0
a) Fur das Auftreten hochstens einer Storung in den erst en acht Stun-
den ergibt sich mit A = 0,25 [h-1j:
P(Tn :s t) = P(X(t) ~ n)
9.5 Ubungsaufgaben 197
= L -.,-
00
.
(At)i
Z.
.exp (-At); n = 1,2, ...
l=n
Aufgabe 9.3
Gegeben ist der PoissonprozeB X(t) mit dem Parameter A, der die An-
zahl der Ereignisse im Intervall [0, t) beschreibt. Zu zeigen ist folgende
Behauptung:
Die Wahrscheinlichkeiten, daB im Intervall [0, s) genau i Ereignisse auf-
treten unter der Bedingung, daB im Intervall [0, t), t > s genau n Ereig-
nisse eintreten fur i = 1,2, ... ,n genugen einer Binomialverteilung mit
den Parametern p = t und n.
198 9 Spezielle stochastische Prozesse
P(X(s) = i, X(t) = n)
P(X(s) = iIX(t) = n) = P(X(t) = n)
P(X(s) = i, X(t) - X(s) = n - i)
P(X(t) = n)
P(X(s) = i)P(X(t) - X(s) =n - i)
= P(X(t) = n)
(As)'. -AS [A(t-sW-'. -A(t-s)
i! e (n-i)! e
= ~ ·e- At
n!
Aufgabe 9.4
Die Anzahl der Unfalle in einem Werk kann durch einen PoissonprozeB
mit>. = 3 pro Jahr modelliert werden.
Aufgabe 9.5
Folgendes Experiment soIl mit Hilfe einer homogenen Markoffkette un-
tersucht werden:
Es wird so lange mit einem idealen Wiirfel gewiirfelt, bis aIle Augenzah-
len mindestens einmal aufgetreten sind.
0 1 0 0 0 0 0
0 1/6 5/6 0 0 0 0
0 0 2/6 4/6 0 0 0
P'= 0 0 0 3/6 3/6 0 0
0 0 0 0 4/6 2/6 0
0 0 0 0 0 5/6 1/6
0 0 0 0 0 0 1
200 9 Spezielle stochastische Prozesse
6
mo =1+L POk . mk = 1 + POl . ml
k=O
ml = 1 + Pu . ml + P12 . m2
m2 = 1 + P22 • m2 + P23 • m3
m3 = 1 + P33 . m3 + P34 . m4
m4 = 1 + P44 . m4 + P45 • m5
m5 = 1 + P55 • m5 + P56 . m6
m6 = 0 da 6 E Rand
m5 = 1 + m5 ·5/6 =} m5 = 6
m4 = 1 + 4/6 . m4 + 2/6 . 6 =} m4 = 9
m3 = 1 + 3/6 . m3 + 3/6 . 9 =} m3 = 11
m2 = 1 + 2/6· m2 + 4/6·11 =} m2 = 50/4 = 12,5
ml = 1 + 1/6· ml + 5/6·50/4 =} ml = 137/10 = 13,7
=} mo = 1 + 1 . 13,7= 14,7
a)
0,4
° ° °
0,4 0,6
° ° °
0,4 0,6
° ° °
']5'= 0,4 0,6
° ° ° 0,4 0,6
°° ° ° 1
b) mo = 1 + 0,4 . ml + 0,6 . m2
ml = 1 + 0,4 . ml + 0,6 . m2
m2 = 1 + 0,4 . ml + 0,6 . m3
m3 = 1 + 0,4 . ml + 0,6 . m4
, da 4 E Rand
m2 = 1 + 0,4· ml + 0,6(1 + 0,4· md = 1,6 + 0,64· ml
ml = 1 + 0,4· ml + 0,6(1,6 + 0,64· md
= 1 + 0,4 ; ml + 0,96 + 0,384 . ml
0,216· ml = 1,96 ::} ml ~ 9,074
::} m2 ~ 7,407 ::} mo ~ 9,074
202 9 Spezielle stochastische Prozesse
c)
0 0,4 0,6 0 0
0 0 0,6 0 0,4
P'= 0 0,4 0 0,6 0
0 0 0 1 0
0 0 0 0 1
Mit (9.3-6):
P4 =0
P3 = 1
Po = 0,4 . Pl + 0,6 . P2
Pl = 0,6 . P2 + 0, 4 . P4 => Pl = 0, 6 . P2
P2 = 0, 4 . Pl + 0, 6 . P3
=> P2 = 0,4· Pl + 0,6 = 0,4· (0,6· P2 ) + 0,6
P. _ 0,6
=> 2 - 0,76
0,6 0,6
=> Po = 0,4 . 0,6 . 0, 76 + 0,6 . 0, 76 ~ 0,6632
9.5 Ubungsaufgaben 203
mo = 1 + 0,6 . m2 + 0,4 . ml
ml = 1 + 0,6 . m2 + 0,4 . m4
m2 = 1 + 0,4 . ml + 0,6 . m3
m3 = °
m4 = °
=} ml = 1 + 0,6· (1 + 0,4· md = 1,6 + 0,24· ml
1,6
=} ml = - -
0,76
m2 = 1 + 0,4· °1,6
, 76 = °, 76
1,4
mo = 1 + 0,6· °, 76 + 0,4· °, 76
1,4 1,6
~ 2,947
Aufgabe 9.7
Gegeben sei der ProzeB
Y(t) = X(t) cos(21lJot)
wobei X(t) stationar sei.
b) Mit (9.4-2) gilt fUr die tiber eine Periode gemittelte Autokorrelati-
onsfunktion:
J
T
"2
~yy(T) = ~ cpyy(t,t+T)dt
_1:
2
J
1:
2
= ~ <pxx(t,t+T)·cos(27rfot)·cos(27rfo(t+T))dt
T
-"2
Additionstheorem
J
T
"2
-"2
cos(2w fo(2' + T)) d']
9.5 Ubungsaufgaben 205
Mit
!
r2
!
T+T
cos(27rfo(2t+T))dt ~ cos(27r fot') dt' = 0
T
-"2 -T+T
ergibt sich:
1
4?yy(T) = 2<PXX(T)cos(27rfoT).
!
00
=~ !
-00
00
In (K)1
N
= N!
K!'
Beispiel: 16 Sitzplatze werden mit je einer Tasche belegt. 4 der 16
Taschen sind gleich. Wie viele unterscheidbare Permutationen gibt es?
Antwort: Ini!) I= 14~!
I
Die Anzahl In}:1,K2, ... ,KM) der Permutationen von N Elementen, die
sich in M Gruppen mit jeweils K 1 , K 2 , ••• ,KM gleichen Elementen
CL;;;=l Km = N) einteilen lassen, ist
In}:1,K2, ... ,KM)1 = K 1 !·
N!
K 2 !··· KM!
.
I
n(2,3)
5
I= ~
2!3!
= 10
Eine Variation V}{) ist eine Auswahl von K aus N Elementen unter
Beachtung der Reihenfolge.
I
Die Anzahl IV}{) der Moglichkeiten, aus N verschiedenen Elementen
K unter Beachtung der Reihenfolge auszuwahlen, ist
208 A Begriffe aus der Kombinatorik
ohne Wiedemolung N!
(~) K!( ~)
N!
mit Wiedemolung K! ( N\K-l ) NK
Definition B-1
Filr die integrierbare Funktion x(t) ist durch
X(J) = !00
-00
x(t)e- i2 11"/t dt (B-1)
(i) Der Zusammenhang zwischen x(t) und X(J) wird kurz durch
x(t) 0--. X(J) beschrieben.
x(t) = !00
-00
X (J)e i 21l"/t df (B-2)
210 B Die FouriertransEormation
gegeben.
Es gelten folgende Rechenregeln der Fouriertransformation
1. Linearitat
Flir beliebige Konstanten en und Signale xn(t}, 0 ::; n ::; N, gilt
x*(t} ~ X*(-f)
3. Symmetrieeigenschaften
x(-t} ~ X(-f)
Re {x(t)} gerade {:} Re {X (f}} gerade
Re {x(t)} ungerade {:} 1m {X(f)} ungerade
1m {x(t)} gerade {:} 1m {X(f)} gerade
1m {x(t)} ungerade {:} Re{X(f)} ungerade
4. MaBstabsanderung, Skalierung
Flir aile a E R, a "# 0, gilt
6. Modulation
Flir aile 10 E R gilt
J
t
x(r) dr o---e
-00
10. Faltungssatze
Flir quadratintegrable Signale Xi(t)j i = 1,2j gilt
J
00
Xl(t)*X2(t) = xdr)x2(t-r)dr.
-00
GemaB (B-3) wird aus der Faltung zweier Signale im Zeit bereich im
Frequenzbereich das Produkt der zugehorigen Fouriertransformier-
ten. Wir betrachten ein Zeit signal s(t) mit Fouriertransformierter
S(f) und eine Fouriertransformierte
I fur If I ~ ~ (B-4)
H(f) = { .
o flir If I > ~
Die Funktion H(f) charakterisiert einen (idealen) TiefpaB, d.h. ein
System, das aIle Frequenzen If I ~ ~ unbeeinfluBt laBt und aIle Fre-
quenzen If I > ~ vollstandig unterdruckt. Dies wird z.E. durch die
212 B Die Fouriertransformation
Gtiltigkeit von
I
00
-etlh, ~, A,
-B/2 B/2 -B/2 B/2 -B/2 B/2
Die Funktion
GU) ~{ ~ 10 - ~ ~ III ~ 10 + ~
sonst
mit B « 10 charakterisiert einen (idealen) BandpaB. Dieses System
lli.f3t aIle Frequenzen, die von 10 hochstens einen Abstand von 1f be-
sitzen, unbeeinfiuBt und unterdriickt alle anderen Frequenzen.
B Die Fouriertransformation 213
1 0-----. °
1
(f)
1
cos (211" fot) 0-----. 2 0(f + fo) + 2 0(f - fo)
I f . If I < F
Fsi(1I"Ft) 0-----. X(f) = { ur "2
o fUr If I > f
x(t) = {
I fur It I < f 0-----. Tsi(1I" fT)
o fur It I > f
1 1
2o(t + to) + 2o(t - to) 0-----. cos(211" fto)
°( t) 0-----. 1
sin(27r fot) 0-----. ~o(f + fo) - ~o(f - fo)
1 fur t > 0 1 1
x(t) ={ o fur t < 0
0-----. -o(f)
2
+ -.-
J211" f
-altl 0 0-----. 2a
e ,a> a2 +(27rf)2
t-/\
d,X 0-----. (-jsignf)X(f)
°(i - ;)
-00
1
L L
00 00
!
RN
8(X') dX' = l. (C-1)
!
RN
8(X') <p(X') dX' = <p(O) (C-2)
ihren Wert irn Ursprung zuordnet. Darfiber hinaus ergeben sich die Iden-
titaten
!
RN
8(X' - X'o)<p(X') dX' = !
RN
8(X')<p(X' + X'o) dX'
(C-3)
1 -
= ~<p(o), a~ o. (C-4)
C Die is-Distribution 215
Bemerkungen:
(i) Uber die Forderungen, die die Funktion <p(i) in (C-2) erftillen muB,
gibt die Distributionentheorie Auskunft [Wa174]. 1m vorliegenden
Buch wird stets davon ausgegangen, daB die verwendeten Funktio-
nen <p(i) so beschaffen sind, daB (C-2) gilt.
(ii) Es wird empfohlen, als Ubung die Gleichungen (C-I) bis (C-4) fUr
den Fall N = 1 aufzuschreiben und zu interpretieren!
Die 8-Distribution laBt sich fUr N = 1 z.B. durch eine Folge von Recht-
eckpulsen
lim
a--+O
~a I
00
-00
reet (:.) <p(x) dx
a
. I!
hm -
a--+O a
~
<p(x) dx
-"-
2
(C-2)
<p(O) = !00
8(x )<p(X) dx
-00
216 C Die IS-Distribution
A
a1 reet(x)a
1
a=-
24
1
a=-
12
1
a=-
2
a=l
-----;------;-----~U-----+---~_+------+x
1 -
2 2