Sie sind auf Seite 1von 233

F. Jondral / A.

Wiesler
Grundlagen der Wahrscheinlichkeitsrechnung
und stochastischer Prozesse fUr Ingenieure
Grundlagen der Wahrscheinlich-
keitsrechnung und stochastischer
Prozesse fur Ingenieure

Von Professor Dr. rer. nat. Friedrich Jondral


und Dipl.-Math. techno Anne Wiesler
Universitat Karlsruhe (TH)

Mit 48 Bildern

m B. G. Teubner Stuttgart· Leipzig 2000


o. Prof. Dr. rer. nat. Friedrich Jondral
1970-1975 Studium der Mathematik mit dem Nebenfach Physik.
1975-1979 wissenschaftlicher Assistent am Institut fOr Angewand-
te Mathematik der Technischen Universitat Braunschweig, 1979
Promotion. 1979-1992 Industrietatigkeit bei der (heutigen)
DaimlerChrysler Aerospace AG (TELEFUNKEN) in Ulm, 1984 Habi-
litation, 1991 Verleihung der Bezeichnung auBerplanmaBiger Pro-
fessor fOr Angewandte Mathematik an der Universitat Ulm. Seit
1993 Ordinarius fOr Nachrichtensysteme und Leiter des Instituts fOr
Nachrichtentechnik an der Universitat Karlsruhe.

Dipl.-Math. techno Anne Wiesler


1989-1996 Studium der Technomathematik mit dem Nebenfach
Elektrotechnik. Seit 1996 wissenschaftliche Mitarbeiterin am Institut
fOr Nachrichtentechnik der Universitat Karlsruhe.

Die Deutsche Bibliothek - CIP-Einheitsaufnahme

Ein Titeldatensatz fUr diese Publikation ist bei


Der Deutschen Bibliothek erhaltlich

ISBN 978-3-519-06263-9 ISBN 978-3-322-94038-4 (eBook)


DOI 10.1007/978-3-322-94038-4

Das Werk einschlieBlich aller seiner Teile ist urheberrechtlich geschOtzt. Jede
Ven.vertung auBerhalb derengen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulassig und strafbar. Das gilt besonders fUr
Vervielfaltigungen, Obersetzungen, Mikroverfilmungen und die Einspeiche-
rung und Verarbeitung in elektronischen Systemen.
© 2000 B. G. Teubner Stuttgart· Leipzig

Gesamtherstellung: Prazis-Druck GmbH, Karlsruhe


Vorwort

Kenntnisse aus dem Bereich der Stochastik sind fUr die Arbeit eines
Ingenieurs, insbesondere in der Kommunikationstechnik, heute unbe-
dingt erforderlich. 1m Studiengang Elektrotechnik werden die Studie-
renden an der Universitat Karlsruhe im dritten Semester durch die Vor-
lesung Wahrscheinlichkeitstheorie an dieses Wissensgebiet herangefUhrt.
Das vorliegende Buch gibt den seit dem Wintersemester 1997/98 vorge-
tragenen Inhalt dieser Vorlesung (einschliefllich der zugehorigen Ubung)
wieder. Der Umfang betragt zwei Semesterwochenstunden Vorlesung und
eine Semesterwochenstunde Ubung.
Nach einer kurzen Einleitung werden der Wahrscheinlichkeitsraum und
die bedingten Wahrscheinlichkeiten, sowie der Begriff der Zufallsvaria-
bIen eingefiihrt. An die Behandlung der Kennwerte von Zufallsvaria-
bIen schlieflt sich die Diskussion der wichtigsten speziellen Wahrschein-
lichkeitsverteilungen an. 1m Kapitel iiber mehrdimensionale Zufallsva-
riablen werden insbesondere der Korrelationskoeffizient und die Funk-
tionen mehrdimensionaler Zufallsvariablen ausfiihrlich besprochen. Die
Kapitel iiber die Grundlagen stochastischer Prozesse und iiber speziel-
Ie stochastische Prozesse run den den Inhalt der Vorlesung abo Fiir eine
zweistiindige Vorlesung mit einstiindiger Ubung wird also ein verhalt-
nismaflig grofles Wissensgebiet abgedeckt. Das verlangt von den Studie-
renden einen hohen Einsatz bei der person lichen Erarbeitung des Stof-
fes. Ais Beispiele und Ubungsaufgaben wurden haufig Probleme aus der
Nachrichtentechnik ausgewahlt. Auf die Behandlung von Fragestellun-
gen aus der Statistik (Schatz- und Testtheorie) kann an dieser Stelle
verzichtet werden. Diese Themen werden in weiterfUhrenden Vorlesun-
gen nach dem Vordiplom aufgegriffen (z.B. Nachrichteniibertragung oder
Statistische Nachrichtentheorie).
VI Vorwort

Die Herren Ralf Muche und Matthias Gauckler haben das handschrift-
liche Manuskript in eine fUr den Druck geeignete Form gebracht. Die
druckfertigen Bilder wurden von Frau Angelika Olbrich gestaltet. Ihnen
danken wir, genauso wie Herrn Dr.-Ing. Gunnar Wetzker, der an vielen
in halt lichen Diskussionen beteiligt war, fur ihre Hilfe.
AbschlieBend bleibt noch der Wunsch, daB das Buch nicht nur von den
Studierenden in der Vorlesung Wahrscheinlichkeitstheorie, sondern auch
von anderen Studierenden und in der Praxis tatigen Ingenieuren ange-
nom men wird. AIle Leser sind aufgerufen, ihre konstruktive Kritik zu
auBern (int@etec.uni-karlsruhe.de) und damit zur kontinuierlichen Ver-
besserung der Inhalte und ihrer Darstellung beizutragen.
Karlsruhe im September 1999,
Friedrich Jondral, Anne Wiesler
Inhaltsverzeichnis

1 Einleitung 1

2 Der Wahrscheinlichkeitsraum 5
2.1 Ereignisse....................... 5
2.2 Die Definition der Wahrscheinlichkeit von Laplace 9
2.3 Die Definition der Wahrscheinlichkeit von Kolmogoroff . 12
2.4 Ubungsaufgaben . . . . . . . . . . . . . . . . . . . . .. 17

3 Bedingte Wahrscheinlichkeiten 26
3.1 Definition und Eigenschaften 27
3.2 Unabhangige Ereignisse 31
3.3 Ubungsaufgaben 32

4 Zufallsvariablen 37
4.1 Verteilungsfunktion und Dichte 38
4.2 Funktionen von Zufallsvariablen . 44
4.3 Ubungsaufgaben . . . . . . . . 47

5 Kennwerte von Zufallsvariablen 54


5.1 Momente einer Zufallsvariablen 54
5.2 Charakteristische Funktion .. 60
VIII Inhaltsverzeichnis

5.3 Ubungsaufgaben · . . . . . . . . . . . . . . . . . . . . . . 63

6 Spezielle Wahrscheinlichkeitsverteilungen 76
6.1 Die Zweipunktverteilung . 76
6.2 Die Binomialverteilung. . 77
6.3 Die Polynomialverteilung 80
6.4 Die Poissonverteilung. . . 81
6.5 Die Hypergeometrische Verteilung 84
6.6 Die (stetige) Gleichverteilung 87
6.7 Die Exponentialverteilung 89
6.8 Die Normalverteilung. 90
6.9 Die Weibullverteilung 95
6.10 Ubungsaufgaben · .. 97

7 Mehrdhnensionale Zufallsvariablen 104


7.1 Verteilungsfunktion und Dichte .. 104
7.2 Randdichten und bedingte Dichten 108
7.3 Unabhangigkeit von Zufallsvariablen 111
7.4 Funktionen zweidimensionaler Zufallsvariablen 114
7.5 Komplexwertige Zufallsvariablen 118
7.6 Transformation von Zufallszahlen . 119
7.7 Aus normalverteilten abgeleitete Zufallsvariablen 122
7.8 Gesetze der groBen Zahlen und Grenzwertsatze 124
7.9 Ubungsaufgaben · .......... . . . . . . 133

8 Grundlagen stochastischer Prozesse 152


8.1 Definition stochastischer Prozesse . 152
8.2 Scharmittelwerte · ......... 154
8.3 Komplexwertige stochastische Prozesse . 158
8.4 Zeitmittelwerte . . . . . . . . . . . . . . 160
Inhaltsverzeichnis IX

8.5 Das Leistungsdichtespektrum 162


8.6 Zeitdiskrete Zufallsprozesse 165
8.7 Ubungsaufgaben ...... 166

9 Spezielle stochastische Prozesse 174


9.1 WeiBes GauBsches Rauschen . 174
9.2 PoissonprozeB . . . . . . . . . 177
9.3 Markoffprozesse und Markoffketten 182
9.4 Zyklostationare Prozesse . 192
9.5 Ubungsaufgaben ..... 194

A Begriffe aus der Kombinatorik 206

B Die Fouriertransformation 209

C Die 6-Distribution 214

D Tabelle der Standardnormalverteilung 217

Literaturverzeichnis 220

Index 222
1 Einleitung

Die Wahrscheinlichkeitstheorie beschaftigt sich mit der Berechnung


der Auftretenswahrscheinlichkeit P (Probability) zufcilliger Ereignis-
se, z.B.

P {beim Wiirfeln fallt eine "sechs"},


P {ein neugeborenes Madchen erreicht als Erwachsene eine
GroBe von mindestens 1,80m}.
Die Wahrscheinlichkeitstheorie ist keine Naturwissenschaft, d.h. sie be-
schaftigt sich nicht mit physikalischen, chemischen, ingenieurwissen-
schaftlichen oder ahnlichen Fragestellungen. Sie dient vielmehr deren
Modellierung. Damit ist bereits gesagt, daB am Anfang einer wahr-
scheinlichkeitstheoretischen Untersuchung die Schaffung eines Modells
steht. Dazu gehoren naturgemaB Annaherungen an die Wirklichkeit, de-
ren Giiltigkeit von Fall zu Fall nachgepriift werden muB.
Wahrscheinlichkeitstheoretische oder, wie man auch sagt, stochastische
Modelle sind gewohnungsbediirftig. Das liegt u.a. daran, daB nicht exakt
definiert werden kann, was Zufall ist. Dariiber hinaus wird die Wahr-
scheinlichkeitsheorie nur dann in sich konsistent, wenn sie axiomatisch
begriindet wird [KoI33J. Stellt man sich jedoch auf den Standpunkt, daB
es sich bei der Berechnung von Wahrscheinlichkeiten, Erwartungswerten
oder Korrelationskoeffizienten urn die Bestimmung von Flachen, Mo-
menten oder Winkeln handelt, wird der Zusammenhang mit bekannten
Tatsachen aus der Geometrie deutlich. Daher kann fiir einen Horer ei-
ner Vorlesung iiber Wahrscheinlichkeitstheorie nur gelten: Machen Sie
sich soweit moglich ein Bild iiber aIle Begriffsbildungen und Zusam-
menhange, die Ihnen prasentiert werden. Eine Theorie ist immer ab-
strakt, ihre Anwendung wird im allgemeinen ausgesprochen konkret.
Das vorliegende Buch solI dem Ingenieur in hinreichender Breite die
Grundlagen vermitteln, die fUr das weitere Studium stochastischer Phano-
mene und fUr die Praxis notwendig sind. Dazu reicht die Beschaftigung
mit dem Stoff auf rein anschaulicher Basis, die im iibrigen heute oft be-

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
2 1 Einleitung

reits an den Gymnasien erfolgt, nicht mehr aus. Der Leser solI hier viel-
mehr mit der Begriffswelt der Wahrscheinlichkeitstheorie vertraut
gemacht werden.
Ganz wesentlich fur das mit diesem Buch verfolgte Anliegen erscheint das
Kapitel 2, in dem ausgehend vom Begriff des Ereignisses zunachst einmal
die Laplacesche Definition der Wahrscheinlichkeit behandelt wird, urn
den Zusammenhang zwischen Wahrscheinlichkeit und relativer Haufig-
keit zu verdeutlichen. Danach wird herausgearbeitet, daB die Behandlung
endlicher Wahrscheinlichkeitsraume nicht ausreicht und daB auch die
unmittelbare Anschaulichkeit fUr eine allgemeine Definition des Wahr-
scheinlichkeitsbegriffs ihre Grenzen hat, wenn Wahrscheinlichkeitsraume
mit uberabzahlbar unendlich vielen Elementarereignissen ins Spiel kom-
men. Diese Uberlegungen fUhren direkt auf die Kolmogoroffschen Axio-
me und die daraus resultierende allgemein giiltige Definition der Wahr-
scheinlichkeit, ohne die z.B. eine EinfUhrung normalverteilter Zufallsva-
riablen eigentlich gar nicht moglich ist.
Bevor auf dem eingeschlagenen formalen Weg fortgeschritten wird, wer-
den im Kapitel 3 die bedingten Wahrscheinlichkeiten und die eng damit
zusammenhangende Unabhangigkeit von Ereignissen behandelt.
Kapitel 4 bringt die Definition der Zufallsvariablen und eine Diskussion
der unmittelbar daraus folgenden Begriffe Verteilungsfunktion und Dich-
teo Durch Heranziehen der 8-Distribution wird es moglich, diskrete und
stetige Zufallsvariablen gleich zu behandeln. AnschlieBend werden Funk-
tionen von Zufallsvariablen betrachtet, mit deren Hilfe es z.B. moglich
ist, die Verteilungsfunktion des Betrags einer Zufallsvariablen zu ermit-
teln.
Das Kapitel 5 beschaftigt sich mit den Kennwerten von Zufallsvariablen.
Zunachst wird allgemein der Begriff des k-ten Moments, aus dem dann
die wichtigen Definitionen des Erwartungswerts und der Varianz abgelei-
tet werden, eingefuhrt. Danach wird die charakteristische Funktion einer
Zufallsvariablen angegeben, die mathematisch gesehen eher beweistech-
nisch wichtig ist. Fur den Ingenieur ist jedoch der Zusammenhang zwi-
schen Dichte und charakteristischer Funktion wesentlich: Es handelt sich
dabei urn die in ihrer Bedeutung fur die Praxis nicht zu unterschatzende
Fouriertransformation.
Nachdem die dafur notwendigen Begriffe eingefUhrt und diskutiert wur-
den, konnen im Kapitel 6 spezielle Wahrscheinlichkeitsverteilungen mit
1 Einleitung 3

ihren Parametern betrachtet werden. Die hier getroffene Auswahl ist


nattirlich willktirlich, beinhaltet jedoch samtliche ftir die nachfolgenden
Betrachtungen notwendigen Verteilungen.
Das fUr praktische Anwendungen wichtige Kapitel 7 behandelt mehr-
dimension ale ZufaIlsvariablen, wobei besonderer Wert auf die Betrach-
tung zweidimensionaler ZufaIlsvariablen gelegt wird. Nach der Definiti-
on mehrdimensionaler Verteilungsfunktionen und Dichten werden Rand-
dichten und bedingte Dichten behandelt, mit deren Hilfe dann die Un-
abhangigkeit von ZufaIlsvariablen erklart werden kann. AnschlieBend
werden Funktionen mehrdimensionaler ZufaIlsvariablen eingefUhrt. Erst
damit konnen die Verteilungsfunktionen bzw. die Dichten von Summen
von ZufaIlsvariablen, so wie sie z.B. ftir den zentralen Grenzwertsatz eine
Rolle spielen, berechnet werden. Nach der Untersuchung der insbeson-
dere ftir die Elektrotechnik wichtigen komplexwertigen ZufaIlsvariablen
folgt ein Abschnitt tiber die Transformation von ZufaIlszahlen, die z.B.
in Simulationsuntersuchungen am Rechner benotigt werden. Die tiberra-
gende Bedeutung der normalverteilten ZufaIlsvariablen unterstreicht ein
Abschnitt tiber die aus ihnen abgeleiteten Zufallsvariablen. AnschlieBend
werden die Gesetze der groBen Zahlen und der zentrale Grenzwertsatz,
der in vielen Anwendungen die Annahme einer Normalverteilung recht-
fertigt, diskutiert.
Kapitel 8 ftihrt in die Grundlagen stochastischer Prozesse ein. Zunachst
wird eine Definition des stochastischen Prozesses gegeben und danach
werden Scharmittelwerte behandelt. Nach der Einftihrung von Mittelwert-
und Autokorrelationsfunktion konnen starke und schwache Stationaritat
erklart werden. Dem Vergleich zweier Prozesse dient die Kreuzkorrelati-
onsfunktion. Da in den Geraten der modernen Mef3- und Ubertragungs-
technik aIle (zufalligen) Signale im komplexen Basisband verarbeitet
werden, benotigt man komplexwertige stochastische Prozesse und de-
ren KenngroBen. Ftir stationare stochastische Prozesse lassen sich unter
der Ergodenhypothese aIle statistisch relevanten GroBen, also insbeson-
dere Mittelwert und Autokorrelationsfunktion, aus einer einzigen Rea-
lisierung des Prozesses gewinnen. Diesen Zusammenhang behandelt der
Abschnitt tiber Zeitmittelwerte. Ftir Anwendungen in der Elektrotechnik
ist das Leistungsdichtespektrum stationarer stochastischer Prozesse, das
mittels Fouriertransformation aus deren Autokorrelationsfunktion be-
rechnet wird, interessant. SchlieBlich werden zeitdiskrete Zufallsprozesse,
die nattirlich ftir die digitale Signalverarbeitung wichtig sind, diskutiert.
4 1 Einleitung

Das Kapitel9 ist speziellen stochastischen Prozessen gewidmet. Zunachst


werden das weiBe GauBsche Rauschen und seine bandbegrenzte Variante
behandelt. Daran schlieBen ein Abschnitt tiber den PoissonprozeB und
ein weiterer tiber Markoffprozesse und Markofiketten an. Den AbschluB
bildet eine Betrachtung zyklostationarer Prozesse, die z.B. fUr die Be-
handlung von Modulationsverfahren eingesetzt werden.
Jedes der Kapitel 2 bis 9 wird mit einem Abschnitt beendet, der Ubungs-
aufgaben und die zugehorigen, ausfUhrlichen Losungen enthalt, so daB
ftir den interessierten Leser die Kontrolle des Lernfortschritts moglich
ist. Die Anhange A bis C enthalten Informationen tiber Begriffe aus der
Kombinatorik, tiber die Fouriertransformation und tiber die a-Distributi-
on, in Anhang D ist eine Tabelle der Standardnormalverteilung wieder-
gegeben.
Insgesamt gesehen wird der Leser durch das Studium des Buchs in die
Lage versetzt, die Anwendungen stochastischer Methoden (z.B. in der
MeBtechnik oder in der Nachriehtentechnik) zu beherrschen und auch
weiterfUhrende Literatur (z.B. [Han97] oder [Boh98]) zu studieren.
Zu den in der Literaturliste aufgefUhrten Btichern ist folgendes zu be-
merken: Nattirlich haben wir dort Anleihen genommen, diese jedoch im
Text kenntlich gemacht. [Fis70] und [Ren71] sind die klassischen in deut-
scher Sprache erschienenen Bticher zur Wahrscheinlichkeitstheorie, wo-
bei das erste auch fUr Anwender ein hervorragendes Nachschlagewerk
ist. [Ren71] fuBt stark auf der Kolmogoroffschen Axiomatik und enthalt
im Anhang eine gelungene EinfUhrung in die Informationstheorie. Auch
die Bticher [Bos95] und [Hen97] sind mathematisch gepragt. Sie haben
einfUhrenden Charakter und sind daher besonders ftir Leser geeignet,
die einen Einstieg in die Wahrscheinlichkeitstheorie suchen. Bei [Bei95],
[Bei97], [Bey95] und [Web92] handelt es sieh urn anwendungsorientierte
Werke, die sieher manchmal anschaulicher sind als das vorliegende Buch,
andererseits jedoch die hier gepHegte begrifHiehe Strenge nieht besitzen.
Das Buch, dessen Studium man eigentlich jedem Ingenieur sowohl aus
didaktischer als auch aus fachlicher Sieht nur empfehlen kann ist [Pr095].
Die hier nieht weiter diskutierten im Literaturverzeiehnis aufgefUhrten
Bticher hat ten auf die Erstellung des vorliegenden Textes einen weniger
starken EinHuB.
2 Der
"Wahrscheinlichkeitsraum

Die Definition des Begriffs Wahrscheinlichkeit muB die Beschreibung von


Zufallsexperimenten, die endlich viele, abzahlbar unendlich viele oder
auch tiberabzahlbar unendlich viele verschiedene Ergebnisse zulassen,
umfassen. Unter einem Zufallsexperiment verstehen wir einen Ver-
such, des sen Ausgang im Bereich gewisser Moglichkeiten ungewiB ist
und der unter Beibehaltung eines fest en Komplexes von Randbedingun-
gen beliebig oft wiederholbar ist.

2.1 Ereignisse
Definition 2.1-1
Ein endlicher Ergebnisraum ist eine nichtleere Menge n =
{6, 6,··· '~N}. Die Elemente ~n E n heiften Ergebnisse. Jede
Teilmenge A c n wird als Ereignis, jede einelementige Teilmenge
{~n} C n wird als Elementarereignis bezeichnet. Der Ergebnis-
mum n und die leere Menge 0 sind stets Ereignisse, n heiftt das
sichere, 0 das unmogliche Ereignis.
Beispiele:

(i) Das Werfen einer Mtinze ist ein Zufallsexperiment, des sen Ergeb-
nisraum n = {Kopf, Zahl} ist. Die Ergebnisse sind "Kopf' und
"Zahl". Ereignisse sind die leere Menge 0, {Kopf} , {Zahl} und n,
wobei {Kopf} und {Zahl} Elementarereignisse sind.
(ii) Ein weiteres Zufallsexperiment ist das Werfen eines Wtirfels, das
Ergebnis eines Wurfs ist ein Elementarereignis. Ein Ereignis ist
auch
A={ die gewtirfelte Augenzahl ist gerade}
= { "zwel." , "VIer
. " , "sechs "} .

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
6 2 Der Wahrscheinlichkeitsraum

Aus einem endlichen Ergebnisraum n lassen sich


1 unmogliches Ereignis (die leere Menge 0),
(~) einelementige Ereignisse,

(~) zweielementige Ereignisse,

(N - l)-elementige Ereignisse und


N -elementiges Ereignis (der gesamte Ergeb-
nisraum n)

konstruieren.
Die Menge aller Ereignisse ist hier also die Potenzmenge ~(n) des Er-
gebnisraums n. Die Anzahl der Ereignisse ist dann

Gilt A c B, ist A ein Teilereignis von B. Die Ereignisse A und B sind


gleich (A = B), wenn A c B und B c A gilt.
Mit A und B sind auch

• der Durchschnitt von A und B


AnB = AB = {~;~ E At\~ E B},

• die Vereinigung von A und B


Au B = {~;~ E A V ~ E B},

• die Differenz von A und B


A-B={~;~EA,~~B}

Ereignisse.
Mit A ist auch

• das entgegengesetzte Ereignis


A={~;~~A}
2.1 Ereignisse 7

ein Ereignis. Dieses wird auch als Negation oder als Komplement von
A bezeichnet.
Die Differenz von A und B kann nun auch als
A-B = AB
geschrieben werden.
Eine Veranschaulichung der gerade eingefUhrten Begriffe zeigt Bild 2.1-1.

(a) Durchschnitt (b) Vereinigung

(c) Differenz (d) Komplement

Bild 2.1-1: Relationen zwischen Ereignissen

Ais einfache Ubung kann man sich leicht davon uberzeugen, daB fUr
Ereignisse A, B, C, . .. die Relationen
AUA = Aj Au 0 = OJ AU 0 = Aj Au B =B u A
(Kommutativitat von U)j
Au (B U C) = (A U B) U C = Au B U C
(Assoziativitat von U)j

AnA = Aj An 0 = Aj An 0 = 0j An B =B n A
(Kommutativitat von n)j
An (B n C) = (A n B) n C = An B n C
(Assoziativitat von n)j
8 2 Der Wahrscheinlichkeitsraum

sowie die Distributivgesetze

An (B U C) = (A n B) u (A n C);
Au (B n C) = (A U B) n (A U C)

gelten.
Definition 2.1-2

Sind A und B Ereignisse und gilt AB = 0, so heijJen A und B


disjunkt oder unvereinbar.
Bild 2.1-2 skizziert die Begriffe disjunkte Ereignisse, zerlegbares Ereignis
und Teilereignis.

la) disjunkte Ereignisse Ib) zerlegbares Ereignis

Ie) Teilereignis

Bild 2.1-2: Weitere Relationen zwischen Ereignissen

Fur zwei Ereignisse A und B gelten die de MORGANschen Formeln:

AUB = AnB (2.1-1)


AnB=AUB (2.1-2)
2.2 Die Definition der Wahrscheinlichkeit von Laplace 9

Die de MORGANschen Formeln lassen sich auf Durchschnitte bzw. Ver-


einigungen belie big vieler Ereignisse verallgemeinern:

U At = nAt (2.1-3)
tET tET

nAt = U At (2.1-4)
tET tET

2.2 Die Definition der Wahrscheinlichkeit


von Laplace
Definition 2.2-1

Tritt bei N unabhiingigen Wiederholungen des durch n, '-l3(n) be-


schriebenen ZuJallsexperiments A E '-l3(n) genau hN(A)-mal ein,
heiflen hN(A) die absolute Haufigkeit und

(2.2-1)

die relative Haufigkeit von A in N Versuchen.

Beispiel [Bey95]: Ein idealer Wiirfel wird N = 100 mal geworfen. Die
Augenzahlen k treten dabei mit folgenden Haufigkeiten auf:

k II 1 2 3 4 5 6

hN(k) 1113 20 11 19 21 16

Zu bestimmen sind die relativen Haufigkeiten von

A = {es wird die A ugenzahl 2 geworfen},


B={es wird mindestens die Augenzahl 4 geworfen},
C={es wird eine gerade Augenzahl geworfen}.
10 2 Der Wahrscheinlichkeitsraum

Die relativen Haufigkeiten ergeben sich zu


20
HN{A) = 100 = 0,2;

H (B) = 19 + 21 + 16 = ~ = 0 56.
N 100 100"
H (C) = 20 + 19 + 16 = ~ =0 55.
N 100 100'
Hieraus folgt

HN{A U B) = 0,2 + 0,56 = 0,76


= HN{A) + HN{B), da AB = 0;

HN{B U C) = 0,56 + 0,55 - 0,35 = 0,76


= HN{B) + HN{C) - HN{BC).

Die relative Haufigkeit hat folgende Eigenschaften:

(i) VA E ~(n): 0 :::; HN{A) :::; 1 (2.2-2)


(ii) HN{n) = 1 (2.2-3)
(iii) VA, B E ~(n) mit AB = 0:
HN{A U B) = HN{A) + HN{B) (2.2-4)

Folgerungen:

(i) VA E ~(n): HN(A) =1- HN{A) (2.2-5)


(ii) VA,B E ~(n):

HN{A U B) = HN{A) + HN{B) - HN{AB) (2.2-6)

Bemerkung:
Da HN{A) auf der Basis von N Versuchen herechnet wird, ist es nicht
zulassig, aus HN{A) = 1 (bzw. HN(A) = 0) auf A = n (hzw. A = 0) zu
schlie13en!
2.2 Die Definition der Wahrscheinlichkeit von Laplace 11

Definition 2.2-2
Treten aile Elementarereignisse {~n}; n = 1,2, ... ,N; eines end-
lichen Ergebnisraums n = {6, 6, ... '~N} gleich hiiufig auf, ist
das zugehorige Zufallsexperiment ein Laplacesches Zufallsex-
periment.
Fiir Laplacesche Zufallsexperimente kann der Wahrscheinlichkeitsbegriff
wie folgt eingefiihrt werden:
Definition 2.2-3
In einem Laplaceschen Zufallsexperiment ist

P(A} = Anzahl der Elementarereignisse {~n} c A


(2.2-7)
Gesamtzahl der Elementarereignisse

die Wahrscheinlichkeit des Ereignisses A.


Bemerkung:
Es gilt immer P(A} = ~ mit k E IN U {O} und 0 ~ k ~ N.
Mit der Laplaceschen Definition der Wahrscheinlichkeit lassen sich aI-
le wahrscheinlichkeitstheoretischen Aufgaben lOsen, die auf kombinato-
rischen Uberlegungen beruhen (Wiirfel, Lotto). Wir betrachten hier nur
folgendes
Beispiel: Eine Urne enthalt N (bis auf die Farbe) gleiche Kugeln, von
denen M rot und N - M weiB sind. Aus der Urne werden zufallig n
Kugeln gezogen.
Frage: Wie groB ist die Wahrscheinlichkeit P(A} dafiir, daB unter den
n gezogenen Kugeln k rote und n - k weiBe sind?
Antwort: Da n Kugeln auf (~) verschiedene Arten aus N Kugeln aus-
gewahlt werden konnen, ist (~) die Gesamtzahl der Elementarereignisse.
Es bleibt die Frage nach der Anzahl der Elementarereignisse, die Teil-
menge von A sind: Aus den M roten Kugeln konnen k auf (~) Arten
ausgewahlt werden. Entsprechendes gilt fur die Auswahl von n - k aus
den N - M weiBen Kugeln, so daB damit aus (2.2-7) fUr die gesuchte
Wahrscheinlichkeit folgt (vergleiche auch (6.5-1}):
12 2 Der Wahrscheinlichkeitsraum

2.3 Die Definition der Wahrscheinlichkeit


von Kolmogoroff
Ftir eine allgemeine ErkHi.rung des Begriffs Wahrscheinlichkeit ist die
Definition 2.2-3 wegen der Einschrankung auf Laplacesche Zufallsexpe-
rimente (endlicher Ergebnisraum n mit gleichwahrscheinlichen Elemen-
tarereignissen) nicht brauchbar.
Beispiele:

(i) Wir beobachten ein Zufallsexperiment, das die Anzahl der in einer
Telefonzentrale eingehenden Anrufe tiber dem Zeitintervall [0, T)
zahlt.
Ereignisse sind hier z.B.

Ak={in [O,T) treffen genau k Anrufe ein}, k = 1,2, ...

(ii) Ein anderes Zufallsexperiment ist die Messung der Spannung an ei-
nem rauschenden Widerstand. In diesem Fall sind z.B. alle Mengen

Ax={die Spannung erreicht den Wert x Volt,


-oo<x<oo}
Ereignisse.

In diesen beiden Beispielen ist der Ergebnisraum n nicht mehr endlich,


sondern abzahlbar (i) oder sogar tiberabzahlbar (ii) unendlich. Wahrend
im Fall eines abzahlbar unendlichen Ergebnisraums die Menge aller Er-
eignisse wie im endlichen Fall die Potenzmenge l.lJ{n) ist, ergibt sich
fUr tiberabzahlbar unendliche Ergebnisdi.ume folgendes Problem: Es exi-
stieren in diesem Fall tiberabzahlbar viele Elementarereignisse. Wird al-
len diesen eine positive Wahrscheinlichkeit zugeschrieben, divergiert die
Summe tiber alle diese Wahrscheinlichkeiten. Daher beschrankt man sich
darauf, die Wahrscheinlichkeit nur auf gewissen Teilmengen von l.lJ{n) zu
definieren. Das System dieser Teilmengen mu6 bestimmte Eigenschaften
besitzen.
Definition 2.3-1
Ein nichtleeres System IE von Teilmengen eines Ergebnisraums n
heiftt u-Algebra (uber n), wenn gilt
2.3 Die Definition der Wahrscheinlichkeit von Kolmogoroff 13

(i) A E lB => A E lB, (2.3-1)


00
(ii) An E lB;n = 1,2, ... ;=> U An E lB. (2.3-2)
n=l

Bemerkungen:

(i) 0 und 0 liegen stets in lB, da fUr jedes A E lB gilt A E lB und mit
(2.3-2) zunachst AUA = 0 E lB und daraus mit (2.3-1) IT = 0 E lB
folgt.
(ii) Aufgrund der de MORGANschen Formeln und wegen (2.3-1) ist
eine (I-Algebra auch gegen abzahlbare Durchschnittsbildung abge-
schlossen:
00

An E lB; n = 1,2, ... ; => nAn E lB (2.3-3)


n=l

Somit la6t sich aus jedem Teilsystem M C '13(0) eindeutig eine (1-
Algebra lB = lB(M), namlich die von M erzeugte u-Algebra, kon-
struieren, fiir die gilt:

(i) lB(M) J M
(ii) 1st lB' J Meine (I-Algebra
=> lB' J lB(M),
d.h. lB = lB(M) ist die kleinste (I-Algebra, die M enthalt.

Ein Beispieleiner (I-Algebra eines endlichen Ergebnisraumes


o = {6, ... ist die Potenzmenge von 0: lB = '13(0). Dies ist fUr
'~N}
das Wiirfelexperiment in Bild 2.3-1 gezeigt.

~= {H.:J t {[;:n ..., { [llJ};


{[::u:;:n ([::UZ)}, ..., @,[llJ};
{[::LG:U2J t ..., {§, [;:;1. [llJ} ;

Bild 2.3-1: (I-Algebra des Wiirfelexperiments (einmaliger Wurf)


14 2 Der Wahrscheinlichkeitsraum

Ein wiehtiges Beispiel einer I7-Algebra fiber dem fiberabzahlbaren Er-


gebnisraum f2 = R ist die aus der Menge der halboffenen Intervalle
o = {(a,b] C R} erzeugte I7-Algebra 113(0). Sie wird auch Borelsche
u-Algebra genannt.
Zur Einffihrung des Wahrscheinlichkeitsbegriffs nach Kolmogoroffbenoti-
gen wir noch folgende
Definition 2.3-2
Ein hOchstens abziihlbares System {An E 113 : Ak An = 0, k =I- n}
heiflt vollstandige Ereignisdisjunktion (im engeren Sinne),
00
wenn gilt U An = f2.
n=l
BeIllerkungen:

(i) Fur die Vereinigung disjunkter Mengen schreibt man haufig


00 00

UAn= LAn (bzw. Au B = A + B).


n=l n=l

(ii) Jede hOchstens abzahlbare Vereinigung laSt sieh auch als Vereini-
gung disjunkter Mengen schreiben.

Der russische Mathematiker Kolmogoroff hat mit seiner 1933 erschie-


nenen bahnbrechenden Arbeit [KoI33] einen axioIllatischen Weg
zum Aufbau der Wahrscheinlichkeitstheorie beschritten. Aus Aufwands-
grunden konnten und wollten wir hier diesen axiomatischen Aufbau der
Wahrscheinlichkeitstheorie nieht vollstandig nachzeiehnen. Wir beziehen
uns im folgenden aber grundsatzlich auf die Kolmogoroffschen Axiome
und auf seine Definition der Wahrscheinlichkeit (Definition 2.3-3), die im
fibrigen die Laplacesche Definition als Spezialfall enthalt.
KolIllogoroffsche AxioIlle:
Gegeben seien ein Ergebnisraum f2 und eine geeignete I7-Algebra fiber
f2. Die Elemente von 113 sind also die Ereignisse des Zufallsexperiments.
Eine Funktion P, die jedem Ereignis A E 113 eine reelle Zahl zuordnet,
erfulle
AxioIll 1: VA E 113: P{A) ~ 0 (2.3-4)
AxioIll 2: P{f2) = 1 (2.3-5)
2.3 Die Definition der Wahrscheinlichkeit von Kolmogoroff 15

Axiolll 3: Fur paarweise disjunkte Ereignisse An E '23;


n = 1,2, ... ; gilt

(2.3-6)

Belllerkung:
Ersetzt man das dritte Axiom durch die Forderung, daB fUr disjunkte
Ereignisse A, B E '23

P(A + B) = P(A) + P(B) (2.3-7)

gelten solI, wird klar, daB es sich bei den Kolmogoroffschen Axiomen urn
Abstraktionen der Eigenschaften (2.2-2) bis (2.2-4) relativer Haufigkeiten
handelt. Axiom 3 ist eine sinnvolle Erweiterung der Forderung (2.3-7).

Definition 2.3-3
P(A) heiflt Wahrscheinlichkeit des Ereignisses A.
Damit kann fur jedes Zufallsexperiment mit der Ergebnismenge fl, einer
geeigneten a-Algebra '23 uber fl und der Wahrscheinlichkeit aus Defini-
tion 2.3-3 ein Wahrscheinlichkeitsraulll (fl, 23, P) zur Modellierung
des Zufallsexperimentes gefunden werden.
Satz 2.3-1

(i) P(0) = 0 (2.3-8)


(ii) peA) = 1 - P(A) (2.3-9)
(iii) P(A U B) = P(A) + P(B) - P(AB) (2.3-10)

Beweis:

zu (i): 0 E '23 =} P(0) ~ 0 existiert (Axiom 1).


Sei A -:j; 0 aus '23 =} Au 0 = A E 23. Ferner gilt An 0 = 0,
woraus mit Axiom 3 folgt:
P{A U 0) = P{A) + P(0) = P(A) =} P(0) = 0

zu (ii): A E '23 =} A E 23 =} P(A) ~ 0 existiert.


A n A = 0 =} P(A u A) = P{A) + P(A) =
= P{fl) = 1 ¢? P{A) = 1 - P{A)
16 2 Der Wahrscheinlichkeitsraum

zu (iii): Es gilt Au B = (AB) U (AB) U CAB) und die drei rechts ste-
henden Ereignisse sind paarweise disjunkt. Daher gilt naeh
Axiom 3
P(A U B) = P(AB) + P(AB) + P(AB). (2.3-11)

Genauso gilt wegen A = (AB) U (AB)


P(A) = P(AB) + P(AB) (2.3-12)

und wegen B = (AB) U (AB)


P(B) = P(AB) + P(AB). (2.3-13)
Einsetzen der Gleiehungen (2.3-12) und (2.3-13) in (2.3-11)
liefert
P(A U B) = P(A) - P(AB) + P(AB)
+ P(B) - P(AB)
= P(A) + P(B) - P(AB).
Bemerkung:
Fur die Wahrscheinliehkeit gilt 0 :S P(A) :S 1 'r:/ A E lB.
Satz 2.3-2
Filr eine vollstiindige Ereignisdisjunktion {An E IB: AkAn
0, k # n} folgt

P (~An) = P(O) = 1. (2.3-14)

Beweis: (2.3-14) folgt direkt aus Axiom 2.

Satz 2.3-3

A,B E Il3 mit Be A ~ P(B) :S P(A) (2.3-15)

Beweis:
A = B u (AB) und die reehts stehenden Mengen sind disjunkt. Mit
Axiom 3 folgt P(A) = P(B) + P(AB) ~ P(B) :S P(A), weil (Axiom 1)
P(AB) ~ O.
2.4 Ubungsaufgaben 17

2.4 Ubungsaufgaben
Zur L6sung der Ubungsaufgaben ist die Beachtung von Anhang A hilf-
reich.

Aufgabe 2.1
Drei Bits werden uber einen digitalen Nachrichtenkanal ubertragen. Je-
des Bit kann verfiiJscht oder richtig empfangen werden.

a) Geben Sie den Ergebnisraum 0 an.


b) Wieviele Elemente besitzt O?
c) Es sei Ai = {i-tes Bit ist verfalscht}i i = 1,2,3. Geben Sie A1 an.
d) Stellen Sie folgende Ereignisse mit Hilfe der Ai und passender Men-
genoperationen dar:
B1 = {aIle Bits sind verfalscht}
B2 = {mindestens ein Bit ist verfalscht}
B3 = {kein Bit ist verfalscht}
B4 = {hOchstens ein Bit ist verfalscht}
e) Beschreiben Sie verbal folgende Ereignisse:
C 1 = A1 n (A2 n A 3)
C2 = (A3 n A1 n A 2) u (A2 n A1 n A3)
U(A1 n A2 n A 3)

a) 0 = {(b 1 , b2 , b3 )i bi t:{V(ver fiilscht), R(richtig)}


fur i = 1,2, 3}

b) 101 = 23 = 8
0= {(V, V, V), (V, R, V), (V, R, R), (V, V, R),
(R, V, V), (R, R, V), (R, V, R), (R, R, R)}
18 2 Der Wahrscheinlichkeitsraum

c) Al = {(V, b2 , b3 )j bi t:{V, R} fur i = 2,3}

= {(V, R, R), (V, V, V), (V, R, V), (V, V, R)}

B2 = Al UA 2 UA 3
= {(V, V, V), (V, R, V), (V, R, R), (V, V, R),
(R, V, V), (R, R, V), (R, V, R)}
B3 = B2 = Al n A2 n A3
= {(R,R,R)}

B4 = (Al n A2 n A 3 ) U (A2 n Al n A 3)
U (A3 n Al n A 2) U (Al U A2 U A 3)
= {(V, R, R), (R, V, R), (R, R, V), (R, R, R)}

= {Das erste Bit ist verfalscht und von den


anderen heiden ist hochstens eines verfalscht}
= {(V, R, V), (V, V, R), (V, R, R)}
C 2 = {genau zwei Bits sind verfalscht}
= {genau ein Bit ist richtig}
= {(V, V, R), (V, R, V), (R, V, V)}

Aufgabe 2.2
Es sei n = {I, 2, 3, 4} gegehen.
a) Welche der folgenden Mengensysteme sind a-Algehren?
A = {0,n}
B = {0, n, {I}, {2, 3}, {4}}
2.4 UbungsauEgaben 19

C = {0, n, {I, 2}, {3, 4}}

b) Geben Sie die kleinste a-Algebra fiber n an, in der die Mengen {I}
und {2} enthalten sind.

c) Geben Sie die a-Algebra des zu n gehOrigen Laplaceschen Zufalls-


experiments an.

a) - Da 0" = n bzw. n = 0 und 0un = n gilt, ist A eine a-Algebra.


- Zu {I} muB auch {I} = {2, 3, 4} in der a-Algebra liegen. Dies
ist nicht der Fall, daher ist B keine a-Algebra.
- C ist eine a-Algebra, da mit {1,2}, {1,2} = {3,4} und
{I, 2, 3, 4} = n usw. in der a-Algebra liegen.

b) ~= {0,n,{1},{2},{1,2},{2,3,4},{1,3,4},{3,4}}

c) ~ = I.l}(n) = {0, n, {I}, {2}, {3}, {4},


{2,3,4},{1,3,4},{1,2,4},{1,2,3},
{1,2},{1,3},{1,4},{2,3},{2,4},{3,4}}

Aufgabe 2.3

a) In dem aus vier Rechnern bestehenden Rechnernetz aus Bild 2.4-1


fallen zufallig zwei Verbindungen Vi aus. Wie groB ist die Wahr-
scheinlichkeit, daB trotz des Ausfalls noch drei Rechner miteinan-
der verbunden sind?

b) Wie groB ist die Wahrscheinlichkeit, daB im Rechnernetz aus Bild


2.4-2 alle Rechner noch verbunden sind, wenn hochstens drei Ver-
bindungen ausfallen?
20 2 Der Wahrscheinlichkeitsraum

Bild 2.4-1: Netzwerk 1

Bild 2.4-2: Netzwerk 2

a) Der Ergebnisraum 0 enthalt alle moglichen Kombinationen von


zwei Ausfallen der vier Verbindungen.

0= {(Vi, Vk);i,k E {I, ... ,4};i < k}

101 = G) = 6

Es sind genau dann noch drei Rechner miteinander verbunden,


wenn zwei nebeneinander liegende Verbindungen ausfallen.

A = {(VI, V2 ), (V2, V3 ), (V3 , V4 ), (V4, Vr)}


IAI =4

b) Der Ergebnisraum 0 setzt sich aus den moglichen Ausfallen keiner,


2.4 Ubungsaufgaben 21

einer, zweier oder dreier Verbindungen zusammen:

n= {(Vi" ... , ViN);N E {l,2,3};i j E {I, ... ,5}


Vj E {I, ... ,N};i I < i2 < ... < iN}
U {keine Ausfalle}

Entsprechend ergibt sich

Inl = G) + G) + G) + 1 = 26.

Fallt nur eine Verbindung aus, so sind immer noch aIle Rechner
verbunden.
Bei zwei AusfaIlen dilrfen nur bestimmte Kombinationen von Ver-
bindungen ausfaIlen und bei drei Ausfallen gibt es keine Moglich-
keit mehr, daB aIle Rechner in Verbindung bleiben:

A = {(VI, V2 ), (V3, V4 )} + {(Vi, Vj, Vk);


i,j, k E {I, ... ,5} und i < j < k}

IAI = 2 + G) = 12

- 12 14
P(A) =1- P(A) =1- 26 = 26 ~ 0,538

Aufgabe 2.4
Welches der folgenden Ereignisse ist wahrscheinlicher:

a) Bei vier Wilrfen mit einem Wilrfel mindestens eine sechs zu erhal-
ten oder

b) bei 24 Wilrfen mit zwei Wilrfeln mindestens eine Doppelsechs zu


erhalten?
22 2 Der Wahrscheinlichkeitsraum

a) 0 = {(al, ... ,a4);aiE{1, ... ,6}}


Al = {(al, . .. , a4) to 0; mindestens ein ai = 6}
Al = {(al, ... , a4) € 0; ai f. 6Vi}

Vier mal wUrfeln entspricht der Auswahl von insgesamt 4 aus 6


verschiedenen Elementen mit Wiederholung (unter der BerUcksich-
tigung der Reihenfolge!).
:::.} 101 = 64 (4 x WUrfeln mit Ergebnissen von 1, ... ,6)
:::.} IAII = 54 (4 x WUrfeln mit Ergebnissen 1, ... ,5)

mit&-9) P(A I ) = 1 - P( AI) = 1 - ~: ~ 0,518


b) 0 = {(b l , ... ,b24 ); bj = (k,l) fUrj = 1, ... ,24;
k, l E{1, ... ,6}}
A2 = {(bl , ... , b24 ); bj = (k, l) fUr j = 1, ... ,24;
mindestens ein bj = {6,6}}
A2 = {(b l , ... , b24 ); bj = (k, l) fUr j = 1, ... ,24;
bj f. {6, 6} Vj}
:::.} Bei jedem einzelnen Wurf mit 2 WUrfeln gibt es
62 = 36 mogliche bi
:::.} 101 = 36 24 (24 WUrfe mit 36 moglichen Ergebnissen)
:::.} I A21 = 35 24 (24 WUrfe ohne Doppelsechs)

mit&-9) P(A 2) = 1 - P( A2 )

35 24
= 1 - 3624 ~ 0,491

Das Ereignis a) ist wahrscheinlicher.

Aufgabe 2.5
Beim Lottospiel werden ohne ZurUcklegen 6 Zahlen aus 49 gezogen. Be-
rechnen Sie folgende Wahrscheinlichkeiten:
2.4 Ubungsau[gaben 23

a) AIle 6 Gewinnzahlen richtig zu tippen.


b) Genau 5 richtige Gewinnzahlen zu tippen.
c) Mindestens 3 richtige Gewinnzahlen zu tippen.
d) Die Zahl13 gehort zu den Gewinnzahlen.
e) AIle sechs Gewinnzahlen sind gerade.
f) Es gibt genauso viele gerade wie ungerade Gewinnzahlen.

n= {(al, ... ,a6);ai€{I, ... ,49},al < a2 < ... < a6}

Modell: Kombination - Eine Auswahl von 6 Elementen aus 49 Elemen-


ten ohne Beachtung der Reihenfolge

Inl = (~) = 13983816

a) IA61 = (~) . (~3) = 1 :::} P(A6) = I~I ~ 7,15· 10-8


b) IA51 = (~) . (413) = 258:::} P(A5) = ~~~ ~ 1,845.10-5
c) B = {mindestens 3 richtig} = A6 U A5 U A4 U A3
Ai sind paarweise disjunkt: Definition 2.1-3
:::} P(B) = P(A6 U A5 U A4 U A 3)
= P(A6) + P(A5) + P(A4) + P(A3)
P(A ) =
4
m(~).(~3) = 13983816
13545 ~ 9 69. 10-4
'
(6) . (43) 246820
P(A3) = 3 (~) 3 = 13983816 ~ 0,01765

:::} P(B) = P(A6) + P(As) + P(A4) + P(A3)


~ 0,018637545
24 2 Der Wahrscheinlichkeitsraum

d} C = {13 gehort zu den Gewinnzahlen}

C = {13 gehOrt nicht zu den Gewinnzahlen}

_ (48) 43
P(C} = 1 - P(C} = 1 - _6_ = 1 - - ~ 0 1224
(~9) 49'

e} Es gibt 25 ungerade und 24 gerade Lotto-Zahlen.


P(nur gerade Gewinnzahlen}= ~~:~ ~ 0,00963

f} P(nur ungerade Gewinnzahlen}= ~~~ ~ 0,012665


P(drei gerade, drei ungerade}= C3?~)234} ~ 0,3329

Aufgabe 2.6

Ein elektronisches Schaltwerk besteht aus 5 Relais (1, ... , 5). Jedes Re-
lais ist mit der Wahrscheinlichkeit 0,5 geschlossen.

Mit welcher Wahrscheinlichkeit kann ein Strom vom Eingang E zum


Ausgang A fliefien?

E A

4 5

Bild 2.4-3: Schaltwerk


2.4 Obungsaufgaben 25

n = {(1"1,1"2, ... ,1"5);1"j E{geschl.,offen}}, Inl = 25 = 32


Ai = {Schalter i ist geschlossen}
= {(1"I, 1"2, ... ,1"5); 1"i = geschl., 1"j E {geschl.,offen}
fUr j =I- i}

B = {Es kann Strom vom Eingang zum Ausgang flieBen}


= [(AI U A2 ) n A3] U [A4 n A5]
P(B) = P ([(AI U A 2 ) n A 3] U [A4 n A5])
=} mit (2.3-10)
P(B) = P ([(AI U A 2 ) n A 3]) + P(A 4 n A5)
-P ((AI U A 2) n A3 n A4 n A5)

=} mit Distributivgesetz
P(B) = P ((AI n A 3) U (A2 n A 3)) + P(A4 n A5)
-P ((AI n A3 n A4 n A5) U (A2 n A3 n A4 n A5))

=} mit (2.3-10)
P(B) = P(A I n A 3) + P(A 2 n A 3) - P(A I n A2 n A 3 )
+P(A4 n A5) - [P(A I n A3 n A4 n A5)
+P(A 2 n A3 n A4 n A5)
-P(A I n A2 n A3 n A4 n A5)]
3 Bedingte
Wahrscheinlichkeiten

Zur Einfiihrung betrachten wir folgendes


Beispiel: Auf einer Kurzwellenfunkstrecke werden N = 108 Daten-
pakete von Flensburg nach Ulm iibertragen. Dabei wird das Auftreten
folgender Ereignisse erfaBt:
A={Das Datenpaket kommt fehlerhaft an.}
B={Das Signal-Rauschverhaltnis (SNR) am Empfanger ist
"schlecht".}
Fiir A und B werden folgende Haufgkeiten beobachtet:
hN(A) = 200, hN(B) = 100
(HN(A) = 2.10- 6 , HN(B) = 10- 6 )
Da ein Zusammenhang zwischen SNR und fehlerhafter Ubertragung ver-
mutet wird, wird auch die Auftretenshaufigkeit von AB aufgezeichnet.
Sie ist
hN(AB) = 80 (HN(AB) = 0,8· 10- 6 ).
Die vermutete Abhangigkeit kann durch den Anteil der fehlerhaft emp-
fangenen Datenpakete, die bei "schlechtem" SNR empfangen wurden,
iiberpriift werden. Dies ist die bedingte relative Haufigkeit von A, wenn
B eingetreten ist.
In unserem Beispiel:
H (AlB) = ~ = hN(AB) = HN(AB) = 0 8
N 100 hN(B) HN(B) ,
Mit anderen Worten: 80 % der bei "schlechtem" SNR iibertragenen Da-
tenpakete werden fehlerhaft empfangen. Bezogen auf aIle N = 108 iiber-
tragenen Pakete ist der Anteil der fehlerhaft empfangenen jedoch nur
2.10- 6 •

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
3.1 Definition und Eigenschaften 27

Solche und ahnliche Beispiele legen die Einfiihrung des Begriffs der be-
dingten Wahrscheinlichkeit nahe.

3.1 Definition und Eigenschaften


Definition 3.1-1
A, B E Il3 und P(B) > O. Dann heiflt

P(AIB) = P(AB) (3.1-1)


P(B)

bedingte Wahrscheinlichkeit von A unter der Bedingung B.

Beispiel: Wir werfen zwei ideale Wilrfel, von den en der eine rot und
der andere weiB sei.

(a) Wie groB ist die Wahrscheinlichkeit, zwei Sechsen zu werfen, unter
der Bedingung, daB mit dem weiBen Wilrfel eine Sechs gewilrfelt
wird?

(b) Wie groB ist die Wahrscheinlichkeit, zwei Sechsen zu werfen, unter
der Bedingung, daB mit dem weiBen Wilrfel eine gerade Augenzahl
geworfen wird?

(a) n= {(r, w); r, wE {I, 2, 3, 4, 5, 6}}

A = {(6,6)}
B = {(r,6); r E {I, 2, 3, 4, 5, 6}}
1
P(AB) = P(A) = 36' da A c B

P(B) = ~
P(AIB) = P(AB) = ~
P(B) 6

(b) A = {(6,6)}
28 3 Bedingte Wahrscheinlichkeiten

C={(r,w); rE{I,2,3,4,5,6} 1\ wE {2,4,6}}


1
P(AC) = P(A) = 36' da A c C

P(C) = ~
P(AIC) = P(AC) = ~
P(C) 18

Bemerkung:

(i) 1m allgemeinen ist P(AIB) =I- P(BIA). Es gilt die Beziehung

P(AIB)P(B) = P(BIA)P(A). (3.1-2)

(ii) Die bedingten Wahrscheinlichkeiten P(AIB) erftillen fUr festes B E


iE die Kolmogoroffschen Axiome. Bedingte Wahrscheinlichkeiten
tiber einem Wahrscheinlichkeitsraum (n, iE, P) sind dort also auch
Wahrscheinlichkeiten [KoI33].

Die Auflosung von (3.1-1) nach P(AB) fUhrt auf die Multiplikations-
regel itir Wahrscheinlichkeiten:

P(AB) = P(B)P(AIB) (3.1-3)

Wegen (3.1-2) gilt nattirlich auch P(AB) = P(A)P(BIA).


Die wiederholte Anwendung der Multiplikationsregel auf den Durch-
schnitt N zufalliger Ereignisse liefert:

P (~l An ) = P(AdP C62 AnlAl )


= P(AdP(A2IAdP C63AnIAIA2)

(3.1-4)

Der Beweis von (3.1-4) wird durch vollstandige Induktion erbracht.


3.1 Definition und Eigenschaften 29

Beispiel [Web92]:
In einem Raum sind N Personen versammelt. Unter der Voraussetzung,
daB jedes Jahr 365 Tage hat (es gibt keine Schaltjahre) und daB die
Geburtstage iibers Jahr gleichverteilt sind, solI die Wahrscheinlichkeit
dafiir, daB mindestens 2 Personen am gleichen Tag Geburtstag haben,
berechnet werden.

(a) A ={mindestens 2 Personen haben am gleichen Tag Geburtstag}


Fiir N > 365 ist P(A) = 1.

(b) N :S 365: Wir stell en uns vor, die Person en seien durchnumeriert
und betrachten folgende Ereignisse:
A ={alle haben an verschiedenen Tagen Geburtstag},
Ai={ die i-te Person hat an einem anderen Tag als
die i - I vorhergehenden Personen Geburtstag}.

Es folgt

Wegen A = A2 A3 ... AN folgt mit dem Multiplikationssatz

und daraus
- 364 . 363 ... (365 - N + I)
P(A) = 1 - P(A) = 1 - 365 N - 1 .

Fiir verschiedene Werte von N erhalt man:


30 3 Bedingte Wahrscheinlichkeiten

I N I 10 I 20 I 23 I 30 I 50 I 100 I
I P(A} I 0,117 I 0,411 I 0,507 I 0,706 I 0,970 I 0,99999969 I

Satz 3.1-1
Die Ereignisse An (1 :sn :s
N) seien eine vollstiindige Ereig-
nisdisjunktion und es gelte P(A n } > 0 'tin. Dann folgt fur jedes
B E !l3 die Formel von der totalen Wahrscheinlichkeit
N
P(B} = LP(BIAn}P(An} (3.1-5)
n=l
und, wenn P(B} > 0 ist, die Formel von Bayes

P(AnIB} = :(BIAn}P(A n ) . (3.1-6)


L: P(BIAn}P(An}
n=l
Beweis:

(a) (3.1-5):
Da L:~=l An = n gilt, ist B = Bn = L:~=l AnB. Da die AnB
paarweise disjunkt sind, folgt P(B} = L:~=l P(AnB} und wegen
P(A n } > 0 'tin mit (3.1-1):
P(B} = L:~=l P(BIAn}P(An}.
(b) (3.1-6):
FUr B E !l3 gilt unter Anwendung von (3.1-2):

P(A IB} = P(An}P(BIA n }


n P(B}

(3.1-6) ergibt sich durch Einsetzen von (3.1-5) in den Nenner.

Bemerkung:
Die Wahrscheinlichkeiten P(AnIB} werden a posteriori Wahrschein-
lichkeiten genannt, da sie die Wahrscheinlichkeiten der An nach Ein-
treten von B angeben. 1m Gegensatz dazu sind die P(A n } die a priori
Wahrscheinlichkeiten fur das Auftreten der An.
3.2 Unabhangige Ereignisse 31

3.2 Unabhangige Ereignisse


1m allgemeinen wird P(A) :j:. P(AIB) sein. Man erklart daher
Definition 3.2-1
Gilt fur A, B E 'B
P(AIB) = P(A) (3.2-1)

heiflt A unabhangig von B.


Bemerkungen:

(i) Mit (3.1-1) gilt fUr den Fall, daB A unabhangig von B ist,

P(AB) = P(AIB)P(B) = P(A)P(B). (3.2-2)

Daraus folgt sofort

P(BIA) = P(AB)
P(A)
= P(B) . (3.2-3)

D.h. wenn A von B unabhangig ist, ist auch B von A unabhangig.


Man sagt dann A und B seien voneinander unabhangig.
(ii) Mit Gleichung (3.2-2) wird oft die Unabhangigkeit von A und B
definiert. Diese Definition ist aquivalent zu (3.2-1), wenn P(B) > 0
ist.
(iii) Weil AB C B und AB C A, gilt (3.2-2) auch, wenn P(A) = Ooder
P(B) = 0 ist.

Beispiel: Wie groB ist die Wahrscheinlichkeit P2 bei zweimaligem


Ziehen einer Karte aus einem Skatspiel mit Zuriicklegen zwei Asse zu
erhalten?
4 von den 32 Karten sind Asse, d.h.
1 1 1 1
P(As) = - ~ P2 = _. - = - .
8 8 8 64
32 3 Bedingte Wahrscheinlichkeiten

Definition 3.2-2

Die Ereignisse An E ~ (n = 1,2, ... ,N) heiflen vollstandig


unabhangig, wenn fur jedes K E {2, 3, ... ,N} und beliebige
natilrliche Zahlen 1 ~ i 1 < i2 < ... iK ~ N

(3.2-4)

gilt.

Bemerkungen:

(i) Statt von voUstandiger Unabhangigkeit spricht man oft auch kurz
nur von U nabhangigkeit der An. Diese saUte jedoch nicht mit paar-
weiser Unabhangigkeit verwechselt werden!

(ii) Disjunkte Ereignisse sind in hOchstem MaBe abhangig!

3.3 Ubungsaufgaben

Aufgabe 3.1 [Bei95]

80 % der in einer Radaranlage eintreffenden Signale sind mit einer Storung


iiberlagerte Nutzsignale und 20 % sind reine Storungen. Aus Erfahrung
weiB man, daB beim Empfang eines gestorten Nutzsignals die Anlage die
Ankunft eines Nutzsignals mit Wahrscheinlichkeit 0,95 anzeigt. Beim
Empfang der reinen Storung zeigt sie die Ankunft eines Nutzsignals mit
Wahrscheinlichkeit 0,3 an.
Die Anlage zeige nun die Ankunft eines Nutzsignals an. Man bestimme
die Wahrscheinlichkeit dafiir, daB wirklich ein gestortes Nutzsignal emp-
fangen wurde, d.h. daB die Anlage eine richtige Anzeige macht.
3.3 Ubungsaufgaben 33

N= {Nutzsignal wird empfangen}


S = {Reine Storung wird empfangen}
A = {Die Anlage zeigt ein Nutzsignal an}

P(N) = 0,8
P(S) = 0,2
P(AIN) = 0,95 P(AIS) = 0,3

Gesucht:

P(NIA) (3.~1) P(N n A)


P(A)

Anwendung von Satz 3.1-1:


Die Ereignisse S und N stellen eine vollstandige Ereignisdisjunktion dar
und es gilt P(S) ~ a und P(N) ~ O. Die Wahrscheinlichkeit, daB eine
Anzeige erfolgt, ist die totale Wahrscheinlichkeit P(A).

P(A) P(AIS) . P(S) + P(AIN) . P(N)


P(A) 0,3· 0,2 + 0,95· 0,8 = 0,82

Die Wahrscheinlichkeit, daB ein gestortes Nutzsignal empfangen wird


und die Ankunft eines Nutzsignals angezeigt wird, ist:

P(N n A) (3.~3) P(AIN) . P(N) = 0,95· 0,8 = 0,76

Die Wahrscheinlichkeit dafiir, daB wirklich ein Nutzsignal empfangen


wurde, d.h. daB die Anlage eine richtige Anzeige macht, ist:

P(NIA) = P(N n A) = a, 76 ~ a 93
P(A) 0,82 '

Beachte: P(NIA) :j:. P(AIN)


34 3 Bedingte Wahrscheinlichkeiten

Aufgabe 3.2 [Bos96]


Bei einer Qualitatskontrolle konnen Werkstiicke zwei Fehler haben, den
Fehler A und den Fehler B. Aus Erfahrung seien folgende Werte be-
kannt: Mit Wahrscheinlichkeit 0,05 hat ein Werkstiick den Fehler A, mit
Wahrscheinlichkeit 0,01 hat es beide Fehler und mit Wahrscheinlichkeit
0,03 nur den Fehler B.

a) Mit welcher Wahrscheinlichkeit hat ein Werkstiick den Fehler B?

b) Mit welcher Wahrscheinlichkeit ist ein Werkstiick fehlerhaft bzw.


fehlerfrei?

c) Mit welcher Wahrscheinlichkeit besitzt ein Werkstiick genau einen


der beiden Fehler?

d) Bei einem Werkstiick wurde der Fehler A festgestellt, wahrend


die Untersuchung auf Fehler B noch nicht erfolgt ist. Mit welcher
Wahrscheinlichkeit hat es auch den Fehler B bzw. nicht den Fehler
B?

e) Mit welcher Wahrscheinlichkeit ist ein Werkstiick fehlerfrei, falls es


den Fehler B (bzw. A) nicht besitzt.

f) Sind die Ereignisse "Fehler A"und "Fehler B"unabhangig?

Gegeben: P(A) = 0,05; P(A n B) = 0,01; P(A n B) = 0,03


a) P(B) = P(A n B) + P(A n B)
denn: B = n n B = (A u A) n B = (A n B) u (A n B)
P(B) = 0,01 + 0,03 = 0,04

b) A U B = {das Werkstiick ist fehlerhaft}


P(A U B) (2.~lO) P(A) + P(B) - P(A n B)
= 0,05 + 0,04 - 0,01 = 0,08
An B = {das Werkstiick ist fehlerfrei}
P(A n B) (2~1) P(A u B) (2~9) 1 - P(A U B) = 0,92
3.3 UbungsauEgaben 35

c) (A n B) u (A n B) = {das Werkstiick hat genau


einen Fehler}
P(A n B) = P(A) - P(A n B) = 0,04
P(A n B) + P(A n B) = 0,04 + 0,03 = 0,07

d) P(BIA) (3.~1) p(BnA) - 0,01 - 0 2


- PtA) - 0,05 - ,

P(BIA) (2.~9) 1 - P(BIA) = 0,8

e) P(AIB) (3.~1) P(A:2B ) (2.~9) p(AnB) = 0,92 ,...., 0 9583


P(B) 1-P(B) 0,96""'"
P(BIA) (3~1) P(A:2B ) (2.~9) p(AnB) = 0,92 ,...., 0 9684
PtA) 1-P(A) 0,95""'"

f) 0,01 = P(A n B) =I- P(A) . P(B) = 0,05· 0,04 = 0,002


A und B sind nicht unabhangig.

Aufgabe 3.3

In einer Geldborse befinden sich drei Miinzen. Die erste zeigt auf beiden
Seiten einen Kopf, die zweite zeigt beim Werfen Zahl und Kopf mit
gleicher Wahrscheinlichkeit und die dritte ist so beschaffen, daB sie beim
Werfen mit Wahrscheinlichkeit 0,8 Kopf und mit Wahrscheinlichkeit 0,2
Zahl zeigt.

a) Der Borse wird zufallig eine Miinze entnommen und geworfen. Nach
dem Wurf zeigt sie Kopf. Mit welcher Wahrscheinlichkeit ist es die
erste Miinze?

b) Es werden zwei Miinzen gleichzeitig aus der Borse entnommen und


geworfen. Wie groB ist die Wahrscheinlichkeit dafiir, daB die Miinzen
Kopf und Zahl zeigen?
36 3 Bedingte Wahrscheinlichkeiten

a) M j = {Miinze j wird entnommen}


K = {Kopf wird geworfen}

1; P(KIM2) = 0,5; P(KIM3) = 0,8;


1
P(M2) = P(M3) = 3;
P(M1 IK) (3.~6) 3P(KIMd' P(M1 )
L P(KIMj ) . P(Mj )
j=1

1·1
1.3
1 f
+ 0,5 . 3 + 0,8 . 3
1 ;:::, 0,4348

b) (Mi' M j ) = {Miinzen Mi und M j werden entnommen mit i < j}


Abkiirzung: Al = (Ml' M 2), A2 = (M2' M 3),
A3 = (M1 ,M3)

(K, Z) = {Wurf der Miinze Mi ergibt Kopf und


Wurf der Miinze M j ergibt Zahl}

(Z, K) = {Wurf der Miinze Mi ergibt Zahl und


Wurf der Miinze M j ergibt Kopf}

P(Ai) = ~
P(Kopf und Zahl) = P((K, Z)) + P((Z, K))
3
2: P((K, Z)IA i ) . P(Ai)
i=1

3
+ 2: P((Z, K)lAi) . P(Ai)
i=1

=
1
3 . (1 . 0,5 + 0,5· 0,2 + 1 . 0,2 + + 0, 5 . 0,8 + 0) °
~=0,4
3
4 Zufallsvariablen

Die Ergebnisse eines Zufallsexperiments werden im allgemeinen verbal


umschrieben:

- "Beim Wtirfeln ist die Augenzahl vier gefallen" (vergleiche Bild


2.3-1),

"Herr Kunz wird bei einer Geschwindigkeitskontrolle gebtihren-


pftichtig verwarnt".

Einer numerischen bzw. analytischen Behandlung werden Zufallsexperi-


mente erst dann zuganglich, wenn den Ergebnissen Zahlen zugeordnet
werden. Eine solche Zuordnung zeigt Bild 4-1 ftir das einmalige Wtirfeln.
DaB dabei auf den Wtirfeln bereits die Augenzahlen zu sehen sind, darf
nicht stOren, die Wtirfelftachen k6nnten auch einfach verschiedene Far-
ben (weiB, gelb, rot, grtin, blau, schwarz) tragen. Die Funktion X aus
Bild 4-1 bildet den Ergebnisraum n in die Menge der reellen Zahlen 1R
abo Wesentlich bei der Definition von X ist, daB die Umkehrabbildung
X- 1 so beschaffen ist, daB fUr jedes Intervall (-00, a) C 1R
X-1((-00,a]) E~,

d.h. ein Ereignis aus der O"-Algebra ~ tiber n ist.

x (8) =1
X (0) =2
X (0) =3
X (§) =4
X (~) =5
X (ill] ) =6

Bild 4-1: Einmaliges Weden eines idealen Wtirfels, Zufallsvariable

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
38 4 Zufallsvariablen

4.1 Verteilungsfunktion und Dichte

Definition 4.1-1

Eine Funktion

x = X(~) : n -+ JR, (4.1-1)

die jedem Ergebnis ~ E n eine reelle Zahl zuordnet, heiflt Zufalls-


variable, wenn das Urbild eines jeden Intervalls (-00, a] C JR ein
Ereignis aus 23 ist:

X-1((-00,a]) E~, Va E JR (4.1-2)

Unter einer Wahrscheinlichkeitsverteilung verstehen wir die Verteilung


der gesamten Wahrscheinlichkeitsmasse 1 auf JR. Dies fiihrt sofort auf
den Begriff der Verteilungsfunktion.
Definition 4.1-2

Die Funktion

F(x) := P(X ::; x) (4.1-3)

der reellen Variablen x heiflt Verteilungsfunktion der ZuJalls-


varia bien X.
Bemerkung:
Wenn die Beziehung zwischen der Zufallsvariablen X und der Vertei-
lungsfunktion F(x) nicht sofort erkennbar ist, wird auch die Bezeichnung
Fx(x) flir die Verteilungsfunktion benutzt.
Beispiel:
Wir betrachten das einmalige Werfen eines idealen Wlirfels als Zufalls-
experiment. Die Zufallsvariable X wurde mit Bild 4-1 angegeben. Flir
die Verteilungsfunktion erhalt man die Treppenfunktion von Bild 4.1-1.
4.1 Verteilungsfunktion und Dichte 39
Fix'

Bild 4.1-1: Werfen eines idealen WUrfels, Verteilungsfunktion

Aus der Verteilungsfunktion Hi.fit sich die Wahrscheinlichkeit fUr jedes


Ereignis {~; a < X (~) ~ b} ableiten. FUr a = 1,5 und b = 3,7 gilt z.B.

P(~; 1,5 < X(~) ~ 3,7) = P("Zwei" V "Drei")


1
= 3 = F(3, 7) - F(1,5)
3 1
6 6
Allgemein ergibt sich

P(~; a < X(O ~ b) = P(~; X ~ b) - P(~; X ~ a) = F(b) - F(a).


Aus Bild 4.1-1 lassen sich folgende Eigenschaften von F(x), die allge-
mein fUr Verteilungsfunktionen gelten, ablesen:

1. F : 1R -+ [0, 1]
2. lim F(x) = 0,
X--+-CX)

lim F(x) = 1
x-+oo

3. F(x) ist monoton nichtfallend:


40 4 ZuEallsvariablen

4. F(x) ist rechtsseitig stetig:

F(x + 0) = limF(x + h) = F(x) Vx E IR


h-+O

Definition 4.1.-3
Die ZuJallsvariable X heiftt diskret, wenn ihr Wertebereich eine
endliche oder hochstens abziihlbar unendliche Menge ist.

Belllerkung:
Nimmt die Zufallsvariable X die (hOchstens abzahlbar unendlich vielen)
Werte Xl, X2, . .. an, sind

Pn = P(X = X n) (4.1-4)

die Einzelwahrscheinlichkeiten der Zufallsvariablen X. Fur das einmalige


Werfen des idealen WUrfels zeigt Bild 4.1-2 die Einzelwahrscheinlichkei-
ten: Die Wahrscheinlichkeitsmasse 1 ist zu gleichen Teilen auf die Punkte
Xn = 1,2, ... ,6 verteilt.

P(X=x,,1

..1
6

---+---+---+---r---r---r--~-------~
2 3 4 5 6

Bild 4.1-2: Werfen eines idealen Wurfels, Einzelwahrscheinlichkeiten

Definition 4.1-4
Eine ZuJalisvariable X heiftt stetig, wenn eine integrierbare
Funktion

J(x) 2: 0 Vx E IR (4.1-5)
4.1 Verteilungsfunktion und Dichte 41

existiert, so dajJ sich die Verteilungsfunktion F(x) Vx E lR in der


Form

!
x

F(x) = f(u) du (4.1-6)


-00

schreiben liijJt. f (x) heijJt Dichte von X.

Bemerkung:
Da lim F(x) 1 gilt (Eigenschaft 2 einer Verteilungsfunktion), folgt
x-+oo
ftir f(x):

!
(Xl

f(x)dx = 1
-(Xl

f(x) gibt also an, wie die Wahrscheinlichkeitsmasse 1 tiber die x-Achse
verteilt ist.
Beispiele:

(i) Die Dichte

ftir x E [-11",11")
(4.1-7)
sonst

beschreibt eine Gleichverteilung tiber dem Intervall [-11",11"), siehe


Bild 4.1-3.
fix)

1
...----+-----,l1t
x
-1t
o 1t

Bild 4.1-3: Gleichverteilungsdichte tiber [-11",11")


42 4 ZuEallsvariablen

(ii) Durch

1
f(x) = -exp (X2)
-- (4.1-8)
..j21i 2

ist die Dichte der Standardnormalverteilung gegeben (Bild 4.1-4).

fix)

x
-4 -3 -2 -1 2 3 4
o
Bild 4.1-4: Dichte der Standardnormalverteilung N(Oj 1)

Die Verteilungsfunktion F(x) ist gemaB (4.1-6) eine Stammfunktion der


Dichte f(x) . Nach dem Hauptsatz der Differential- und Integralrechnung
ergibt sich daraus

j f(x) dx.
X2

P(XI < X ~ X2) = F(X2) - F(xd = (4.1-9)


Xl

Die Wahrscheinlichkeitdafiir, daB X einen Wert aus dem Intervall (Xl, X2]
annimmt, ist daher durch die Flache unter der Dichte iiber diesem In-
tervall gegeben. Insbesondere folgt bei stetigen Zufallsvariablen Vx:

P(X = x) = dx-+O
lim P(x < X ~ x+ ~x)

= lim Xj+dXf(X)dX
dx-+O

=0 (4.1-10)

Folgerung:
Fiir eine stetige Zufallsvariable X verschwinden aile Wahrscbeinlicbkei-
ten der Form P(X = x), obwobl die Ereignisse {~jX = x} nicht mit
dem unmoglichen Ereignis zusammenfaIlen miissen. Bild 4.1-5 zeigt die
4.1 VerteiJungsiunktion und Dichte 43

geometrische Deutung der Wahrscheinlichkeiten und des durch

P(x < X :::; x + dx) = dF(x) = f(x) dx (4.1-11)

definierten Wahrscheinlichkeitselements.
fIx)

<X~x+dx) = dF(x) = f(x)dx

P(X,<X~X2) = r
'.
f(x)dx

----------~~--~~~~~~~------- x

Bild 4.1-5: Wahrscheinlichkeit und Wahrscheinlichkeitselement

Mathematisch (wegen der fehlenden Stetigkeit/Integrierbarkeit der Dich-


te) nicht einwandfrei, aber fur Anwendungen oft nutzlich, schreibt man
fUr die "Dichte" einer diskreten Zufallsvariablen, deren Einzelwahrschein-
lichkeiten durch (4.1-4) gegeben sind, auch

00

f(x) = LP(X = x n )8(x - xn ) (4.1-12)


n=l

mit der in Anhang C diskutierten 8-Distribution [Pr095]. Damit kann


dann, zumindest formal, immer der Zusammenhang

dF(x) = f(x) (4.1-13)


dx

benutzt werden.
Stellt X eine diskrete Zufallsvariable dar, so ergibt sich fUr deren Ver-
teilungsfunktion immer eine Treppenfunktion.
44 4 Zufallsvariablen

Es gilt namlich

!
x

Fx(x) f(u) du
-00

!
x 00

I:P(X = xn)8(u - xn) du


-00 n=l
00
x

I:Pn !8(U- Xn)dU


n=l -00
'V

~l
1 fUr Xn ~ x
0 fur Xn >x
= I:
n:Xn::;X
Pn·

4.2 Funktionen von Zufallsvariablen


1st die Dichte einer Zufallsvariablen X bekannt, muB haufig die Dichte
der Zufallsvariablen Y = g(X) berechnet werden. Wenn 9 eine umkehr-
bar eindeutige Funktion ist, ist diese Aufgabe leicht zu erledigen. Wenn
das aber, wie z.B. bei Y = X 2 nicht der Fall ist, kann die Losung schon
etwas komplizierter aussehen.
Beispiele:

(i) Y = aX + b, a > 0 (4.2-1)

=? Fy(y) = P(Y ~ y) = P(aX + b ::; y)

=p(x~y:b)

(4.2-2)
4.2 Funktionen von Zufallsvariablen 45

Durch Differentiation nach y folgt hieraus

1
jy(y) = ~Ix
- b) .
(y-a- (4.2-3)

Mit Y = a X + J.l, a > 0, ergibt sich aus der standardnormalverteil-


ten Zufallsvariablen X die allgemeine N{J.lj ( 2 )-verteilte Zufallsva-
riable Y mit der Dichte

1
jy (y) = .jfffa exp -
- J.l)2) .
((y 2a2 (4.2-4)

(ii) Y = aX 3 + b, a > 0
Wie in (i) ist die hier durchgefiihrte Abbildung von X umkehr-
bar eindeutig. Es folgt

Fy(y) = P{Y ~ y) = P(aX 3 + b ~ y)

=P (X ~ ~) = Fx ( ~) ,
woraus sich durch Differentiation nach y ergibt:

jy(y) = 1 Ix (V y-b)
3aV (~)2 a

(iii) Y = aX 2 + b, a > 0 (4.2-5)

1m Gegensatz zu (i) und (ii) ist die Abbildung (4.2-5) nicht um-
kehrbar eindeutig (Bild 4.2-1).
46 4 Zufallsvariablen

--------~~------x
o 1

Bild 4.2-1: Die Funktion Y = ax 2 + b, a > 0

Hier gilt
Fy(y) = P(Y ~ y) = P(aX + b~ y)
2

=P(IXI~JY:b)
=P(-JY: b~ X ~ JY : b)
[FX (F.l)
= -Fx ( -F.l) 1 fUr y >b
(4.2-6)

o sonst

Durch Differentiation nach y ergibt sich

Jy(y) =

o sonst
(4.2-7)
4.3 Ubungsaufgaben 47

In Beispiel (iii) hat die Gleichung y = ax2 + b die beiden reellen Wurzeln

Xl = Y~ ~
----;;--a- und X2 = -Y ----;;--a- (4.2-8)

und die Dichte von Y = aX 2 + b laf3t sich mit g(x} = ax2 + b, dort wo
sie nicht verschwindet (y > b), schreiben als

wobei g' die erste Ableitung von 9 (nach x) ist und Xl sowie x2 gemaf3
(4.2-8) eingesetzt werden miissen.
Allgemein gilt: Wenn Xl, X2, .•• ,XN die reellen Wurzeln der Gleichung
y = g(x} sind, kann die Dichte der Zufallsvariablen Y = g(X) in der
Form

(4.2-9)

geschrieben werden, worin dann natiirlich die Xn; n = 1,2, ... , N; Funk-
tionen von y sind. Dabei ist selbstverstandlich der Definitionsbereich der
Funktion g(x} zu beachten.

4.3 Ubungsaufgaben

Aufgabe 4.1
Beim Werfen eines griinen und eines roten Wiirfels sollen die Wahr-
scheinlichkeiten fUr die Augensummen bestimrnt werden.

a} Man zeichne fUr die Zufallsvariable X, die jedern Wurfergebnis die


Augensumme zuordnet, die diskrete "Dichte".

b} Man berechne die Wahrscheinlichkeiten fUr die folgenden Ereig-


nisse und gebe jeweils eine geeignete Zufallsvariable an, urn die
Ereignisse zu beschreiben:

A = {Der rote Wiirfel zeigt eine I}


48 4 ZuEallsvariablen

B = {Der griine Wiirfel zeigt eine I}


C = {Beide Wiirfel zeigen diesel be Zahl}
c) Man iiberpriife, ob die Ereignisse A, B und C vollsUindig bzw.
paarweise unabhangig sind.

a) n= {(r,g);r,gE{I, ... ,6}} Inl = 36


X: n -t lR;
(r,g)-tr+g

A2 = {(I, In
1
IA21 = 1 P(X = 2) = 36

A3 = {(1,2),(2,1)}
2
I A 31 = 2 P(X = 3) = 36
A4 = {(I, 3), (3, 1), (2, 2n
3
I A 41 = 3 P(X = 4) = 36

As = {(2,3), (3,2), (1,4), (4, I)}


4
IAsl = 4 P(X = 5) = 36

A6 = {(3,3),(4,2),(2,4),(5,1),(1,5)}
5
I A 61 = 5 P(X = 6) = 36
A7 = {(3, 4), (4,3), (5,2), (2,5), (1,6), (6, In
6
I A 71 = 6 P(X = 7) = 36
As = {(4,4), (5,3), (3,5), (6,2), (2,6)}
5
lAs I = 5 P(X = 8) = -
36
4.3 Ubungsaufgaben 49

Ag = {(5, 4), (4,5), (6,3), (3, 6)}


4
IAgl =4 P(X =9) = 36

AlO = {(5, 5), (6,4), (4, 6)}


3
IAlOl = 3 P(X = 10) = 36
All = {(5, 6), (6, 5)}
2
IAlll = 2 P(X = 11) = 36
A12 = {(6,6)}
1
IA121 = 1 P(X = 12) = -
36

f(x)

6/36

5/36

4/36

3/36

2/36

1136
I I
2 3 4 5 6 7 8 9 10 II 12 x

Bild 4.3-1: Diskrete "Dichte" f(x)

b) A = {(I, 1), (1, 2), (1,3), (1,4), (1,5), (1, 6)}

Zufallsvariable R: n -t lR;
(r,g) -t r
6
P(A) = P(R = 1) = 36
50 4 Zufallsvariablen

11 = {(I,I),(2,I),(3,I),(4,I),(5,I),(6,I)}
Zufallsvariable G: n ---+ 1R;
(r,g) ---+ 9
6
P(11) = P(G = 1) = -
36

<7 = {(I,I),(2,2),(3,3),(4,4),(5,5),(6,6)}
Zufallsvariable Y: n ---+ 1R;
(r,g)---+r-g
6
P(<7) = P(Y = 0) = -36

c) P(A n 11) = P( {(I, I)}) = 316 = P(A) . P(11)

=> A unabhangig von 11


P(11 n (7) = P({(I, I)}) = 316 = P(11)· P(<7)

=> 11 unabhangig von <7


P(A n (7) = P({(I, I)}) = 316 = P(A)· P(<7)
=> A unabhangig von <7
=> paarweise unabhangig

P(A n 11 n (7) = P( {(I, I)})

= 316 =I P(A) . P(11) . P(<7)

1
=
6·6·6
=> nicht vollstandig unabhangig
4.3 Ubungsaufgaben 51

Aufgabe 4.2 [Bos95]

Die Zufallsvariable X besitze die Dichte fx(x) = ce- p1xl , p > 0.

a) Man bestimme den Koeffizienten c.

b) Man bestimme die Verteilungsfunktion Fx(x).

a) FUr eine Dichte mull gelten:


+00

f
-00
f(x) dx = 1 und f(x) > °"Ix.
Da die Dichte f symmetrisch zur y-Achse ist, gilt:
00

~= / f(x)dx
o
00

=/ ce- Px dx [B~TOl .:. => c = €.


p 2
o

[BS70):

fUr a > 0, n = 0,1,2, ...

b) x:S ° => f (x) = ~ ePX


x x

=> F(x) = ~ / ePu du = €. lim / ePudu


2b-+-00
-00 b

1 ] u=x
= €. lim [ - e Pu
2 b-+-oo p u=b

= €. lim
2 b-+-oo
[~ePx
p
- ~ e Pb ] = ~ e Px
p 2
52 4 Zufallsvariablen

x>O

I I I
x 0 x

F(x) = fx(u) du = fx(u) du + fx(u) du


-00 -00 0

=? F(x) = F(O) + I e.x


e- Pu du = -
1+ e. [1-- ] e- Pu
u=x

2 2 2 P u=o
o
= ~ - e. ~ (e - px - 1) = 1 _ ~ e - px
2 2 P 2

Damit gilt:

~{
1. ePx fur x :::; 0
2
F(x)
1 - 1.
2
e- Px fUr x >0

Aufgabe 4.3

a) Man zeige, daB durch

1 A
f(x) = :; V + (x _ 11,)2' A > 0,
eine Dichte gegeben ist.

b) Man berechne die Verteilungsfunktion F(x) der Zufallsvariablen


X, die f (x) als Dichte besitzt.

a) Es ist f(x) 2: 0 \Ix, das heiBt es muB nur gezeigt werden, daB

I
+00

f(x) dx =1 gilt.
-00
4.3 Ubungsaufgaben 53

If = -AI = -AI
+00 +00 +00

(x) dx 1 dx 1
-(X) 7r -(X) A2 + (x - p,)2 7r -(X) A2 [1 + (X>:IL) 2] dx
+00

= 7r\ -L [1 + (~)2] dx

Substitution: y = X>:IL, dy = d)..x

1
= ;:
I
+00

1
1 + y2 dy
-00

[BS70j
= 1
-[arctanyL = -1 [7r (7r)]
7r -2 - --
+00

7r 00 2
1
= -7r
7r = 1

I I [ + (U-
x x

b) Fx(x) = f(u) du = \
7rA 1
1
y)
2] du
-00 -(0)..

Substitution: y = u>:Y, dy = d;:


(X-IL)/)..
1
7r I
-00
_1_ dy
1 + y2
= .!.[arctanYl~-IL)/)..
7r 00

1 1
= - arctan((x - p,)/A) +-
7r 2

Dies ist die Verteilungsfunktion der Cauchy-Verteilung.


5 Kennwerte von
Zufallsvariablen

Die Beschreibung zufalliger Ereignisse durch Verteilungsfunktionen oder


Dichten erscheint haufig unhandlich. Insbesondere wenn man an der Be-
antwortung von Fragen wie z.B.

"Wie groB ist die mittlere Bitfehlerrate bei einer Richtfunk-


iibertragung?"
oder
"Welche durchschnittliche Lebenserwartung hat ein Mitteleu-
ropaer?"
interessiert ist. Diese Diskussion fiihrt auf die U ntersuchung der Momen-
te einer Zufallsvariablen.

5.1 Momente einer Zufallsvariablen


Definition 5.1-1
1m Faile seiner Existenz heijJt

!
00

E(X) = xf(x) dx (5.1-1)


-00

Erwartungswert oder auch Mittelwert der ZuJallsvariablen X.

Bemerkungen:

(i) Die Forderung nach der Existenz des Integrals in (5.1-1) ist wichtig.
Man kann z.B. zeigen, daB fUr eine Cauchy-verteilte Zufallsvariable

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
5.1 Momente einer ZuEallsvariablen 55

X, deren Dichte durch


1 >.
f(x) = :; >.2 + (X _ p)2 (>. > 0)

(vergleiche auch Aufgabe 4.3) gegeben ist, der Erwartungswert


nicht existiert ([Fis70], S.188ff.).
(ii) Benutzt man (4.1-12), ist die Erwartungswertbildung fUr diskrete
Zufallsvariablen als Spezialfall in (5.1-1) enthalten:
exl

E(X) / xf(x) dx
-exl

exl exl

/ x L P(X = xn)o(x - x n) dx
-exl n=l
exl exl

= L P(X = xn) / xo(x - xn) dx


n=l -exl

exl
(~3)
LXnPn (5.1-2)
n=l

Beispiele:

(i) X sei eine N(p; cr 2)-verteilte Zufallsvariable, d.h. ihre Dichte ist
nach (4.2-4)

1 ((X - p)2)
f(x) = ../2icr exp - 2cr2 .

exl

E(X) ~cr / xexp (- (x ~~)2) dx


-exl

exl

~cr / (cry + p) exp ( - y; ) cr dy


-exl
56 5 Kennwerte von Zufallsvariablen

= _1 (j
v'2i
100
yexp (_y2)
2
dy
-00
...
=0

+ J.L _1_
v'2i
1 00
exp (_ y2)
2
dy
-00
...
=1

=J.L

(ii) Der einmalige Wurf eines idealen Wiirfels ergibt die in Bild 4.1-
2 gezeigten Einzelwahrscheinlichkeiten. Damit erhiiJt man fUr den
Erwartungswert der Zufallsvariablen X, die das Wurfergebnis be-
schreibt, nach (5.1-2):
6 1 6

E(X) = LXnPn = (; Ln
n=l n=l

Definition 5.1-2
1m Falle seiner Existenz heiflt der Erwartungswert

I
00

E(Xk) = xk J(x) dx (5.1-3)


-00

das k-te Moment der ZuJallsvariablen X. Der Erwartungswert

E ([X - E(XW) =
-00
I
00

[x - E(X)]k J(x) dx (5.1-4)

ist das k-te zentrale Moment der ZuJallsvariablen X.

Bemerkung:
Von besonderer Bedeutung ist das durch
(5.1-5)
5.1 Momente einer Zufallsvariablen 57

gegebene zweite zentrale Moment. Es heiBt Varianz (oder auch Dis-


persion) der Zufallsvariablen X.

D(X) = viE ([X - E(X)]2)

ist die Standardabweichung der Zufallsvariablen X.


Beispiele:

(i) Varianz einer N(/-Li 0"2)-verteilten Zufallsvariablen:

. x - /-L
mlty= - -
0"

= -1-
y"i;i0"
100
0" 2 Y 2 (y2) O"dy
exp - -
2
-00

1
= 0" 2 y"i;i 1 00

Y 2 exp (y2)
- 2 dy
-00
...
=1 ([BS70])

(ii) Einmaliger Wurf eines idealen Wiirfels:

6 1 6
D2(x) = ~)Xn - E(X)]2Pn = 6 ~)n - 3~F
n=1 n=1

1
= 6[6,25 + 2,25 + 0,25 + 0,25 + 2,25 + 6,25]
1 35
= 6. 17 ,5 = 12
58 5 Kennwerte von Zufallsvariablen

Bemerkung:
Eine N(pj (72)-verteilte Zufallsvariable hat den Erwartungswert p und
die Varianz (72. 1hr k-tes zentrales Moment ist allgemein ([Pro95j, S.41):

falls k gerade
(5.1-6)
falls k ungerade

D.h.: Sind von einer Normalverteilung Mittelwert und Varianz be-


kannt, kennt man samtliche Momente dieser Verteilung.
1st Y = g(X) eine Funktion der Zufallsvariablen X (vergleiche Abschnitt
4.2), folgt fur deren Erwartungswert
00

E(Y) = E(g(X)) = / g(x)f(x) dx. (5.1-7)


-00

Fur diskrete Zufallsvariablen ergibt sich daraus mit (4.1-12) der Spezi-
alfall
00 00

E(Y) = L P(X = x n) / g(x)8(x - xn) dx


n=l -00

L
00

= g(xn)P(X = xn).
n=l

Eine Zufallsvariable mit dem Erwartungswert m = E(X) und der Vari-


anz (72 wird durch
X-m
Y=--
(7 (5.1-8)

in eine standardisierte Zufallsvariable Y, die den Erwartungswert 0 und


die Varianz 1 besitzt, transformiert.
Beispiel: Die oben genannte Transformation (5.1-8) angewendet auf
eine N(pj (72)-verteilte Zufallsvariable X liefert eine N(Oj l)-verteilte Zu-
fallsvariable Y.
Zum Abschluf3 dieses Abschnitts seien noch einige weitere Begriffe ge-
nannt. Dabei wird stets vorausgesetzt, daB die eventuell zur Erklarung
benotigten Erwartungswerte existieren:
5.1 Momente einer Zufallsvariablen 59

1. Ein Wert, flir den die Dichtefunktion f(x) ein lokales Maximum
annimmt, heiBt Modalwert der stetigen Zufallsvariablen X.

2. Einen Wert xp, der den Ungleichungen

P(X < xp) ::; p, P(X > xp) ::; 1 - p (0 < p < 1) (5.1-9)

genugt, nennen wir p-tes Quantil.


1st X eine stetige Zufallsvariable, ist ein p-tes Quantil ein Wert xp,
fur den

gilt. Es kann vorkommen, daB xp nicht eindeutig ist. Dann existie-


ren mehrere Werte xp, mit denen die Ungleichungen (5.1-9) erfullt
sind.
Ein Quantil der Ordnung p = ~ heiBt Median der Zufallsvariablen
X.
Die Lage von Erwartungswert, Modalwert und Median zueinander
zeigt Bild 5.1-1 fur ein Beispiel. Diese drei Werte fallen bei zum
Erwartungswert symmetrischen Verteilungen (z.B. Normalvertei-
lung) zusammen.

fix)

Bild 5.1-1: Lage von Erwartungswert, Modalwert und Median

3. Der Erwartungswert von Y = IX - E(XW heiBt absolutes zen-


trales Moment k-ter Ordnung.
60 5 Kennwerte von Zufallsvariablen

5.2 Charakteristische Funktion


Definition 5.2-1
Der Erwartungswert

cp(s) := E(e jsx ), s E IR (5.2-1)

heijJt charakteristische Funktion der ZuJalisvariablen X.


Bemerkungen:

(i) Y = e jsX ist eine Funktion der Zufallsvariablen X. Mit (5.1-7)


ergibt sich daraus

1
00

cp(s) = ejsx f(x) dx. (5.2-2)


-00

Zwischen der Fourierrucktransformierten der Dichte J(x) (siehe


Anhang B) und cp(s) gibt es eine beachtenswerte Ahnlichkeit, aus
der folgt

11'
00

f(x) = 27r cp(s)e- JSx ds. (5.2-3)


-00

(ii) Fur diskrete Zufallsvariablen folgt aus (4.1-12):

= L ejsxn P(X = x n )
00

cp(s) (5.2-4)
n=l

Beispiel: X sei N(Oj l)-verteilt.

cp(s) = _1_1
,j'i;
00

ejsx exp (_ x2) dx


2
-00

~1
00

= exp (jSX - x22) dx


-00

(quadratische Erganzung)
5.2 Charakteristische Funktion 61

S2) 1
= exp ( - "2..,fIif 100

exp ((X-
-
j
2 S)2) dx
-00

~---------v~--------~
=1 ([8870])

Fur die N(p,; 0-2)-verteilte Zufallsvariable

Y = o-X + P,
folgt daraus:

cpy(s) = E [ejS(UX+ILJ] = E [ejsuXejSIL]

= e jslL E [e jSUX ] = ejslLcpx(o-s)

=e jSIL exp ((o-S)2)


--- (5.2-5)
2

Satz 5.2-1
Existiert das k-te Moment der ZuJallsvariablen X, ist es durch

cp(kJ (0)
E(Xk) = .k ' (k = 1,2, ... ) (5.2-6)
J
gegeben.

Beweis: Es ist

I
00

cp(s) = e jsx J(x) dx.


-00

k-maliges Differenzieren nach s liefert:

-00
62 5 Kennwerte von ZuEallsvariablen

und das letzte Integral existiert, da das k-te Moment von X existiert.
Flir s = 0 folgt:
cp(k) (0) = (j)k E(Xk)
Beispiel: X sei N(J.Li (72)-verteilt.

(5.2-5) (. (72s2)
cp(s) = exp JSJ.L - -2-

cp'(s) = [jJ.L - (72s] exp (jSJ.L _ (7~s2)


E(X) = cp'~O) = J.L
J

Bemerkung:
Aus (5.2-6) folgt (bei vorausgesetzter Existenz) flir die Varianz von X

D2(X) = cp'~~O) _ (<p'jO») 2

= -<p"(0) + [<p'(0)]2 .
1st X eine diskrete Zufallsvariable, die nur nichtnegative ganzzahlige
Werte annimmt, folgt aus (5.2-4)

=L
00

<p(s) (e js ( P(X = n),


n=O

d.h. cp( s) ist eine Potenzreihe in z = e js .


Definition 5.2-2
1st X eine ZuJallsvariable, die nur nichtnegative ganzzahlige Wer-
te n (n = 0,1,2, ... ) annimmt, heiflt

L
00

1j;(z) = E{zx} = znp(X = n) (5.2-7)


n=O

(z E C, Izl ~ 1)
die erzeugende Funktion von X.
5.3 Ubungsau[gaben 63

Bemerkung:
Wegen 1jJ(1} = L~=o P(X = n} = 1 konvergiert 1jJ(z} fUr Izl ::; 1 absolut
und gleichmaBig. 1jJ( z} ist stetig. Die F'unktion 1jJ( z} bestimmt in eindeu-
tiger Weise die Verteilung von X, d.h. die Werte P(X = n}, da sie sich
nur auf genau eine Weise als Potenzreihe darstellen laBt.
Existiert das k-te Moment von X, laBt es sich mit Hilfe der Ableitungen
der Funktion 1jJ(z} bis zur Ordnung k bestimmen.

5.3 Ubungsaufgaben

Aufgabe 5.1

Bei einem verfalschten Wtirfel besitzt die Zufallsvariable X der Augen-


zahlen folgende Verteilung:

Augenzahl Xn II 1 2 3 4 5 6

P(X = xn} II 0,1 0,15 0,2 0,1 0,15 0,3

a} Man trage die Einzelwahrscheinlichkeiten tiber den Augenzahlen


Xn auf.

b} Man zeichne die Verteilungsfunktion von X.

c} Man berechne den Erwartungswert E(X}, den Median und die


Varianz D2(X} von X.

a},b} Einzelwahrscheinlichkeiten als F'unktion der Xn und Verteilungs-


funktion von X.
64 5 Kennwerte von Zufallsvariablen
P(X = Xn)
0,3

0.2

0,1

4 6
Xn

Fx(x)

0,9

0,8

0,7

0,6

0,5

0,4

0.3
0,25
0,2

0,1

Xn
4

Bild 5.3-1: Einzelwahrscheinlichkeiten und Verteilungsfunktion

(5,1-2) 6
c) • E(X) = L xnP(X = xn)
n=1

~ E(X) = 1 . 0, 1 + 2 . 0, 15 + 3 . 0,2 + 4 . 0, 1 + 5 . 0, 15
+6 . 0,3 = 3,95

• Median: P(X < xp) ::; Pi P(X > xp) ::; 1 - P,P = ~
P(X < 4) = P(X ::; 3) = 0,45::; 0,5
P(X > 4) = 1 - P(X ::; 4) = 1 - 0,55 = 0,45 ::; 0,5
Xl = 4
D~r Median ist in diesem Fall eindeutig .

• D2(x) (5;!;5) E([X - E(X)j2)


5.3 Ubungsaufgaben 65

6
E([X - E(X)]2) = 2:(X n - E(X))2 P(X = Xn)
n=l

= (-2,95)2·0,1 + (-1,95)2
. 0, 15 + (-0,95)2 . 0,2
+ (0,05)2 ·0,1 + (1,05)2
·0,15 + (2,05)2 ·0,3
= 3,0475

Aufgabe 5.2

Man zeige fiir eine stetige Zufallsvariable X, fiir die die ersten beiden
Momente existieren, und Y = aX + b mit a, b E IR folgende Beziehungen:

a) E(Y) = aE(X) +b
b) D2(y) = a2D2(X)

c) D2(X) = E(X2) - E2(X)

a) E(Y) = E(aX + b) (5.~7) !00

-00
(ax + b)f(x) dx

!
00

= (axf(x) + bf(x)) dx
-00

! !
00 00

= a· xf(x) dx + b· f(x) dx
-00 -00
"---v---"
=1
66 5 Kennwerte von ZuEallsvariablen

Da E(X) existiert, gilt:

E(Y) = a· E(X) +b

b) D2(y) = D2(aX + b)
(5.~5)
E ([aX + b - E(aX + bW)
':l E ([aX + b - aE(X) - b]2)
= E ([a(X - E(X)W)
= E (a 2(X - E(X»2)
':l a2E[(X - E(X»2] = a2D2(X)

c) D2(X) (5.~5) E ([X - E(X)J2)

= E (X2 - 2E(X)X + E2(X») = E (g(X»

Definit~n 5.1-1 ! 00

(x 2 _ 2E(X)x + E2(X») . f(x) dx


-00

! !
00 00

= x 2f(x) dx - 2E(X)xf(x) dx
-00 -00

!
00

+ E2(X)f(x) dx
-00

!
00

+ E2(X)·

------
= E(X2) - 2E(X)E(X) f(x) dx
-00

=1
5.3 Ubungsaufgaben 67

Aufgabe 5.3

Gegeben sei die rayleighverteilte Zufallsvariable R mit der Dichte

exp (;;:) fUr r 20

o sonst.

a) Man berechne die Verteilungsfunktion von R.

b) Man berechne den Erwartungswert E(R) von R.

c) Man berechne die Varianz D2(R) von R.

a) FR(r) = 0 fur r < O.


Fur r 2 0 gilt:

FR(r) = fr .!...exp {_~} dt


(12 2(12
= [-exp {_~}]r
2(12
o 0

= l-exp{-~}
2(12

__ oo FR(r) = 1 und, weil fR(r) 2 0 'tIr gilt, ist fR(r) eine


Wegen r lim
Dichte. Die Verteilungsfunktion der Rayleigh-Verteilung lautet:

fur r 20
sonst
68 5 Kennwerte von Zufallsvariablen

! ! :: {-;;2}
00 00

b) E(R) = rfR(r)dr = exp dr


-00 0

!
00

[BS70]: xn exp {-ax 2 } dx =


o

_
1·3· ... ·(2k-1).,Iii'
2k+lak+O.5
flir n gerade (n = 2k)
{
2at~1 flir n ungerade (n = 2k + 1)

E(R) -
-
~
(J"2
ft
22( 1 )1+0.5
2U2

!
00

c) E(R2) = r2 fR(r) dr
-00

1 1
(J"2 2( 1 )2
~

Mit Aufgabe 5.2:


5.3 Ubungsaufgaben 69

Aufgabe 5.4

Gegeben sei die diskrete, poissonverteilte Zufallsvariable X, die die Werte


K = 0,1,2, ... mit den Wahrscheinlichkeiten

,XK \
P(X = K) = - e- A ,'x> 0
K!

annimmt.

a) Man berechne die charakteristische Funktion <p(s) der Poissonver-


teilung.

b) Man berechne mit Hilfe von <p(s) den Erwartungswert E(X) und
die Varianz D2(X).

=L
00

a) <p(s) ejsK P(X = K)


K=O

+00 K
wegen L ~! = eX fur Ixl < 00
K=O

= e- A exp {'xe jS }

= exp {A(e js - I)}


70 5 Kennwerte von Zufa11svariablen

b) Mit Gleichung (5.2-6) ergibt sich:

E(X) = cp(l).(O)
J

E(X)
\ . js. ,X( e
= AJe e.
js - 1) I
J s=o
= ,Xj =,X
j

Mit Aufgabe 5.2:

D2(X) = E(X2) - E2(X)

E(X2) = cp(2~2(0)
J
E(X2) = (-1) . (,Xj 2ejS • exp {.A(e jS - I)} + (,Xje j8 )2
. exp {'x(e j8 - I)}) 18=0
= (-1)· (-,X + (j,X)2)
= ,X2 + ,X

D2(X) = E(X2) - E2(X)


= ,X2 + ,X - ,X2 = ,X

Aufgabe 5.5
Gegeben sei die rayleighverteilte Zufallsvariable R aus Aufgabe 5.3.

a) Man berechne die Dichte der Zufallsvariablen X, die


durch X = ~ gegeben ist.
b) Man berechne die charakteristische Funktion von X.
c) Man berechne Erwartungswert und Varianz von X.
5.3 Ubungsaufgaben 71

a) Anwendung von (4.2-9) ergibt:

R2
x g(R) = -·a
22
R
g'(R) = a2
Wurzeln: rl = +V2a 2x r2 = -V2a 2x

fx(x)
fn(rd + fn(r2)
Ig'(rdl Ig'(r2)1
~
=0 da r2<0

v'2u 2 x exp {_ """2(T2


--;;:r- 2u 2 x }
= v'2u 2 x
---;yr-

=
fur x ~ 0
:::::} fx(x) =
sonst

! !
00 00

b) cp(s) e jsx . e- x dx = e-X(cos(sx) +j sin(sx)) dx


o 0

! !
00 00

= e- x cos(sx) dx +j e- x sin(sx) dx
o 0

[ e-x 2 (_ cos(sx) + S sin(sx))] 00


l+s 0

x
+j [ e- 2 (- sin(sx) _ s COS(Sx))] 00
l+s 0

1~ls2(-1)+j (1~ls2(-S))
1 + js 1 + js 1
1 + s2 (1 + js)(l - js) 1- js
72 5 Kennwerte von Zufallsvariablen

cp(l) (O)
c) E{X)
J
= J
(I - jS)2j
I8=0 = 1

cp(2) (O)
E{X2) = -2 I =2
j2 (I - js)3 j2 8=0
D2{X) = E{X2) - E2{X) = 2 - 1 = 1

Aufgabe 5.6

Die Zufallsvariable X sei normalverteilt mit Erwartungswert J.l und Va-


rianz (72.

a) Man berechne die Dichte von Y = X2.

b) Man berechne den Erwartungswert E{Y) von Y.

a) Mit der Formel (4.2-9) ergibt sich:

Y = g{X) = X2 g'{X) = 2X Y~0

Wurzeln: Xl = VY X2 = - VY
5.3 Ubungsau[gaben 73

1 (-(Y+1-L 2))
= J27rYO' exp 20'2
. ~2 [exp (2JYI-L)
20'2 + exp (_ 2JYI-L)]
20'2

=
1
J27rYO' exp
(-(y20'2+ 1-L2)) cosh (JYI-L)
7
fur y 2: 0

Fur y < 0 verschwindet Jy (y).

Dies ist die Dichte einer nichtzentralen XI- Verteilung (vergleiche


Abschnitt 7.7).

00

b) E(Y) = / yJy(y) dy
-00

00 y [ (_(JY-I-L)2)
= /
2y'27rYO' exp 20'2
o
*
74 5 Kennwerte von Zufallsvariablen

Substitution: z = y'y =f J.L (z ± J.L)2 =Y = 2(z ± J.L)

[1
~ 2vha 2(Z + p)' exp { - ;;, } dz
+
+1'
1 2(Z - J.L)2exp {- ;;2 } dZ]

Substitution im vierten Integral: v = -z ~~ = -1

=lz.a [[(" + 2zp + p') exp { - ;;, } d,

I
00

+ (Z2 - 2zJ.L + J.L2) exp { - 2~2 } dz

1(z
o

+ + p)'exp {- ;;, } dz + 1(-V - p)'exp {- ;;, } dV]


5.3 Ubungsaufgaben 75

_1 [2/
~a
00

o
z2exp {_~}
2a
dz
2

+2 / 2:
00

p2 exp { - 2 } dz
o

2:
o
+/ (z + p)2 exp { - 2 } dz
-/.1
6 Spezielle "Wahrscheinlich-
keitsverteilungen

In der Wahrscheinlichkeitstheorie treten bestimmte Verteilungen immer


wieder auf, da sie sich als Modelle realer Zufallserscheinungen bewahrt
haben. Die wichtigsten und bekanntesten dieser Verteilungen wollen wir
im folgenden kennenlernen. Die Grundbegriffe aus der Kombinatorik sind
im Anhang A zusammengestellt.

6.1 Die Zweipunktverteilung


Die Zufallsvariable X besitzt eine Zweipunktverteilung, wenn sie genau
zwei Werte Xl und X2 (X2 < xd mit positiver Wahrscheinlichkeit an-
nehmen kann. Eine andere Bezeichnung fUr die Zweipunktverteilung ist
Binarverteilung. Insbesondere ergibt sich fUr Xl = 1, X2 = 0 die Null-
Eins-Verteilung.

Modell: Es wird ein Versuch ausgefUhrt, bei dem entweder das Ereignis
A = {X = xI} oder A = {X = X2} eintritt.

Wahrscheinlichkeitsverteilung:

P(A) = P(X = xd = p

P(A) = P(X = X2) = 1- p

~
0 fur x < X2
F(x) { 1-p fur X2 ~ x < Xl

1 fur x ~ Xl

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
6.2 Die Binomialverteilung 77

E(X) = XIP + x2(1 - p)


D2(X) = (Xl - x2)2p(1 - p)

Beispiele:

(i) MUnzwurf

(ii) Ein Radargerat detektiert nach Absenden eines Impulses mit Wahr-
scheinlichkeit p ein Echo.

6.2 Die Binomialverteilung

Modell: Grundlage der Binomialverteilungist das Bernoullische Ver-


suchsschema:
Es werden N voneinander unabhangige, sonst jedoch identi-
sche Versuche mit jeweils zwei Ausgangen (A, "A) durchgefUhrt
mit

P(A) =p (0 < p < 1).

Wir betrachten die diskrete Zufallsvariable XN, die die Anzahl


der Versuche (von insgesamt N), in denen A eintritt, zahlt. XN
kann also die Werte n = 0,1, ... ,N annehmen.

Sonderfall:
FUr N = 1 ist Xl null-eins-verteilt.
Wahrscheinlichkeitsverteilung:
Gesucht ist P(XN = K), 0 ~ K ~ N. Da die Versuche im Bernoul-
li Schema unabhangig voneinander durchgefiihrt werden, tritt, wenn
XN = Kist, A genau K-mal und if genau (N - K)-mal auf, d.h. wenn
man die Anzahl der moglichen Kombinationen (ohne Wiederholung!)
78 6 SpezieJle Wahrscheinlichkeitsverteilungen

beriicksichtigt, folgt:

P(XN = K) = (Z)pK(l- p)N-K (6.2-1)

F(x) =L (Z)pK (1 - p)N-K (6.2-2)


K,!:x

E(X N ) = Np
D2(XN) = Np(l - p)

<p(s) = [1 + p(eis - 1)(


Beispiel: Bei der Ubertragung eines 8-bit-Wortes (Byte) wird jedes
Bit mit Wahrscheinlichkeit 0,2 falsch empfangen. Die Ubertragung der
einzelnen Bits erfolgt unabhangig voneinander:

(a) Wie groB ist die Wahrscheinlichkeit dafiir, daB das ganze Byte kor-
rekt iibertragen wird?
(b) Wie groB ist die Wahrscheinlichkeit fiir das Auftreten von genau 2
Bitfehlern ?
(c) Wie groB ist die Wahrscheinlichkeitfiir das Auftreten von hochstens
2 Bitfehlern?
(d) Wie groB ist die Wahrscheinlichkeit fiir das Auftreten von min de-
stens 2 Bitfehlern?

Es ist:

P(X8 = 0) = (~) 0, 2°(1 - 0,2)8 = 0, 88 ~ 0,168

P(X8 = 1) = G)0,2 1 (1- 0,2)7 = 8.0,2.0,87


~ 0,336

P(X8 = 2) = G)o, 22(1- 0,2)6 = 28.0,22 .0,86


~ 0,294
6.2 Die Binomialverteilung 79

(a) P(Xs = 0) ~ 0,168


(b) P(Xs = 2) ~ 0,294
(c) P(Xs :S 2) P(Xs = 0) + P(Xs = 1) + P(Xs = 2)
~ 0, 168 + 0,336 + 0, 294 = 0,798
(d) P(Xs :::: 2) 1- P(Xs < 2)
1 - P(Xs = 0) - P(Xs = 1)
~ 1- 0, 168 - 0,336 = 0,496
(vergleiche auch Bild 6.2-1)

P(X,=k)

0,336
0,294

0,168
0147

0,~6
I 0,009
------+--;---+--;---+-~~-.--.---._-k

° 2 3 4 5 6 8

Bild 6.2-1: Beispiel zur Binomialverteilung (p = 0,2), gerundete Werte

Bemerkungen:

(i) N und p sind die Parameter der Binomialverteilung.


(ii) Die absolute Haufigkeit X N = hN(A) eines Ereignisses A mit
p = P(A) in N unabhangigen Wiederholungen eines Zufallsex-
periments unterliegt einer Binomialverteilung mit den Parametern
N und p:

Fur die relative Haufigkeit HN(A) = khN(A) gilt also, wenn sie
als Zufallsvariable interpretiert wird,
E(HN(A)) = p = P(A)
D2(HN(A)) = p(1 - p) .
N
80 6 Spezielle Wahrscheinlichkeitsverteilungen

6.3 Die Polynomialverteilung


Modell: Ein Versuch werde N-mal wiederholt. Ais Ergebnis jedes Ver-
suchs kann eines der paarweise einander ausschlieBenden Er-
eignisse Aj (j = 1,2, ... ,r + I) mit der Wahrscheinlichkeit
Pj = P(A j }, wobei Pl + P2 + ... + Pr+l = 1 gilt, eintreten.

Wir betrachten die vektorwertige (vergleiche Kapitel 7), diskrete Zufalls-


variable (Xl, X 2 , ... ,Xr+d T , wobei Xj = K j bedeutet, daB Aj genau
Kj-mal eintritt. Dann gilt fUr die
Wahrscheinlichkeitsverteilung:

N! K, K2 K r +1
I K I
K 1·· K I · Pl P2 ... Pr+l (6.3-1)
2···· r+l·

wobei Kl + K2 + ... + Kr+l = N ist.


(6.3-1) gibt also die Wahrscheinlichkeit dafUr, daB Al genau Kl-mal, A2
genau K 2 -mal, ... , Ar+l genau Kr+l-mal auftritt, an.
Fur die Zufallsvariablen Xl, X 2, ... ,Xr+ 1 folgt immer

d.h. man kann

schreiben. (6.3-1) kann damit auch in der Form

P(Xl = K l ,X2 = K 2, ... ,Xr = K r ) =

N! K, K2 Kr N-K
= K l ! ... Kr!(N - K}! . Pl P2 ... Pr q (6.3-2)

dargestellt werden, wobei

K = Kl + K2 + ... + K r , q = 1 - Pl - P2 - ... - Pr gilt.


6.4 Die Poissonverteilung 81

6.4 Die Poissonverteilung

Die Poissonsche Verteilung kann aus der Binomialverteilung hergeleitet


werden. Dieses besagt der folgende 1837 von Poisson bewiesene

Satz 6.4-1 [Fis70]

Die diskrete Zufallsvariable XN habe die durch (6.2-1)

gegebene Binomialverteilung. Gilt mit der Konstanten ,X > 0 fur


N = 1,2,3, ... die Beziehung

,X
p= N' (6.4-1)

dann ist

(6.4-2)

Beweis: (6.4-1) in (6.2-1) eingesetzt, liefert:

N! (,X)K( ,X)N-K
P(XN = K) = K!(N _ K)! N 1- N

= ,XK ( _ ~)N N(N -1)··· (N - K + 1)


K! 1 N NK
1
(1- ~(
= ,XK (1- ~)N 1· (1- -k) ... (1- ¥)
K! N (1- ~(

Beachtet man nun, daB der dritte Faktor auf der rechten Seite dieser
82 6 Spezielle Wahrscheinlichkeitsverteilungen

Gleichung fiir N ~ 00 gegen 1 konvergiert und daB

lim (1-
N-too
~)N
N
= e-A
gilt, folgt (6.4-2).
Definition 6.4-1
Eine Zu/allsvariable X, die die Werte K = 0,1,2, ... mit den
Wahrscheinlichkeiten (6.4-2)
>.K
P(X = K) = K!e- A (>. > 0)
annimmt, ist mit dem Parameter>' poissonverteilt.
Bemerkung:
Es gilt fiir die Zufallsvariable X aus Definition 6.4-1 :
E(X) = >., D2(X) = >., ip(s) = exp(>.(e j8 - 1))

Bild 6.4-1(a) stellt die Binomialverteilung fiir N = 5 und p = 0,3 (also


>. = N p = 1,5) und die Wahrscheinlichkeitsverteilung einer poisson-
verteilten Zufallsvariablen mit demselben Mittelwert >. = 1,5 dar. Bild
6.4-1 (b) zeigt graphische Darstellungen der entsprechenden Wahrschein-
lichkeitsverteilungen fiir N = 10, p = 0,15 (also wieder>' = 1,5).

-~ BiiOliilloMrtliUlg
... ... ~ .•• .- -I'I*Ioi'1/IItIIwIg

~1 ~1

o 1 Z J 4 5 I 1 • t 10 r o 1 2 3 4 5 • 1 • t 10 r
(al N=5; p=O.3 (bl N=10; p=O.15

Bild 6.4-1 : Approximation der Poissonverteilung durch die Binomialver-


teilung (nach [Fis70])
6.4 Die Poissonverteilung 83

Mit wachsendem N (bei konstantem ,X) werden die graphischen Darstel-


lungen von Binomial- und Poissonverteilung einander immer ahnlicher.
Haufig wird die Poissonverteilung als Verteilung einer Zufallsvariablen
interpretiert, die wohl viele verschiedene Werte (N ist groB), aber mit
ft
kleinen Wahrscheinlichkeiten (p = ist klein) annimmt.
Beispiel [Bey95): Die Zufallsvariable X gebe die Anzahl der kriti-
schen Temperaturuberschreitungen in einem chemischen Reaktor fUr ein
bestimmtes Zeitintervall an. Aus Erfahrung ist bekannt, daB die durch-
schnittliche Anzahl solcher Temperaturuberschreitungen 5 ist. Wenn X 2:
10 wird, werden zusatzliche UberwachungsmaBnahmen eingeleitet. Wie
groB ist P(X 2: 10), wenn angenommen werden darf, daB X poissonver-
teilt ist?
X kann als poissonverteilt mit E(X) = 5 angenommen werden.

9
::;. P(X 2: 10) =1- P(X ~ 9) =1- L P(X = k)
k=O

(vergleiche Bild 6.4-2)


I PIX-I)
0 O.llO6737.
1 0.033e8t7
2 0,0142243
3 0,1403131
0,1154$73
,
4
P(X=K) 5 O,I754t13
0.2 0.14Q221
7 0,1044448
A=5
,• 0.0152110
O,03626SS
0.01.1321
0.1 10

k
o 1 2 3 4 5 6 7 8 9 10 11 12

Bild 6.4-2: X poissonverteilt mit ,X = 5


84 6 Spezielle Wahrscheinlichkeitsverteilungen

Bemerkung:
Die Einzelwahrscheinlichkeiten PK = P(X = K} einer poissonverteilten
Zufallsvariablen X geniigen der Rekursion
-,\
Po = e
A
PK = KPK-1 K = 1,2, ....

6.5 Die Hypergeometrische Verteilung


Modell: In einer Urne liegen M schwarze und N - M weiBe Kugeln. Der
Urne werden zufallig n Kugeln entnommen. Die diskrete Zu-
falls variable X beschreibe die Anzahl der gezogenen schwarzen
Kugeln. Es folgt (vergleiche Abschnitt 2.2)

(6.5-1)

Definition 6.5-1
Eine ZuJallsvariable X mit Einzelwahrscheinlichkeiten nach (6.5-1)
unterliegt einer hypergeometrischen Verteilung.

Beispiele:

(i) Sie spielen Lotto. Wie groB ist die Wahrscheinlichkeit, daB Sie bei
einer Auswahl von 6 aus 49 Zahlen genau 4 Richtige haben?

Hier gilt: M = 6, N = 49, N - M = 43, n = 6, k = 4, also

P(X = 4) = (~l~r) ~ 0,0009686.

(ii) In einem Supermarktregal stehen 100 Erbsendosen. In 10 dieser


Dosen befindet sich eine tote Maus. Sie kaufen 5 Dosen. Wie groB
ist die Wahrscheinlichkeit dafiir, daB Sie in hOchstens einer Ihrer
Dosen eine tote Maus finden?
6.5 Die Hypergeometrische Verteilung 85

Bier gilt: M = 10, N = 100, n = 5


:::} P(X ::; 1) = P(X = 0) + P(X = 1)
_ COO) (95°) (\0) e40)
- C~O) + C~O)
~ 0,5838 + 0,3394 = 0,9232.

Fur eine Zufallsvariable X, die eine hypergeometrische Verteilung be-


sitzt, gilt:

E(X) =nM D2(X) = nM(N - M)(N - n)


N' N2(N - 1)
([Kre79], 8.120ff.)

Satz 6.5-1

Fur eine mit den Parametern n, M, N - M hypergeometrisch ver-


teilte Zufallsvariable X gilt fur p = ~ und festes n:

fur k = 0,1, ... ,n

Das heipt, dap fur grope N (Faustregel: N < 0,05) die hypergeo-
metrische Verteilung niiherungsweise der Binomialverteilung mit
den Parametern p = ~ und n entspricht.
Beweis:
Fur festes n und k gilt namlich
86 6 Spezielle Wahrscheinlichkeitsverteilungen
M(M - l)(M - 2) ... (M - k + 1)
kl
+ 1)
N(N - l)(N - 2~ ... (N - n
n.
(N - M)(N - M - 1)··· (N - M - n + k + 1)
(n - k)!
n! M(M - 1) ... (M - k + 1)
k!(n - k)! . N(N - 1)··· (N - k + 1)··· (N - n + 1)
·(N - M)(N - M - 1) ... (N - M - n + k + 1).

Zahler und Nenner dieses Bruches besitzen jeweils n Faktoren.


Dividiert man im Zahler und Nenner jeden Faktor durch N, so ergibt
sich daraus wegen

n! (n)
k!(n - k)! k'

(das Verha.J.tnis ~ bleibt auch fur sehr grofie N und M gleich)


und mit 1 - ~ = q die Identitat

Da im Zahler und Nenner jeweils n Faktoren stehen, und n bei der


Grenzwertbildung konstant bleibt, folgt fur N -+ 00

lim P(X = k) = (n)pkqn-k .


mIt p
M
= N' q =1-
M

N--+oo k
6.6 Die (stetige) Gleichverteilung 87

6.6 Die (stetige) Gleichverteilung


Definition 6.6-1
Eine stetige ZuJallsvariable X mit der Dichte

-1b fur a <x <b


J(x) = { -a -
o sonst

heiflt gleichverteilt uber dem Intervall [a,b).


Ftir die Verteilungsfunktion einer tiber [a, b) gleichverteilten Zufallsva-
riablen X folgt:

0 flir x < a
F(x) = { ~=: flira:Sx<b (6.6-1)
1 flirx2:b
00 b

E(X) = j xJ(x)dx =j xb ~ a dx
-00 a

1 1
.b a2
2 -
=-
b- a 2
= -(a+b)
2
(6.6-2)

b
E(X2) = jX2_1_ dx = _1_. b3 - a3
b-a b-a 3
a

D2(X) = E(X2) - E2(X)

=-_.
1 b3 - a3 (a + b)2
b- a 3 4
4(b3 - a3 ) - 3(b - a)(a 2 + 2ab + b2)
= ~----~~--~~------~
12(b - a)
4b 3 - 4a 3 - 3a2b - 6ab 2 - 3b3 + 3a 3 + 6a 2b + 3ab 2
=
12(b - a)
b3 - a 3 + 3a 2b - 3ab2 (b - a)3 (b - a)2
12(b - a) 12(b - a) 12
88 6 Spezielle Wahrscheinlichkeitsverteilungen

_ {. [~]} sin { s b; a} _ e e jsb _ jsa


<p( s) - exp J 8 2 b- a - . (b - a )
J8
8 --
2

Beispiel [Jon91]:
Ein Analog-Digital-(A/D)-Wandler setzt analoge in digit ale Signale urn.
Die Werte des digitalen Signals entsprechen irn allgerneinen nicht rnehr
denen des analogen Signals, es tritt ein Quantisierungsfehler auf (Bild
6.6-1). Wir nehrnen an, daB der Quantisierungsfehler X fiber der Hohe
q der Quantisierungsstufe gleichverteilt ist. Wie groB ist die Varianz des
Quantisierungsfehlers?

OIl
DID
,.... / : \ --I~t!-
DOl
/::\ /: \
-c,,-tiV~~~\'-I~~~~~\-""-''-''~: t
"I"0
000
:/ Y :
. :/: N 101
~ 100

Kennlinie Ouantisierungsfehler

Bild 6.6-1: AID-Wandler

Hier ist b - a = q =} D2(X) = U.2

Bild 6.6-2 zeigt Dichte und Verteilungsfunktion einer fiber [a, b) gleich-
verteilten Zufallsvariablen.
fIx) F(x)

1
boa
---r----r-----~-------x ---+----,~----_r-----x
a b a b

Bild 6.6-2: Dichte und Verteilungsfunktion einer fiber [a, b) gleichverteil-


ten Zufallsvariablen
6.7 Die Exponentialverteilung 89

6.7 Die Exponentialverteilung


Definition 6.7-1
Eine Zufallsvariable X mit der Dichte

0 fur x <0
f(x) = { - ,oX> 0 (6.7-1)
oXe-'xx fur x >0

heijJt exponentialverteilt mit dem Parameter oX.

Flir die Verteilungsfunktion einer exponentialverteilten Zufallsvariablen


X folgt:

o
F(x) ~{ flir x :::; 0
flir x> 0
(6.7-2)

E(X) =~ (6.7-3)

D2(X) = :2 (6.7-4)

1
cp(s) = --. [Fis70j, S. 183f.
1- JS
oX

Beispiel: Die Zeit, die eine Tochter zum wochentlichen Telefongesprach


mit ihrer Mutter benotigt, betragt im Mittel 15 min. Die Gesprachsdauer
unterliege einer Exponentialverteilung. Wie groB ist die Wahrscheinlich-
keit daflir, daB ein Gesprach langer als 20 min dauert?

Mit E(X) = ~ = 15 folgt, weil X stetig ist:

P(X 2:: 20) =1- P(X :::; 20) =1- F(20)

= exp ( - ~~) = exp ( - ~) ~ 0, 264


Bild 6.7-1 zeigt Dichte und Verteilungsfunktion einer mit dem Parameter
oX > 0 exponentialverteilten Zufallsvariablen X.
90 6 Spezielle Wahrscheinlichkeitsverteilungen
fIx) FIx)
A 1 .................................... .

--+-------~~~==--x --~-------------------x

Bild 6.7-1: Dichte und Verteilungsfunktion einer exponentialverteilten


Zufallsvariablen (schematisch)

6.S Die N ormalverteilung


Definition 6.8-1
Eine ZuJallsvariable X ist normalverteilt (gauBverteilt), wenn
ihre Dichte durch

1 ((X - J.L)2) > 0, (6.8-1)


f(x) = ..;2ii0' exp - 20'2 ' 0'

gegeben ist.

Bemerkungen:

(i) Die Normalverteilung wird mit Recht als die wichtigste Verteilung
der Wahrscheinlichkeitstheorie angesehen. Ihre Bedeutung beruht
vor allen Dingen darauf, daB Zufallsvariablen als normalverteilt
angesehen werden konnen, die durch additive Uberlagerung ei-
ner groBen Zahl von unabhangigen zufalligen Einflussen (d.h. Zu-
fallsvariablen) entstehen, wobei jede der einzelnen Zufallsvariablen
einen im Verhaltnis zur Gesamtsumme nur unbedeutenden Beitrag
liefert (vergleiche Abschnitt 7.8).

(ii) Die KenngroBen der Normalverteilung wurden bereits in mehreren


Beispielen behandelt. Wir stellen sie hier noch einmal zusammen:
Verteilungsfunktion

(6.8-2)
6.8 Die Normalverteilung 91

Erwartungswert

E(X) = J], (6.8-3)


Varianz

(6.8-4)

k-tes zentrales Moment

falls k gerade
(6.8-5)
falls k ungerade

charakteristische Funktion

cp(s) = eisl'exp (_ ((1;)2) . (6.8-6)

Bild 6.8-1 zeigt Dichte und Verteilungsfunktion einer normalverteilten


Zufallsvariablen X, aus Bild 6.8-2 kann die Abhangigkeit der N(J],j (12)_
Dichte von den Parametern J], und (1 abgelesen werden.

fIx)

----~~-----._+--_.----r-------~----x

F(x)

1 .---------------------------:.:.;--;..------ - - - - - -

--------~~--_+--._------------------x

Bild 6.8-1: Dichte und Verteilungsfunktion einer N(J],j (12) verteilten Zu-
fallsvariablen
92 6 Spezielle Wahrscheinlichkeitsverteilungen

fix; 1', a'l

Bild 6.8-2: Einflufl der Parameter J.l und (72 auf die Normaiverteilungs-
dichte

Die Verteilungsfunktion ~(x) der N(Oj l)-Verteilung ist in allen TabeI-


Ienwerken tabelliert (Anhang D) . Mit

y= X-J.l
(7
wird die N(J.lj (72)-verteilte Zufallsvariable X in die N(O; l)-verteilte Zu-
fallsvariable Y transformiert.
Fur die Verteilungsfunktion F(x) einer N(J.l; (72) verteilten Zufallsvaria-
bIen gilt

F(x) = ~ jX exp (_ (u - ~)2) du


V 211"(7 2(7
-00

1 2
= 2· v'1f

= ~ + ~ erf ( x;;: )
mit cler (Gauflschen) Fehlerfunktion

erf(x) = 2
v'1f j x

e- t 2 dt. (6.8-7)
o
6.8 Die Normalverteilung 93

Die komplementiire Fehlerfunktion ist

erfc(x) =1- erf(x) = 5rr!


00

x
e- t2 dt (6.8-8)

und es gel ten folgende Beziehungen

F(x) = 1- ~erfc (~:),


erf( -x) = - erf(x),
erfc(-x) = 2 - erfc(x),
erf(O) = erfc( 00) = 0,
erf( 00) = erfc(O) = 1.

Als Q-Funktion wird


00

Q( x) = ~! exp ( _ t;) dt (6.8-9)


x

bezeichnet und es foIgt:

erfc(x) = 2Q(V2x),
Q(x) = 1 - <I>(x),

wobei <I>(x) die Verteilungsfunktion einer N(O; 1) verteilten Zufallsvaria-


bIen ist.
Bemerkung:
FUr die N(J-L; a 2 )-verteilte ZufalIsvariabIe X gilt:

P(J-L - a < X :S J-L + a) ~ 0,68


P(J-L - 2a < X :S J-L + 2a) ~ 0,955
P(J-L - 3a < X :S J-L + 3a) ~ 0,997
94 6 Spezielle Wahrscheinlichkeitsverteilungen

Anders ausgedruckt: Praktisch alle Werte von X liegen innerhalb der


3u-Grenzen JL - 30" und JL + 30".
Beispiel: Die Zufallsvariable X habe eine N(I;4)-Verteilung. Man
berechne P(IXI > 3).
Durch Einftihrung der Zufallsvariablen Y = x 21 erhalt man:

P(IXI > 3) = P(12Y + 11 > 3)

= P (Iy + ~I > ~)
= P(Y + ~ < -~) + P(Y + ~ > ~)
= P(Y < -2) + P(Y > 1)

und Y ist N(O; 1)-verteilt. Durch Nachschlagen in einer Tabelle der Stan-
dardnormalverteilung (siehe Anhang D) findet man:

P(Y < -2) = _1_1


v'2-ff -00
-2
exp (_ t 2 ) dt
2

= _1
v'2-ff
1
2
00
exp (_ t 2 ) dt
2

= Q(2) = 1 - ~(2) ~ 1 - 0,9772 = 0,0228

vk I
00

P(Y> 1) = exp ( - t;) dt


1

= Q(I) = 1- ~(1) ~ 1- 0,8413 = 0,1587

=> P(IXI > 3) = 0,1815


6.9 Die Weibullverteilung 95

6.9 Die Weibullverteilung


Definition 6.9-1
Eine nichtnegative ZuJallsvariable X genugt einer Weibullver-
teilung mit den Parametern /3 > 0 und () > 0, wenn sie Jolgende
Dichte hat:

/3 (j
J{x) = 7i (x)i1-1 exp {(X)i1}
- (j , x~O

Die zugehOrige Verteilungsfunktion ist

Erwartungswert und Varianz werden berechnet mit Hilfe der Gamma-


funktion:

r(x) = I00

u",-le- u du, x >0


o
Bild 6.9-1 zeigt die Dichte der Weibullverteilung fiir verschiedene Werte
des Parameters /3.
fix)
~=1

o~-------=~~~---
x
o
Bild 6.9-1: Einflu6 des Parameters /3 auf die Dichte der Weibullverteilung

Erwartungswert:
Mit (5.1-1) gilt
96 6 Spezielle Wahrscheinlichkeitsverteilungen

Substitution: u = (~)/3 =:} u(}/3 = x/3 =:} x = U(l//3)(}

dx = (}.!.U 1//3-1
du !3

E(X) = ! 00

o
!3ue(-U)(}*u1//3-1 du

Varianz:
Mit (5.1-3) und k = 2 gilt:

Mit der Substitution u = (~)/3 und x = u(1//3)(), eingesetzt in das Inte-


gral, ergibt sich

E(X2) =! 00

u(1//3)(}!3ue(-U)(}*u 1//3-1 du
o

=! 1)
00

u(2//3)(}2e- u du = (}2 r (~ +
o

var(X) = E(X2) - E(X)2 =

= (}2 r (~ + 1) _ [r (* + 1) ]
(}2 2

Bemerkung:
FUr!3 = 1 ergibt sich die Exponentialverteilung mit A = t und fiir !3 = 2
ergibt sich die Rayleighverteilung mit (}2 = 20- 2 •
6.10 Ubungsau[gaben 97

6.10 Ubungsaufgaben

Aufgabe 6.1 [Heng7]

Bei der ersten Ziehung der Gliickspirale 1971 wurden fUr die Ermittlung
einer 7-stelligen Gewinnzahl aus einer Trommel, die Kugeln mit den
Ziffern 0, ... ,9 je 7-mal enthiilt, nacheinander rein zufallig 7 Kugeln
ohne Zuriicklegen gezogen.

a) Wie groB ist die Wahrscheinlichkeit 7 gleiche Zahlen zu ziehen?

b) Wie groB ist die Wahrscheinlichkeit (1,2,3,4,5,6,7) zu ziehen?

c) Wie groB ist die Wahrscheinlichkeit (2,2,3,1,4,2,2) zu ziehen?

d) Wie wiirden Sie den Ziehungsmodus abandern, urn allen Gewinn-


zahlen die gleiche Ziehungswahrscheinlichkeit zu sichern?

Variation - Eine Auswahl von 7 aus 70 Elementen unter Beachtung


der Reihenfolge. Hier: Ohne Zuriicklegen!

Inl = 7! . C~) = 70·69· .. 64 ~ 6,0418245· 1012


Al = {(al, ... ,a7)€n; mit al = a2 = ... = ad
10 mogliche Zahlen,
7! mogliche Permutationen
1O·7!
=> P(Ad = ~ ~ 8,3418509· 10- 9
98 6 Spezielle Wahrscheinlichkeitsverteilungen

b) Fur jede Zahl stehen 7 Kugeln zur Auswahl, d.h. es wird 7 mal aus
7 Kugeln eine gezogen:

A2 = {(al, ... ,a7)fO;alE{l l , ... ,1d,


a2f{2l, ... ,2 7}, ... ,a7 f {7 l , ... ,77}}
IA21 = 7·7···7 = 77
~
7mal

77
:::} P(A 2 ) = 1m ~ 1,36307· 10- 7
c) A3 = {(al, ... ,a7)fO;mitalE{21, ... ,27},
a2 E{2 l , ... ,27 }\{ad, a3 E{3 l , ... ,3 7},
a4 f {l l , ... ,1 7},a5E{4 l , ... ,4d,
a6 f {2l , ... 27 }\{al, a2},
a7f{2l, ... , 27}\{al,a2,a6}}
IA31 = 7 . 6 . 7 . 7 . 7 . 5 . 4 = 288120

P(A )
3
= 288120 '" 4 7688. 10- 8
101 "',

d) 1. Moglichkeit: 7 separate Trommeln mit jeweils 10 Kugeln mit


den Ziffern 0, ... ,9. Aus jeder Trommel wird einmal gezogen.

2. Moglichkeit: Ziehen aus einer Trommel mit 10 Kugeln mit den


Ziffern 0, ... ,9 mit Zurucklegen (Variation mit Wiederholung).
Oneu = {(al, ... , a7); ai E{O, ... ,9}}
10neui = 107
Jedes Ergebnis A einer Ziehung kann nur durch eine bestimmte
Variation erreicht werden.
6.10 Ubungsaufgaben 99

Aufgabe 6.2 [Bos95]

2 % der Bevolkerung sind Diabetiker. Man berechne die Wahrscheinlich-


keit dafiir, daB unter 100 rein zufallig ausgewahlten Personen mindestens
3 Diabetiker sind.

a) mit Hilfe der Binomialverteilung,

b) mit Hilfe der Poissonverteilung.

a) X ist binomialverteilt mit N = 100 und p = 0,02:

P(X 2: 3) = 1 - P(X < 3)


=1- P(X = 0) - P(X = 1) - P(X = 2)
= 1- C~O) 0, 020 .0,98100
_ (100) 0 02. 0 9899 - (100) 0 02 2 . 0 98 98
1 " 2"
~0,323314

b) X ist approximativ poissonverteilt mit>. = N p = 2:

P(X 2: 3) = 1 - P(X = 0) - P(X = 1) - P(X = 2)


21 22)
=1- e- 2 ( 1 + - + -
I! 2!
=1- 5e- 2

~0,323324
100 6 SpezieJ1e Wahrscheinlichkeitsverteilungen

Aufgabe 6.3 [Web92]


a) Es sind N = 12 zufaIlig ausgewahlte Personen versammelt. Wie
groB ist die Wahrscheinlichkeit, daB die Geburtstage dieser Perso-
nen in den 12 verschiedenen Monaten liegen, wenn angenommen
werden kann, daB die Wahrscheinlichkeit dafiir, daB eine bestimm-
te Person in einem bestimmten Monat Geburtstag hat, jeweils /2
ist?
b) Aus 10000 Person en werden n = 100 Personen zufallig ausgewahlt.
Wie groB ist die Wahrscheinlichkeit, daB eine der ausgewahlten
Personen am 24.12. Geburtstag hat, wenn angenommen werden
kann, daB die Geburtstage aller Personen tiber das Jahr (mit 365
Tagen) gleichverteilt sind?

a) Es gibt 1212 (Variation mit Wiederholung) M6g1ichkeiten, 12 Per-


sonen Geburtsmonate zuzuordnen.
Das Ereignis, daB alle Geburtstage der 12 Personen in verschiede-
nen Monaten liegen, entspricht einer Variation ohne Wiederholung.
Dadurch ergibt sich
121. (12)
P = . 12 ,..... 5 37. 10- 5
1212 ,....., .

b) Die ZufalIsvariable X = Anzahl der Personen, die am 24.12. Ge-


burtstag haben, ist eigentlich hypergeometrisch verteilt. Aus N =
10000 Personen, von denen M am 24.12 Geburtstag haben, werden
n = 100 ausgewahlt. Da N sehr groB ist gegentiber n, kann die Hy-
pergeometrische Verteilung (Ziehen ohne Zurticklegen) durch eine
Binomialverteilung approximiert werden (Satz 6.5-1) mit p = 3~5
und n = 100.
P(X 2 1) = 1 - P(X = 0)

=
1 °
_ (100) (_1
365
)0 (1 __1 )100
365
:=:;j 0,23993
6.10 Ubungsaufgaben 101

Aufgabe 6.4 [Bei95]


Die zufii.llige Lebensdauer X eines Elektromotors sei weibullverteilt und
habe den Erwartungswert E(X) = 8,86230 [Jahre] und die Varianz
D2(X) = 21,45964 [Jahre2 ].
Gesucht sind:

a) die Parameter fJ E IN und () E IN der Verteilung,

b) die Wahrscheinlichkeit, daB ein Motor dieses Typs


(i) bereits im ersten Jahr ausfallt,
(ii) mindestens 10 Jahre arbeitet,
(iii) zwischen 5 und 10 Jahre arbeitet,
c) die Wahrscheinlichkeit dafiir, daB der Motor im Intervall [0, t] aus-
fallt unter der Bedingung, daB er bereits s < t Jahre ausfallfrei
gearbeitet hat fiir t = 10 und s = 5.

Beachte: xr(x) = r(x + 1)

a) Mit den Werten aus der Aufgabenstellung ergibt sich:

(~+ 1) ,

r
E(X) = 8,86230 = ()r

E2(X) = 78,54036 = ()2 [r (~+ 1)

r
Einsetzen in

D2(X) = 21,45964 = ()2r (~+ 1) - ()2 [r (~+ 1)

100 = ()2r (~+ 1)

=1 = r (~+ 1) ~r(~) 2fJr(~)

[r(b+ 1)f -b r b) -
100 27324
78,54036 ' 2( r 2 ( b)
102 6 Spezielle Wahrscheinlichkeitsverteilungen

Vermittels einer Tafel der Gammafunktion findet man die L6sung


f3 = 2. Wegen r(2) = 1 ergibt sich der Parameter e zu
e = 10.
b) Die Verteilungsfunktion von X lautet mit f3 = 2 und e= 10:

F (x) = 1 - exp { - ( :0 f} ,x ~ 0
(i) P(X:::; 1) = F(l) = 1- (e-<O,1)2) ~ 0,00995
(ii) P(X > 10) = 1 - F(lO) = e- 1 ~ 0,36788
(iii) P(5 < X :::; 10) = F(lO) - F(5) = (e- O,25 - e- 1 ) ~ 0,41092

c) Zu berechnen ist fUr s < t die bedingte Wahrscheinlichkeit

F ( )
s t
= P(X :::; t
IX
>s
) = P(XP(X
:::; t n X>
> s)
s)

P(s < X :::; t)


P(X > s) .
Dies HiJ3t sich auch schreiben als:

Fs(t) = F(t) - F(s)


1 - F(s)

_ 1- exp {-U)t3} - (1- exp {_(~)t3})


- l-(l-exp{-(~)t3})
exp {-U)t3} - exp {-U)t3}
exp {_(~)t3}

Mit den Zahlenwerten f3 = 2, e = 10, s = 5 und t = 10 erhaIt man


die gesuchte Wahrscheinlichkeit:
e- O,25 _ e- 1
F5(1O) = e- O,25 ~ 0,52763

Unter der Bedingung, daJ3 der Motor bis zum Ende des funften
Betriebsjahrs ohne auszufallen gearbeitet hat, fcilit er vor dem Ende
des zehnten Betriebsjahres mit Wahrscheinlichkeit 0, 52763 aus.
6.10 Ubungsau[gaben 103

Aufgabe 6.5 [Bey95]


Die Zerfallszeit X einer radioaktiven Substanz ist eine exponentialver-
teilte Zufallsgr0f3e. Unter der Halbwertszeit versteht man diejenige Zeit,
in der 50 % der radioaktiven Substanz zerfallen ist. Dies ist der Median
der ZufallsgroBe X. Fur Radon betragt die Halbwertszeit 3,83 [Tage].

a) Bestimmen Sie den Parameter ,\ dieser Exponentialverteilung!


b) Nach welcher Zeit sind 95 % der Atome zerfallen?

a) Die Zerfallszeit X ist exponentialverteilt mit der Verteilungsfunk-


tion:

F~)= { ° 1 - e->'x
fur x<o
-
fur x > °
F(3, 83 [TageD = 1 - e->.·3,83 = 0,5
0,5 = e->.·3,83

In 0,5 = -,\ . 3,83


In2 ='\·3,83
,\ = In 2
3,83
,\ ~ 0,181 [l/Tage]

b) P(X ~ x) = F(x) = 0,95


1- e->"x = 0,95

0,05 = e->"x
InO,05 = -,\. x
In 0, 05
x = ----=-:x- ~ 16,55 [Tage]
7 Mehrdimensionale
Zufallsvariablen

In einer Telefonanrufaktion werden zufallig ausgewahlte Karlsruher nach


KarpergraBe, Gewicht und Alter gefragt. Ein von dies en drei GraBen
abhangiges Zufallsexperiment wird durch eine mehrdimensionale Zufalls-
variable X = (Xl> X 2 , X3)T beschrieben, die auch als Zufallsvektor an-
gesehen wird.

7.1 Verteilungsfunktion und Dichte


Gegeben sei ein durch den Wahrscheinlichkeitsraum (n,~, P) beschrie-
benes Zufallsexperiment.

Definition 7.1-1

Eine vektorwertige Funktion

(7.1-1)

die jedem Ergebnis ~ E n einen Vektor x = (Xl, X2, ••• ,


XN)T zuordnet, heiftt mehrdimensionale Zufalls-
variable, wenn das Urbild eines jeden Intervalls
Ia =( -00, ad x (-00, a2] x ... x (-00, aN] eRN ein Ereig-
nis ist:

X-I(Ia) E~, Vii ERN (7.1-2)

Unter einer Wahrscheinlichkeitsverteilung verstehen wir die Verteilung


der gesamten Wahrscheinlichkeitsmasse 1 auf RN. Dies fiihrt sofort auf
den Begriff der mehrdimensionalen Verteilungsfunktion.

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
7.1 Verteilungsfunktion und Dichte 105

Definition 7.1-2
Die Funktion

F(x) = F(Xl,X2, ... ,XN) (7.1-3)


= P(Xl S; XI,X2 S; X2,··· ,XN S; XN)

der mehrdimensionalen ZuJallsvariablen X heiflt Verteilungs-


funktion von X.

Definition 7.1-3
Durch partielle Ableitungen der VerteilungsJunktion F(x) nach al-
len Variablen ergibt sich die Dichte der mehrdimensionalen Zu-
Jallsvariablen X

f(x) = a a aN a F(X). (7.1-4)


Xl X2'" XN
1m folgenden spezialisieren wir uns, wenn nicht ausdrucklich anders ge-
sagt, auf den Fall zweidimensionaler Zufallsvariablen. Fur Verteilungs-
funktion und Dichte der zweidimensionalen Zufallsvariablen X ergibt
sich der Zusammenhang

a2
= aXl aX2 F(X). (7.1-5)

Fur zweidimensionale Zufallsvariablen X (Xl, x 2f k6nnen beide


Komponenten stetig oder diskret verteilt sein. Es kann aber auch eine
der Komponenten stetig und die andere diskret verteilt sein.
Sind beide Komponenten diskret verteilt, schreibt man ahnlich wie in
(4.1-12) fUr deren "Dichte"

=L L P(Xl = XI,n; X 2 = X2,k) . 8(XI -


00 00

f(x) Xl,n; X2 - X2,k)


n=lk=l
(7.1-6)

mit der zweidimensionalen 8-Distribution 8(XI; X2) und den Einzelwahr-


scheinlichkeiten P(Xl = Xl,n; X 2 = X2,k).
106 7 Mehrdimensionale Zufa11svariablen

Beispiel:
X = (i~) hat eine zweidimensionale Normalverteilung, wenn ihre
Dichte die Gestalt

besitzt. Fur die Parameter der Dichte gelten dabei die Ungleichungen

-00 < /-l1,/-l2 < OOj

0< 0"1,0"2 < OOj

-l<p<1.
Zur Abkurzung set zen wir in (7.1-7)

c= 1 (7.1-8)
27r0"10"2..Jl7

so daf3 die zweidimensionale Normalverteilungsdichte auch

geschrieben werden kann.


Die zweidimensionale Dichte f(x} beschreibt eine Flache im dreidimen-
sionalen Raum, die im wesentlichen durch die quadratische Form Q(Xl; X2)
charakterisiert ist. Der Einflufl der Parameter /-l1, /-l2, (T1, 0"2 und p laflt
sich wie folgt darstellen:

1. Q(/-l1;/-l2) = 0, d.h. f(x} hat bei x = (/-lb/-l2}T ihr Maximum mit


f(x) = C.
7.1 Verteilungsfunktion und Dichte 107

2. f(x) ist durch Hohenlinien (Kurven konstanter Dichte) gekennzeich-


net. Diese sind gleichzeitig Hohenlinien von Q, die durch Q(Xl; X2) =
K 2: 0 bestimmt sind. Die Hohenlinien sind Ellipsen mit dem Mittel-
punkt j1 = (ILl, IL2) T, ihre Lage in der (Xl, X2)- Ebene wird durch die
rest lichen drei Parameter 0"1,0"2, P bestimmt:

1. Fall: p = 0
Die Hauptachsen A = 2a und B 2b der Ellipsen sind
parallel zur Xl- bzw. x2-Achse mit

2. Fall: p ¥- 0, 0"1 = 0"2 = 0"


Die Hauptachsen sind gegenuber den Koordinaten urn 'Y =i
gedreht. Es gilt

a = O"JK(l - p), b = O"JK(l + p).

3. Fall: p ¥- 0, 0"1 ¥- 0"2


Die Hauptachsen sind gegenuber den Koordinaten urn 'Y =
1 arctan (2~"1"~) gedreht. Es gilt
2 "2-"1

O"~ sin 2 'Y + O"~ cos 2 'Y + 2pO"l0"2 sin'Y cos 'Y

O"~ cos 2 'Y + O"~ sin 2 'Y - 2pO"l0"2 sin 'Y cos 'Y .

3. Ais zweidimensionale Standardnormalverteilung ist der Fall


ILl = IL2 = 0; O"~ = O"~ = 1 und -1 < p < 1 anzusehen.

Bild 7.1-1 zeigt eine zweidimensionale Normalverteilungsdichte (Gauf3-


GIocke).
108 7 Mehrdimensionale Zufallsvariablen

Bild 7.1-1: Dichte einer zweidimensionalen Normalverteilung

7.2 Randdichten und bedingte Dichten


Definition 7.2-1

X sei eine zweidimensionale ZuJalisvariable mit der Dichte J(x) =


J (Xl; X2). Dann heifJen

!
00

ixl(xd = J(Xl;X2) dx 2 (7.2-1)


-00

!
00

JX2(X2) = J(Xl; X2) dXl (7.2-2)


-00

Randdichten von X.
Bemerkungen:

(i) Die Randdichten JXl (xd und JX2(X2) sind die Dichten der Kom-
ponenten des Zufallsvektors X = (Xl, X2)T.
7.2 Randdichten und bedingte Dichten 109

(ii) Sind Xl und X 2 diskret, ergeben sich die Randverteilungen


K
P(XI =XI,n) = LP(XI =XI,niX2 =X2,k)
k=l
N
P(X2 = X2,k) = L P(XI = xI,ni X 2 = X2,k).
n=l

Definition 7.2-2
X sei eine zweidimensionale ZuJallsvariable mit der Dichte f(x) =
f(XliX2) und es gelte fxl(xd > 0 sowie f X2(X2) > O. Dann heiflt

(7.2-3)

die bedingte Dichte von Xl unter der Bedingung X 2 = X2.

(7.2-4)

ist die bedingte Dichte von X 2 unter der Bedingung Xl = Xl.

Bemerkungen:

(i) Eine bedingte Dichte besitzt alle Eigenschaften einer Dichte (ver-
gleiche Abschnitt 4.1).

(ii) Mit bedingten Dichten lassen sich folgende bedingte Wahrschein-


lichkeiten berechnen:

!
Xl

FXl (xIIX2 = X2) = fXl (u1X2 = X2) du


-00

(7.2-5)

Man beachte, daB diese Wahrscheinlichkeit nicht mit Gleichung


(3.1-1) berechnet werden kann, da P{X2 = X2) = 0 fUr die ste-
tige Zufallsvariable X 2 gilt.
110 7 Mehrdimensionale Zufallsvariablen

Entsprechend zu Satz 3.1-1 ergeben sich mit (7.2-1) und (7.2-3) die
Formel von der totalen Wahrscheinlichkeit f"tir Dichten
00

IXI (xt} = I IXI (xIIX2 = x2)/x2 (X2) dX2 (7.2-6)


-00

und der Satz von Bayes f"tir Dichten

I X2 (X2 IXI -- )- IXI (xIIX2 = x2)/x2 (X2)


Xl - 00 (7.2-7)
J
-00
I Xl (XdX2 = x2)/x2 (X2) dX2

(iii) Der bedingte Erwartungswert einer Zufallsvariablen Xl unter


der Bedingung X 2 = X2 ist
00

E{XdX2 = X2} = I xl/x l (XdX2 = X2) dXI. (7.2-8)


-00

(iv) Allgemein gilt:


00

E{XI} = I E{XdX2 = x2}/x2(X2) dx2 (7.2-9)


-00

Beweis:
Gleichung (7.2-8) eingesetzt in die rechte Seite von (7.2-9) ergibt:
00 00

I I Xl !XI (XIIX2 =: x2)/x 2 (X2), dX2 dXI =


-00 -00 mit(7.2-3) =/(xI;x2)
00 00

= I I XI!(XljX2) dX2 dXI


-00 -00

00 00 00

= I XII I(XljX2)dx2dXI = I xI!xI(xt}dxI=E{Xd


-00 -00 -00
, ,
'"
Randdichte IXI (xd
7.3 Unabhangigkeit von Zufallsvariablen 111

7.3 Unabhangigkeit von Zufallsvariablen


Definition 7.3-1
Zwei ZuJallsvariablen X, Y heijJen unabhangig, wenn

J(x,y) = fx(x), Jy(y) (7.3-1)

gilt.

Bemerkung:
Diskrete Zufallsvariablen X, Y sind unabhangig, wenn

P(X = Xi; Y = Yk) = P(X = Xi)P(Y = Yk)


'Vi, k = 1,2,... (7.3-2)

gilt.
Erwartungswerte flir zweidimensionale Zufallsvariablen werden nach
00 00

E{g(X,Y)} = / / g(x,y)J(x,y)dxdy (7.3-3)


-00 -00

berechnet.
Definition 7.3-2
X und Y seien zwei ZuJallsvariablen.

cov(X, Y) = E {(X - E(X))(Y - E(Y))}


= E{(X - ILx)(Y - ILY)} (7.3-4)

heijJt Kovarianz von X und Y und

_ (X Y) _ cov(X, Y)
PX,Y - P , - y'D2(X)D2(y)

E {(X - ILX)(Y - ILY)}


(7.3-5)
aXay

ist der Korrelationskoeffizient von X und Y.


112 7 Mehrdimensionale Zufallsvariablen

1m folgenden betrachten wir die normierten Zufallsvariablen

- _ Y - f.Ly
Y
und - ---'--c-.
(Ty

Fiir beliebiges t E IR hat die Zufallsvariable Z = ti + Y den Erwar-


tungswert 0 und die Varianz D2(Z) = E(Z2) = E {[ti + Yf} =

t2E ( i2) + 2tE ( iY) + E (y2) ~ O.


Durch Einsetzen ergibt sich

--) 1 (73-5)
E ( XY = - - E {(X - f.Lx)(Y - f.Ly)} '= Px.y
(Tx(Ty

und damit E(Z2) = t 2 + 2tpx,y + 1 ~ O.


Fiir jedes t E IR gilt demnach (t + pX,y)2 + (1 - P3c,y) nun
~ O. Ware
1- P3c,y < 0, so ware die letzte Ungleichung fiir t = -PX,y nicht erfiillt.
1st 1 - P3c,y ~ 0, so ist die Ungleichung wegen (t + pX,y)2 ~ 0 fiir jedes
t E IR erfiillt. Es mull also P3c,y :s
1 sein oder

-1 :s PX,y :s 1. (7.3-6)

Belllerkung:
Der Korrelationskoeflizient PX,y stellt ein Ahnlichkeitsmafi der Zufalls-
variablen X und Y dar:
Fiir Ipx,yl = 1 sind X und Y maximal ahnlich. Fiir PX,y = 0 sind sie
sich komplett unahnlich, man sagt, sie seien unkorreliert.
Unabhangige Zufallsvariablen sind unkorreliert. Die Umkehrung dieser
Aussage gilt im allgemeinen nicht. Haben jedoch X und Y eine Nor-
malverteilung und hat (X, y)T eine zweidimensionale Normalverteilung,
folgt aus PX,y = 0 die Unabhangigkeit von X und Y.
Fiir beliebige Zufallsvariablen X und Y gelten im Falle der Existenz von
E(X) und E(Y) bzw. von D2(X) und D2(y) die Beziehungen

E(X + Y) = E(X) + E(Y),


D2(X + Y) = D2(X) + D2(y) + 2 cov(X, Y).
7.3 Unabhangigkeit von Zufallsvariablen 113

Sind X und Y unabhangig, folgt


cov(X, Y) = 0,
E(X . Y) = E(X) . E(Y),
D2(X + Y) = D2(X) + D2(y).
1st X= (Xl, X 2, ... , X N ) T ein N -dimensionaler Zufallsvektor, wird

cov(X 1 ,Xd cov(X1 , X 2 ) COV(X1 ,XN )


cov(X 2 ,Xd cov(X 2 , X 2 ) cOV(X 2 ,XN)
(7.3-7)

als Kovarianzmatrix von X bezeichnet.


Beispiel:
X= (Xl, X 2) T sei eine zweidimensionale normalverteilte Zufallsvariable
mit E(X) = ji = (/-L1,JJ,2)T. Fur die KovarianzmatrixL2 folgt

P ist naturlich der Korrelationskoeffizient der Komponenten Xl und X 2


des Zufallsvektors X.
Mit x= (X1,X2)T kann (7.1-9) dann geschrieben werden als
Q(X1, X2) = (x - jif L;l (x - ji) (7.3-8)

und fur C aus (7.1-8) gilt:


114 7 Mehrdimensionale ZuEallsvariablen

Die Dichte von X erhiilt so die Form

Der N-dimensionale normalverteilte Zufallsvektor X = (Xl, X 2 , .•. , XN)T


besitzt die Dichte

(7.3-9)

7.4 Funktionen zweidimensionaler Zufalls-


variablen
Gegeben seien die Zufallsvariablen X und Y. Diese werden mittels einer
eineindeutigen Abbildung auf

Ul = 91 (X, Y), U2 = 92(X, Y) (7.4-1)

transformiert. Mit der gemeinsamen Dichte I(x, y), der durch


x = h l (Ul,U2), y = h 2(Ul,U2) gegebenen Umkehrabbildung von (7.4-1)
und der Funktionaldeterminante (Jacobi-Determinante)

(7.4-2)

Aus (7.4-2) konnen die Dichten bzw. die Verteilungen fur Summe, Pro-
dukt und Quotienten zweier Zufallsvariablen berechnet werden.

(a) SummeZ=X+Y
Mit

Fz(z) = P(X + Y S z) (7.4-3)


7.4 Funktionen zweidimensionaler Zufallsvariablen 115

ist die Wahrscheinlichkeit gegeben, mit der die Zufallsvariable Z


Werte unterhalb der Geraden x + y = z annimmt (Bild 7.4-1).

Bild 7.4-1: Zur Herleitung der Dichte von Z =X +y

Mit f (x, y), f x (x) und Jy (y) bezeichnen wir die Dichten des
Zufallsvektors (X, y)T und der Zufallsvariablen X bzw. y.

Die Transformationsgleichungen (7.4-1) schreiben sich hier

U1 = X, U2 =X +Y =Z
{:} X = UI, Y = U2 - U1 =Z - X.

Damit ergibt sich fur die Jacobi-Determinante

1 0
J= =1.
-1 1

Mit (7.4-2) erhalten wir damit fur die Dichte des Zufallsvektors
(X,Z):

h(x, z) = f(x, z - x)
116 7 Mehrdimensionale Zufallsvariablen

Die Dichte von Z ergibt sich daraus durch Integration iiber x:

!
00

fz(z) = f(x, z - x) dx (7.4-4)


-00

Daraus folgt

! !!
Z Z 00

Fz(z) = fz(u) du = f(x, u - x) dx duo


-00 -00 -00

Sind X und Y unabhangig folgt mit (7.3-1):

!
00

fz(z) = fx(x)Jy(z - x) dx (7.4-5)


-00

und

II
Z 00

Fz(z) = fx(x)Jy(u - x)dxdu.


-00 -00

Satz 7.4-1
Die Dichte der Summe Z = X + Y zweier unabhiingiger
Zufallsvariablen X und Y ist die Faltung der Einzeldichten
(7.4-5).
In diesen Zusammenhang paSt auch der im folgenden formulierte
Multiplikationssatz charakteristischer Funktionen:
Satz 7.4-2
X und Y seien unabhiingige ZuJallsvariablen mit den charak-
teristischen Funktionen cp x (s) bzw cpy (s). Die charakteristi-
sche Funktion der ZuJallsvariablen Z = X + Y ist dann

cp z ( s) = cp x (s) . cpy ( s ) . (7.4-6)

Beweis:
Mit X und Y sind auch e jsX und e jsY unabhangige Zufallsvariablen
und damit folgt
7.4 Funktionen zweidimensionaler Zufallsvariablen 117

E {ejS(X+Y)} = E {e jSX e jsY }

= E {e jsX } . E {e jsY } .
(b) Produkt Z = x· y
(7.4-1) schreibt sich hier
U1 = X, U2 = Z = X . Y

Y = U2 = Z.
U1 X

1 0 1 1
J=
z 1 x IJI = T;r
-"X2 x

Die Dichte von (X, Z)T ist mit (7.4-2)

h(x,z) = f (x,~) I~I'


Daraus ergibt sich fur die Dichte und fUr die Verteilungsfunktion
von Z:

f (x,~) I~I
00

fz(z) = f dx, (7.4-7)


-00

ff
Z 00

Fz(z) = I~If (x,;) dxdu


-(Xl -(Xl

Sind X und Y unabhangig, nehmen die letzten beiden Gleichungen


die folgende Form an:

f 1~lfx(x)Jy (~)
00

fz(z) = dx, (7.4-8)


-00

f f I~I
Z 00

Fz(z) = fx(x)Jy (;) dx du


-00 -00
118 7 Mehrdimensionale Zufallsvariablen

(c) Quotient Z =
X/Y
Fiir allgemeine Zufallsvariablen X und Y ergibt sich:

!
00

fz(z) = f(yz, y)lyl dy, (7.4-9)


-00

=! !
Z 00

Fz(z) f(yu,y)lyldydu
-00 -00

Sind X und Y unabhangig, erhalt man:

!
00

fz(z) = fx(yz)Jy(y)lyl dy, (7.4-10)


-00

!!
Z 00

Fz(z) = fx(yu)Jy(y)lyl dydu


-00 -00

7.5 Komplexwertige Zufallsvariablen


Definition 7.5-1
X und Y seien reellwertige Zufallsvariablen (siehe Definition 4.1-
1), dann ist mit der imaginiiren Einheit j

Z=X+jY (7.5-1)

eine kOInplexwertige (kurz: komplexe) Zufallsvariable.

Bemerkung:
Die Verteilung der komplexen Zufallsvariablen Z ist durch die zweidi-
mensionale Verteilungsfunktion F(x, y) = P(X :::; x, Y :::; y) des Zufalls-
vektors (X, y)T bestimmt.
Die Momente komplexwertiger Zufallsvariablen sind zunachst genauso
definiert wie bei reellen Zufallsvariablen, es handelt sich dabei aber urn
komplexe Zahlen. Dies hat Folgen:
7.6 Transformation von Zufallszahlen 119

Die Varianz der komplexen Zufallsvariablen Z ist gegeben durch

D2(Z) = E {IZ - E(ZW}


= E {(Z - E(Z))(Z - E(Z))*} 1. (7.5-2)

Es folgt

D2(Z) = E {(Z - E(Z))(Z - E(Z))*}


= E {ZZ* - Z* E(Z) - ZE*(Z) + E(Z)E*(Z)}
= E {X2 + y2} - E(Z)E*(Z)
= E (X2) + E (y2) _ E2(X) _ E2(y)

= D2(X) + D2(y).
Die Kovarianz der komplexen Zufallsvariablen Zl und Z2 (d.h.
die Kovarianz des Vektors (Zl' Z2)T) ist definiert durch

(7.5-3)

Bemerkung:
Es gilt der Zusammenhang

7.6 Transformation von Zufallszahlen


Bei der Generierung von Zufallszahlen mit Rechnern werden normaler-
weise gleichverteilte Zufallszahlen im Intervall [0,1) erzeugt. Fur viele
Untersuchungen werden aber anders verteilte Zufallsvariablen benotigt.
Besonders wichtig sind z.B. normalverteilte Zufallsvariablen. Es ergibt
sich also die Aufgabe, eine Zufallsvariable X mit der Verteilungsfunktion
Fx(x) durch eine Transformation g(X) = Y auf eine Zufallsvariable Y
abzubilden, die die gewunschte Verteilungsfunktion Fy(y) besitzt.

1a* bezeichnet die zu a E C konjugiert komplexe GroBe.


120 7 Mehrdimensionale Zufallsvariablen

Satz 7.6-1
Es sei X eine ZuJallsvariable mit der VerteilungsJunktion Fx(x).
Die ZuJallsvariable Z = g(X) (g eindeutig umkehrbar) ist genau
dann im Intervall [0, 1) gleichverteilt, wenn gilt

g(X) = Fx(X). (7.6-1)

Beweis:

",*": Es gilt Fz(z) = z, Z gleichverteilt in [0,1):

Fx(x) = P(X :s x) = p(g-l(Z) :s x)


= P(Z :S g(x)) = Fz(g(x)) = g(x)

"{=:": Es gilt Fx(X) = g(X) = Z:

Fz(z) = P(Z :S z) = P(g(X) :S z)


= P(X :S g-l(Z)) = FX(g-l(Z))
= Fx(Fx 1 (z)) = Z

im Intervall [0,1)

Satz 7.6-2
Gegeben sei eine im Intervall [0,1) gleichverteilte ZuJalisvariable
Z und eine ZuJalisvariable Y. Y hat genau dann die gewunschte
VerteilungsJunktion F y (y), wenn gilt

Y = F y 1 (Z).

Beweis:
Mit Satz 7.6-1 gilt ffir Z gleichverteilt in [0,1) und eine beliebige Zufalls-
variable Y

Z = Fy(Y)
¢:} Fyl(Z) = Y.
7.6 Transformation von Zufallszahlen 121

Mit Satz 7.6-1 und Satz 7.6-2 kann nun der folgende allgemeine Satz
gezeigt werden:
Satz 7.6-3
Es sei eine ZuJallsvariable X mit der VerteilungsJunktion Fx(x)
gegeben. Die ZuJallsvariable Y hat die gewiinschte Verteilungs-
funktion Fy(y), wenn

gilt.
Beweis:
Aus Satz 7.6-1 erhalt man mit Z = Fx (X) eine gleichverteilte Zufallsva-
riable Z und mit Satz 7.6-2 ergibt sich aus Y = Fyl(Z) = Fyl(Fx(X))
eine Zufallsvariable mit der Verteilungsfunktion Fy.
Beispiel:
Vorhanden ist ein Zufallsgenerator, der gleichverteilte Zufallszahlen Z
im Intervall [0,1) erzeugt. Gesucht ist eine Transformation g(Z), die die
Zufallszahlen in exponentialverteilte Zufallszahlen Y iibertragt.
Lasung:
Z sei gleichverteilt in [0,1). Mit Satz 7.6-2 ergibt sich eine exponential-
verteilte Zufallsvariable Y durch

Y = Fyl(Z) mit
Fy(y) = 1 - e->'y y>O
::} Z = 1 - e->'y

::} 1 - Z = e->'y
1
--In(l- Z) = Y.
>.
122 7 Mehrdimensionale Zufallsvariablen

7.7 Aus normalverteilten abgeleitete Zu-


fallsvariablen
Flir viele Anwendungen (z.B. Verteilungstests, Mehrwegeausbreitung,
... ) werden Zufallsvariablen betrachtet, die mehr oder weniger direkt aus
normalverteilten Zufallsvariablen abgeleitet werden konnen (zur Uber-
sicht vergleiche Bild 7.7-1). Zur Bestimmung der zugehorigen Vertei-
lungsfunktionen bzw. Dichten werden die Ergebnisse aus Abschnitt 7.4
eingesetzt. Verteilungsfunktionen und Dichten werden hier nicht ange-
geben, sie konnen z.B. in [Pro95]' S.45ff., nachgelesen werden.
X. unabhiingige.
nonnalverteilte 1),/

y= ~
N ..2
~~ N
y= ~ X
2

r
11..
n-1 n n=1 n

zentral 'l- verteilt nichtzentral 'l- verteilt


1 N

R="\V R="\V
N~~2 N~~2
Rayleigh-verteilt verallgemeinert Rice-verteilt verallgemeinert
Raylelgh-verteilt Rice-verteilt

Bild 7.7-1: Aus normalverteilten Zufallsvariablen abgeleitete Zufallsva-


riablen

Sind die Zufallsvariablen Xn; n = 1,2, ... ; N{O; a 2 )-verteilt und un-
abhangig, besitzt
N
Y = L X~ (7.7-1)
n=l

eine zentrale X~- Verteilung mit N Freiheitsgraden und

R= .;y (7.7-2)

hat flir N = 2 eine Rayleigh-Verteilung. 1st N > 2, besitzt Reine


verallgemeinerte Rayleigh-Verteilung.
7.7 Aus normalverteilten abgeleitete Zufallsvariablen 123

Bernerkung:
In der Nachrichtentechnik werden rayleighverteilte Zufallsvariablen zur
Modellierung von Mehrwegeausbreitungen benutzt, wenn es keinen di-
rekten Ausbreitungspfad yom Sender zum Empfanger gibt.
Sind die Zufallsvariablen Xn; n = 1,2, ... ,N; N(/-Ln; (j2)-verteilt und
unabhangig, ist Y (7.7-1) nichtzentral x~-verteilt mit N Feiheits-
graden. R = v'Y (7.7-2) besitzt fUr N = 2 eine Rice-Verteilung und
flir N > 2 eine verallgerneinerte Rice-Verteilung.
Bernerkung:
In der Nachrichtentechnik werden riceverteilte Zufallsvariablen zur Mo-
dellierung von Mehrwegeausbreitungen benutzt, wenn es einen direkten
Ausbreitungspfad yom Sender zum Empfanger gibt.
Flir normalverteilte Zufallsvariablen gilt der
Satz 7.7-1
Die ZuJallsvariablen Xl und X 2 seien unabhiingig und besitzen
eine N(/-Ln; (j;)- Verteilung; n = 1,2. Die Summe Y = Xl + X 2
hat dann eine N (/-Ll +/-L2; (jr
+ (j~) - Verteilung.
Beweis:
Die Zufallsvariablen Xn haben gemaB (5.2-5)

als charakteristische Funktionen. Nach Satz 7.4-2 (Gleichung (7.4-6))


ergibt sich flir Y = Xl + X 2 die charakteristische Funktion

= ejS!-'l exp ( _~(jiS2) . e jS !-'2 exp ( _~(j~S2)

= ej (!-'1+!-'2) • exp ( -~((ji + (j~)S2) .


Bernerkungen:

(i) Die Erweiterung der Aussage von Satz 7.7-1 ist trivial: Sind die
124 7 Mehrdimensionale ZuEallsvariablen

Xn N(J.Ln; (1~}-verteilt und unabhangig, hat

(ii) Die Klasse normalverteilter Zufallsvariablen ist gegenuber Sum-


menbildung abgeschlossen.

7.8 Gesetze der groBen Zahlen und Grenz-


wertsatze
Die relative Haufigkeit fUr das Auftreten eines zufalligen Ereignisses
HN(A) ist ein Schatzwert fur die Wahrscheinlichkeit des Ereignisses
P(A} (vergleiche Abschnitt 2.2). Die nun zu beantwortende Frage lautet:
Welchen Zusammenhang gibt es zwischen HN(A} und P(A}?
Dazu sei A ein Ereignis, das mit der Wahrscheinlichkeit p (0 < p < I)
eintritt. if hat dann also die Wahrscheinlichkeit 1 - p. Anders kann mit
Hilfe der Indikatorfunktion von A genannten Zufallsvariablen

I fur~EA
In(O ={ (7.8-1)
o sonst

der Versuch durch P(In = I} = p, P(In = O} = I-p beschrieben werden.


Wir betrachten nun N Zufallsvariablen In, die unabhangig und gemaf3
(7.8-1) definiert sind. Die Zufallsvariable

(7.8-2)

hat (vergleiche Abschnitt 6.2) eine Binomialverteilung mit den Parame-


tern E(SN} = Np und D2(SN} = Np(1 - p}. Die Division von (7.8-2)
7.8 Gesetze der graBen Zahlen und Grenzwertsatze 125

durch N liefert

(7.8-3)

als Zufallsvariable mit

Flir die folgende Diskussion benotigen wir den


Satz 7.8-1 (Tschebyscheffsche Ungleichung)
Es sei c E IR beliebig und X eine Zufallsvariable mit endlicher
Varianz. Dann gilt fur jedes € > 0:

(7.8-4)

Beweis:
Es ist

P{IX - cl ~ €} = / f(x) dx.


Ix-cl::::<

1m Integrationsbereich gilt

(x - c)2 1
~-:2---'-- ~ ( x, c E IR)

und so folgt

P{IX - cl ~ €} =
/
Ix-cl::::<
f(x)dx

<
/
Ix-cl::::<
(x -2 c)2

f(x) dx

00

~ €~ / (x - C)2 f(x) dx
-00
126 7 Mehrdimensionale Zufa11svariablen

Folgerung:
Mit c = E(X) folgt aus der Tschebyscheffschen Ungleichung (7.8-4):

P{IX - E(X)I ~ f}:S f ~ E {[X - E(X)f}

(7.8-5)

Wir kehren nun zur Diskussion der relativen Hiiufigkeit HN(A) (7.8-3)
zuriick und stellen mit Hilfe der Ungleichung (7.8-5) fest, daB

P{IHN(A) - pi ~ f}:S P(~~2P)

¢} P {IHN(A) - pi < f} ~ 1- p(~~/)


gilt. Durch Grenziibergang N -7 00 erhalten wir
Satz 7.8-2 (Bernoullisches Gesetz der groBen Zahlen)

1st Xl, X 2, . .. eine Folge unabhiingiger, identisch verteilter Zu-


fallsvariablen mit

P(Xn = 1) = p, P(Xn = 0) = 1 - p (0 < p < 1),


gilt fur alle f >0

(7.8-6)

Bemerkung:
Die Wahrscheinlichkeit P(A) ist nicht der Grenzwert der relativen Hiiufig-
keit HN(A). Aber gemaB (7.8-6) konvergiert

P{IHN(A) - P(A)I < f} -----t 1.


N-+oo

Man sagt, die relative Hiiufigkeit konvergiere in Wahrscheinlichkeit


gegen die Wahrscheinlichkeit.
Das oben genannte Gesetz der groBen Zahlen liiBt sich folgendermafien
verallgemeinern:
7.8 Gesetze der graBen Zahlen und Grenzwertsatze 127

Satz 7.8-3 (Chintschinsches Gesetz der groBen Zahlen)

1st Xl, X 2 , ••• eine Folge unabhiingiger, identisch verteilter Zu-


fallsvariablen mit E(Xn) = Jl < 00, folgt fur alle € > 0:

(7.8-7)

Den Beweis von (7.8-7) findet man zum Beispiel in [Fis70], S.260.
Bemerkung:
Die bei der relativen Haufigkeit beobachteten Stabilitatseigenschaften
(7.8-6), liegen auch fUr das arithmetische Mittel unabhangiger, identisch
verteilter Zufallsvariablen vor.
1m folgenden wollen wir uns ein Bild von der Wichtigkeit der Normal-
verteilung machen. Wir beginnen die Diskussion mit einem
Beispiel [Bey95]: Gegeben seien die unabhangigen uber dem Intervall
[0,1] stetig gleichverteilten Zufallsvariablen X l ,X2 ,X3 , X 4 .
8 2 = Xl + X2 nimmt Werte aus [0,2] an und besitzt gema13 (7.4-5) die
Dichte

0 fur z~O

z fur O<z~l
f S 2 (z) = (7.8-8)
2-z fUr 1<z~2

0 fUr 2<z

Auch X3 + X4 hat die Dichte (7.8-8). Damit ergibt sich die Dichte von
128 7 Mehrdimensionale Zufallsvariablen

aus der Faltung von (7.8-8) mit sich selbst zu

0 fur z~O
z3
6' fUr O<z~1
2 2
-2" + z - 2z +"3
z3 2
fur l<z~2
fS4 (z) = 4z2 + lOz _
(7.8-9)
z3 _
2
22
3
fur 2<z~3

_ z3 + 2z2 _ 8z + 32 fur 3<z~4


6 3

0 fUr 4<z

Bild 7.8-1 zeigt die Dichten von Sl = Xl, S2 und S4'

.... fs 2(z)
". .... - ....

---+----~+-----~------r-~--._------ Z
2 3 4

Bild 7.8-1: Dichte von Summen uber [0,1] gleichverteilter Zufallsvaria-


bIen (nach [Bey95])

Aus (7.8-9) kann uber den Zusammenhang (4.2-3) die Dichte von

z _S4- E {S4}
4 - .jD2(S4}

bestimmt werden. Wenn man diese Dichte gemeinsam mit der Dichte
einer N(Oj 1}-verteilten Zufallsvariablen aufzeichnet, ergibt sich Bild 7.8-
2. Die standardisierte Summe Z4 nahert offenbar eine N(Oj 1}-verteilte
Zufallsvariable an.
7.8 Gesetze der graBen Zahlen und Grenzwertsatze 129
Dichte der

------~---------+----~--~~-------- z

Bild 7.8-2: Vergleich der Dichten von Z4 und der 8tandardnormalvertei-


lung (nach [Bey95))

Genauer gilt
Satz 7.8-4 (Zentraler Grenzwertsatz):
X 1 ,X2 , ... sei eine Falge unabhiingiger, identisch verteilter Zu-
fallsvariablen mit

N
dann gilt mit SN = L Xn fur jedes x E R
n=l

lim P {SN; : m
N--+oo Nd
~
:s x} = v27r JX exp (_y2)
2
dy. (7.8-10)
-00

Bemerkungen:

(i) Die Folge der Verteilungsfunktionen der standardisierten Summen

Z _ SN-Nm
N - VNd
konvergiert fUr N ~ 00 gegen die Verteilungsfunktion einer N(O; 1)-
verteilten Zufallsvariablen.

(ii) Den Beweis des Satzes 7.8-4 findet man z.B. in [Fis70j, 8.235.
130 7 Mehrdimensionale Zufallsvariablen

(iii) Der zentrale Grenzwertsatz gilt unter weiterreichenden als den hier
erwlthnten Bedingungen. So kann (bei Einfiihrung anderer Rand-
bedingungen) auf die Forderung verzichtet werden, daB die Zufalls-
variablen Xl, X 2, . .. identisch verteilt sind [Ren 71].

Ein Sonderfall des zentralen Grenzwertsatzes ist der


Satz 7.8-5 (Satz von de Moivre-Laplace):
1st SN eine binomialverteilte Zufallsvariable mit den Parametern
N und p, gilt fur jedes x E IR
x
.
hm P
N-too
{ SN - Np
<x
JNp{l - p) -
}
= --1
..jfff ! (2 )
-00
y2
exp - - dy.

(7.8-11)

Bemerkungen:

N
(i) SN =L Xi ist die Summe (identisch) Null-Eins-verteilter Zufalls-
n=l
variablen {Bernoullisches Versuchsschema}.
(ii) Als Faustregel wird im allgemeinen angegeben, daB die Approxi-
mation der Binomialverteilung mit der Normalverteilung fiir prak-
tische Zwecke ausreicht, wenn D 2 {SN}:::: 9 gilt.
(iii) Oft wird bei der Approximation der Binomialverteilung eine Ste-
tigkeitskorrektur vorgenommen [Hen97].
Statt

P(k ~ SN ~ l} ~ ~ (I;N::) - ~ (~)


= ~{XI.N} - ~(Xk.N)

wird oft

benutzt.
7.8 Gesetze der groBen Zahlen und Grenzwertsatze 131

Vergleicht man das Histogramm der standardisierten Binomialver-


teilung mit der standardisierten GauBdichte f(x), wird die Moti-
vation dieser Korrektur offensichtlich (Bild 7.8-3).

fIx)

x
o

Bild 7.8-3: Approximation der Gaufldichte durch die Binomialverteilung


(nach [Hen97])

Beispiel [Jon91]:
Ein Frequenzsprungsender benutze den Frequenzbereich zwischen 30 MHz
und 80 MHz. Die Kanalbandbreite betrage 25 kHz, d.h. es gib 2000 Kan~ile,
die aIle mit gleicher Wahrscheinlichkeit angesprungen werden. Eine Sen-
dung dauere 10 s, die Dauer des einzelnen Hops sei 10- 3 s. Die Sendung
besteht also aus 104 Hops. Eine Frequenz wird mit einem Empfanger
beobachtet: Wie grofl ist die Wahrscheinlichkeit dafiir, dafl mindestens
3 Hops der Sendung erfaflt werden?
Gesucht ist die Wahrscheinlichkeit

Der Satz von de Moivre-Laplace versetzt uns in die Lage, diese Wahr-
scheinlichkeit zu berechnen: Es ist N = 104 , P = 20100' woraus mit N p = 5
und JNp(1- p) = 2,24 folgt:

P(S >3)=P{ SN-Np > 3-Np }


N- JNp(1- p) - JNp(1- p)

= P{XN 2: -0,89}
132 7 Mehrdimensionale Zufallsvariablen

1
V21i JOO

-0,89
exp (_ y2 ) dy:::::: 0,81
2

Bemerkung:
In den Rahmen der hier zitierten Grenzwertaussagen gehort auch der
in Abschnitt 6.4 bewiesene Satz 6.4-1, der den Zusammenhang zwischen
Binomial- und Poissonverteilung kennzeichnet. Dieser Satz wird deshalb
auch als Poisson scher Grenzwertsatz bezeichnet.
Eine experimentelle Bestatigung des Satzes von de Moivre-Laplace stellt
das Galtonsche Brett (Bild 7.8-4) dar [Ren71]. Es enthalt N Reihen
von Hindernissen in regelmaBiger Anordnung. In der n-ten Reihe gibt
es genau n Hindernisse. Eine herunterfallende Kugel wird in jeder Rei-
he mit der Wahrscheinlichkeit p = t nach links oder rechts abgelenkt.
Unter der letzten Hindernisreihe befinden sich N + 1 Speicher zum Sam-
meln der Kugeln. Eine Kugel gelangt in den k-ten Speicher von links
(k = 0,1,2, ... ,N), wenn sie an genau k Reihen nach rechts und an den
tibrigen N - k Reihen nach links abgelenkt wurde. Wenn angenommen
wird, daB die Ablenkungen an den verschiedenen Reihen voneinander
unabhangig sind, ist die Wahrscheinlichkeit fUr das Ereignis "die Ku-
gel landet im k-ten Speicher von links" gleich (~) ~. LaBt man eine
groBe Anzahl von Kugeln tiber das Galtonsche Brett rollen, entwickelt
sich in den Speichern eine Verteilung der Kugeln, die (im Mittel) der
GauBdichte ahnlich ist.

Bild 7.8-4: Das Galtonsche Brett


7.9 Ubungsaufgaben 133

7.9 Ubungsaufgaben
Aufgabe 7.1 [Bos95]
Beim Roulette-Spiel wird eine der 37 Zahlen 0,1,2, ... ,36 ausgespielt.
Setzt man auf das untere Dutzend {I, 2, ... , 12}, so erhalt man bei Ge-
winn den dreifachen Einsatz, d.h. man hat einen Reingewinn von X = 2.
Bei jeder ausgespielten Zahl, die nicht in {I, 2, ... ,12} enthalten ist,
verliert man den Einsatz (X = -1). Setzt man auf "Impair", d.h. auf
die ungeraden Zahlen, so erhalt man bei Gewinn den doppelten Einsatz
(Reingewinn Y = 1). Wird eine gerade Zahl ausgespielt, verliert man
den Einsatz (Y = -1). In dem speziellen Fall einer ausgespielten Null,
kann man den halben Einsatz herausnehmen (Y = -1/2).
Ein Spieler setze nun jeweils eine Einheit auf {I, 2, ... , 12} und eine auf
"Impair" .

a) Bestimmen Sie die Wahrscheinlichkeiten der zweidimensionalen,


diskreten Zufallsvariablen (X, Y) und die Randwahrscheinlichkei-
ten.

b) Bestimmen Sie die Wahrscheinlichkeiten der Gewinnsumme Z =


X + Y, den Erwartungswert E(Z) und die Varianz D2(Z) von Z.

a) Mit den Ereignissen K = {I, 2, ... , 12}, U = {I, 3, 5, ... ,35} und
n = {O, 1, 2, ... ,36} mit Inl = 37 ergibt sich:
6
P(X = 2, Y = 1) = P(K n U) = P({l, 3, ... , ll}) = 37
1
P(X = 2, Y = -2) = P(K n {O}) = P(0) = 0
P(X = 2,Y = -1) = p(KnU)
6
= P( {2, 4, ... , 12}) = 37

P(X = -1, Y = 1) = P(K n U)


12
= P({13,15, ... ,35}) = 37
134 7 Mehrdimensionale Zufa11svariablen
1 - 1
P(X = -1, Y = -2) = P(K n {O}) = P({O}) = 37

P(X = -1, Y = -1) = P(K n Un {O})


12
= P( {14, 16, ... , 36}) = 37

P(X,Y) Y= 1 Y -- - !2 Y =-1
6 6
X=2 37 0 37 P(X=2)=*
12 1 12
X=-l 37 37 37 P(X=-l)=~

I P(Y=l)=~ I P(Y=-~)=f71 P(Y=-l)=~ I


Die einzelnen Randwahrscheinlichkeiten ergeben sich durch zeilen-
oder spaltenweises Aufaddieren (siehe Tabelle).

b) Mit Teilaufgabe a) erhalten wir:

(X = 2,Y = 1) =} X+Y=3
1 3
(X=2'Y=-2) =} X+Y=-
2
(X = 2, Y = -1) =} X+Y=l
(X = -1, Y = 1) =} X+Y=O
1 3
(X = -l,Y= --) =} X +Y =--
2 2
(X = -l,Y = -1) =} X +Y =-2

Damit lautet die Verteilung der diskreten Zufallsvariablen X + Y:

Werte von X +Y
Wahrscheinlichkeiten
7.9 Ubungsaufgaben 135

Erwartungswert und Varianz von Z:


6 6 3 1 12
E(Z) = 3· 37 + 1 . 37 - "2 . 37 - 2 . 37
= 36 + 12 - 3 - 48 = _2. = E(X) E(Y)
74 74 +
D2(Z) = E(Z2) - E(z)2
2 6 6 9 1 12
E(Z ) = 9· 37 + 1 . 37 + 4" . 37 + 4· 37 ~ 2,9797

D2(Z) ~ 2,9797 - 0,00164 = 2,9781

Aufgabe 7.2 [Bei95]


Die gemeinsame Dichte des Vektors (X, Y) sei

f(x, y) = e-(x+y); x 2: 0 , y 2: O.

a) Zu berechnen sind die Wahrscheinlichkeiten

1) P(Y > X),


2) P(IY - XI ::; 1).

b) Sind die Zufallsvariablen X und Y unabhangig?

a) Nach der Methode von Kapitel 7.4:

Z=Y-X
=> U1 = Z = Y - X, U2 =Y
=> X = Y - Z = U2 - U1 , Y = U2

-1 1
J= = -1 => IJI = 1
o 1
136 7 Mehrdimensionale Zufallsvariablen

h(z, y) = f(y - z, y)

mit y - z 2: 0 und y 2: o.

ff(y-z,y)dy
fz(z) = { Zx,
J f(y-z,y)dy z:::;o
o

J e- 2y + z dy
00

={
z
f e- 2y + z dy z:::;o
0

[_~e-2Y + z]oo z>o


={ [_~e-2Y + zL
t>e
z<o

!2
00
1 1
1) P(Z > 0) = e- z dz = 2
o

! ~eZdz+ ! ~e-Zdz
o 1

2) P(-l < Z < 1) =


-1 0

= [~eZ[1 + [-~e-zJ:
= ~ _ ~e-1 + ( _ ~e-1 + ~)
= 1- e- 1
7.9 Ubungsaufgaben 137

b) Die Unabhangigkeit HiBt sich durch die Berechnung der Randdich-


ten nachpriifen.

f(x, y) = e-(x+y); x 2 0, y2 0

I I
00 00

fx(x) = f(x, y) dy = e-(x+y) dy


-00 0

= e -x [ -e -Y] 0
00
= e -x ;

Wegen der Symmetrie der gemeinsamen Dichte in x und y gilt


insgesamt:
fx(x) = e- x ; x 20
jy(y) = e- Y ; y2 0
Dadurch ergibt sich
f(x,y) = e-(x+y) = e- X • e- Y = fx(x)· jy(y)
und die Unabhangigkeit der Zufallsvariablen.

Aufgabe 7.3 [Bey95]


In einer Abteilung einer Firma werden 2 Sorten von Widerstanden ge-
fertigt. Die GroBe R1 der Widerstande der erst en Sorte sei eine nor-
malverteilte ZufallsgroBe mit J-L1 = 60011 und 0"1 = 811 und die GroBe
R2 der Widerstande der zweiten Sorte sei ebenfalls normalverteilt mit
J-L2 = 20011 und 0"2 = 611. Die ZufallsgroBen R1 und R2 sind unabhangig.
Eine Reihenschaltung bestehe aus zwei Widerstanden unterschiedlicher
Sorte.

a) Wie groB ist die Wahrscheinlichkeit dafiir, daB der Gesamtwider-


stand einer Reihenschaltung mindestens 78011 betragt?
b) In welchen Grenzen 800 - c und 800 + c liegt mit einer Wahrschein-
lichkeit von 0,99 der Gesamtwiderstand?
138 7 Mehrdimensionale ZuEallsvariablen

a) Der Gesamtwiderstand Ra = Rl + R2 ist nach Satz 7.7-1


N(/-La, ab) verteilt mit ab = ar + a~ = 100 02 ~ aa = 10 0 und

/-La = /-Ll + /-L2 = 800 0 .

Mit der Transformation Y = RG~8~on bzw. Ra =Y ·10 0 + 8000


(Y ist N(O, 1) verteilt) ergibt sich:

P(mindestens 7800) = P(Ra 2: 7800) = P(Y 2: -2) =


= 1- ~(-2) = 1- (1- ~(2)) = ~(2) ~ 0,97725
b) Mit P(8000 - c < Ra :S 8000 + c) =

= ~ (800 0 + c - 800 0) _ ~ (800 0 - c - 800 0)


100 100

= ~ (1;0) - ~ ( - 1;0) = ~ (1;0) - (1 - ~ (1;0) )


= -1 + 2· ~ (1;0) = 0,99 ~ ~ (1;0) = 0,995

c
10 0 ~ 2, 58 ~ c ~ 25,80.

Der Gesamtwiderstand liegt mit Wahrscheinlichkeit 0,99 zwischen


774,20 und 825,80.

Aufgabe 7.4
X sei N(O, 1) verteilt. Berechnen Sie jeweils den Korrelationskoeffizien-
ten p(X, Y) ffir

a) Y=X 2 ,

b) Y = aX + b mit a, b E R und a "I O.


7.9 Ubungsaufgaben 139

a)

E(X) = 0
E(Y) = E(X2) = 1
Wegen D2(X) = E(X2) - E2(X) = E(X2) = 1

~ cov(X, Y) (7.~4) E{(X - E(X))(Y - E(Y))}


= E{(X - O)(Y - I)} = E{X(X2 - I)}

= E{(X3 - X)}
= E{X3} - E{X} = E{X3}

Damit gilt:

D2(y) = D2(X2) = E{(X2 _ E(X2)2)}


= E{(X2 - 1)2} = E{X4 - 2X2 + I}

= E(X4) - 1 (6.~5) 3 - 1 = 2

D2(X) = 1

( X Y) - cov(X, Y) __ 0_ - 0
p , - JD2(X)D2(Y) - y'1:2 -

b) E(Y) = E(aX + b) = aE(X) +b =b


-.....-
=0
D2(aX + b) = a2 D2(X) = a2

-------
=1

(X Y) _ COV(X, Y) = E{(X - O)(Y - b)}


p , - JD2(X)D2(Y) ~

= E{X(aX)} = aE{X2} = 1
a a
140 7 Mehrdimensionale Zufallsvariablen

Aufgabe 7.5 [Bei95]


Die Zufallsvariablen X und Y haben die gemeinsame Dichte
7r
f(x;y)=a-sin(x+y); O:sx'Y:S"2-

Man bestimme:

a) die Konstante a,

b) die bedingten Verteilungen fx(xly) und jy(ylx),

c) den Erwartungswert E(X) von X und den bedingten Erwartungs-


wert E(XIY = y) fUr y = 0 und y = i-

00

a) Da fUr eindimensionale Zufallsvariablen f f x (x) dx 1


-00

gilt, bedeutet dies fUr zweidimensionale Zufallsvariablen


00 00

f f f(x;y)dxdy = l.
-00 -00

rr /2 [rr /2
[ [a - sin
1
(x + y) dx dy
rr/2
= a / [- cos (x + Y)l:~l dy
o
rr/2
= / [- cos (~ + y) + cos (y)] dy
o

= a - [- sin (~ + y) + sin (y) ] :::


= a - [- sin (7r) + sin (~) + sin (~) - sin (0) ]
I 1
=2a=,=1 =}a=-
2
7.9 Ubungsaufgaben 141

b) Mit (7.2-3) bzw. (7.2-4) gilt:


f(x;y)
fx(xly) = fx(xlY = y) = jy(y)

Randdichte:

J J~
"
2" "
"2

jy (y) = f (x; y) dx = sin (x + y) dx


o 0

1
= 2[-cos(x x="- = 2
+Y)]x=g 1 [7r
-cos("2 +y) +cos(y) ]

= ~ [sin (y) + cos (y)] O:=:; Y :=:; ~

sin (x + y) 7r
fx(xly) = fx(xlY = y) = cos ()
y + sm
. (y ) - X,y <
0< - -2

Entsprechend ergibt sich:

21 [sm
. 7r
fx(x) = (x) + cos (x)] 0<
- X <-
- 2

sin (x + y) 7r
jy(ylx) = jy(ylX = x) = cos () O<x,y<-
x + sm. (x ) - - 2

c) Mit (5.1-1) gilt:

J J
00 "
"2

E(X) = xf(x) dx =~ [xsinx + xcosx] dx


0

(!
-00

~~ "inxdx + IX'~Xdx)
[BS70]: = ~ ([sin x - x cos x]! + [cos x + x sin x]!)

=~(1+~-1)=~
142 7 Mehrdimensionale Zufallsvariablen

Der bedingte Erwartungswert von X unter der Bedingung Y =y


ergibt sich aus (7.2-8):

"
2"

E(XIY = y) = / x· fx(xly) dx
o
"
2"

= . ( ) 1
sm y + cos y
() /x .
. sm (x + y) dx
o
"
= . () 1
sm y + cos Y
()([-XCOS(x+Y)l:~!+/2COS(X+Y)dX)
o

= . () 1 ()(~2sin(y)+[sin(x+Y)l:~!)
sm y + cos Y

= . ( ) 1 ()
sm y + cos Y
(~2 sin (y) + cos (y) - sin (y))

= 1 _ (2 _ ~) sin (y)
2 sin (y) + cos (y)

Speziell flir E(XIY = 0) = 1 und E(XIY = I) = I -1 ~ 0,5708.

Aufgabe 7.6

Es seien zwei stochastisch unabhangige poissonverteilte Zufallsvariablen


X und Y mit den Parametern Al bzw. A2 gegeben. Man zeige, daB die
Summe Z = X + Y ebenfalls poissonverteilt ist mit dem Parameter
A = Al + A2·
7.9 UbungsauEgaben 143

1. Losung:

Mit X und Y besitzt auch Z = x +Y den Wertevorrat W = {a, 1, 2, ... }.


Aus

P(X = i) = Ai., e- A1 '


t.

und der stochastischen Unabhangigkeit von X und Y folgt fUr k E W:

P(Z = k) = L P(X = i, Y = l)
i+l=k

=L P(X = i)P(Y = l)
i+l=k

mit l = k - i

k
= L P(X = i)P(Y = k - i)
i=O

Die Binomialentwicklung von (AI + A2)k ergibt:

(\
"1+"2
\)k
=~
~(k)\i\k-i ~ k! AiAk-i
i "1"2 =~i!(k-i)! 12

Hiermit folgt aus (*) die Behauptung:


144 7 Mehrdimensionale Zufallsvariablen

2. Losung:

Mit den charakteristischen Funktionen

und

und dem Satz 7.4-2 ergibt sich:

<p z ( s) = <p x ( s) . <py ( s )

= exp {AdejS - I)} . exp {>.2(e jS - I)}


= exp {AdeJs - 1) + .A2(e js - I)}
= exp {(.AI + .A2) (e jS - I)}

Aufgabe 7.7
Gegeben sei die komplexwertige Zufallsvariable Z = X + jY, wobei X
und Y N(O, a 2 )-verteilt und unabhangig sind.

a) Man berechne die Varianz D2(Z) von Z.


b) Man berechne die Dichte des Betrages IZI.
Welche Verteilung ergibt sich?
c) Man berechne die Dichte der Phase q; = arctan *" von Z.
Welche Verteilung ergibt sich?

a) Mit Gleichung (7.5-2):


7.9 Ubungsaufgaben 145

b) f(x,y) = fx(x)· jy(y), da X, Y unabhangig,

Mit Kapitel 7.4:

Y
<I> = arctan X

X = Rcos<I> Y = Rsin <I>

J = cosr.p -r sinr.p
= r cos 2 r.p + r sin2 r.p = r
sin r.p r cosr.p

r {x2 + y2}
f(r, r.p) = f(x, y) . r = 27r(T 2 exp - 20- 2

r {r2 } r ~ 0, 0 ~ r.p < 27r


= 211"0-2 exp - 20-2 '

r {r2 } r~O
= 0-2 . exp - 20- 2 '

=> Rayleighverteilung

00

c) f(r.p) = f f(r, r.p) dr


o

= fOO _ r . exp {-
211"0- 2
~}
20- 2
dr
o
146 7 Mehrdimensionale Zufa11svariablen
1 1
[BS70j: = - .-
2rra 2 2 ~1

1
2rr fiir 0 :-::; <p < 2rr

=> Gleichverteilung im Intervall [0,2rr).

Aufgabe 7.8
Bei einem bestimmten Versuch trete ein Ereignis Emit der Wahrschein-
lichkeit p = 0,4 ein. Es bezeichne HN(E) die relative Haufigkeit des
Eintretens von E bei N unabhangigen Wiederholungen des Ausgangs-
versuchs. Man berechne approximativ die Wahrscheinlichkeit
P(p - 0,05 < HN(E) < p + 0,05)
fiir N = lOO und N = 1000.

SN = N HN(E) ist exakt binomialverteiltmit E(SN) = Np und D 2 (SN) =


Np(l - p). Nach dem Satz 7.8-5 kann SN mittels der Normalverteilung
approximiert werden.

(SN - E(SN))/D(SN) ist approximativ N(O, l)-verteilt.

Fiir N = 100 und p = 0,4 ist E(SN) = 40 und D(SN) = J24:


P(N(p-0,05) <N HlOO(E) < N(p+0,05)) =
= P(35 < SlOO < 45)
= P(SlOO :-::; 44) - P(SlOO :-::; 35)
= P(SlOO - E(SlOO) :-::; 4) - P(SlOO - E(SlOO) :-::; -5)
= P (SlOO - E(SlOO) <
D(SlOO) - J24
_4_) _
P (SlOO - E(SlOO)
D(SlOO)
< __
-
5_)
J24
~ ~(O, 8165) - ~(-1, 0206)
7.9 Ubungsaufgaben 147

= ~(O, 8165) - (1 - ~(1, 0206))


~ 0, 793892 - 1 + 0, 846136 ~ 0,64

Fur N = 1000 ist E(SlOOO) = 400 und D(SlOOO) = V240:


P(1000 . 0,35 < N HlOOO(E) < 1000·0,45)
= P(350 < SlOOO < 450)
= P(SlOOO :S 449) - P(SlOOO :S 350)
= P(SlOOO - E(SlOOO) :S 49) - P(SlOOO - E(SlOOO) :S -50)

= P (SlOOO - E(SlOOO) < ~)


D(SlOOO) - V240
_ P (SlOOO - E(SlOOO) < -50)
D(SlOOO) - V240
~ ~(3, 1629) - ~(-3, 2275)
= ~(3, 1629) - (1 - ~(3, 2275))
~ 0,999184 - 1 + 0,999313 = 0,9985

Aus den beiden Ergebnissen wird plausibel, daB

lim P(p - € < HN(E) < p + €) = 1


N-Hx)

fUr jede beliebige (kleine) positive Zahl € gilt.

In Worten: Die relative Haufigkeit HN(E) konvergiert fUr N -+ 00 in


Wahrscheinlichkeit gegen die Wahrscheinlichkeit P(E) = p des Ereignis-
ses E. Dies ist das Bernoullische Gesetz der groBen Zahlen (Satz 7.8-2).

Aufgabe 7.9
Fur das Funktionieren einer bestimmten Maschine ist es erforderlich, daB
ein bestimmtes auswechselbares Teil intakt ist. Uber die Lebensdauer X
148 7 Mehrdimensionale Zufallsvariablen

eines solchen Teils ist bekannt, daB sie ausreichend genau normalverteilt
ist mit J-L = 106 [Stunden] und 0' = 10 [Stunden]. An jedem Arbeitstag
laufen gleichzeitig 10 dieser Maschinen wahrend 16 Stunden. Die Zeit
fUr das Auswechseln der besagten Teile solI im folgenden auBer Betracht
gelassen und die Lebensdauern der einzelnen Teile als unabhangig ange-
nommen werden.

a) Es bezeichne Y die Summe der Lebensdauern eines Vorrates von


150 dieser Teile. Man berechne E(Y) und D(Y) von Y.

b) Man berechne die Wahrscheinlichkeit dafiir, daB der Vorrat von


150 Teilen fUr einen Zeitraum von 100 Arbeitstagen ausreicht.
1st die Berechnung auch dann moglich (wenigstens naherungswei-
se), wenn die Lebensdauer X eines Teiles nicht ausreichend genau
normalverteilt ist?

a) Mit Satz 7.7-1 (Teile fallen unabhangig voneinander aus) folgt:

150
E(Y) = L J-L = 150 J-L = 15900 [Stunden],
n=l

150
D2 (Y) = L D2 (X) = 150· 100 [Stunden2],
n=l

D(Y) = 122,47 [Stunden]

b) Die fiir 100 Arbeitstage erforderliche Maschinenzeit betragt 10·16·


100 = 16000 Stunden. Die gesuchte Wahrscheinlichkeit ist also:

P(Y > 16000) =1- P(Y ::; 16000)

= 1 _ <I> (16000 - 15900)


122,47
= 1 - <1>(0, 8165) ~ 1 - 0, 793892
~ 0,206
7.9 Ubungsau[gaben 149

Da die einzelnen Lebensdauern als unabhangig an genom men wer-


den konnen, ist Y als Summe einer groBen Anzahl von unabhangi-
gen zufalligen Variablen nach dem zentralen Grenzwertsatz auch
dann naherungsweise normalverteilt, wenn dies fur die einzelnen
Lebensdauern nicht gilt.

Aufgabe 7.10
Xi sei das Ergebnis der i-ten Messung (i = 1,2,···) einer physikalischen
KenngroBe. Die Xi seien Zufallsvariablen mit der Standardabweichung
0-.

a) Wieviele voneinander unabhangige Messungen der KenngroBe


mussen durchgefiihrt werden, damit das arithmetische Mittel der
MeBergebnisse mit einer Wahrscheinlichkeit von mindestens 0,9
dem Betrage nach urn weniger als € = %yom Erwartungswert der
KenngroBe abweicht?
b) Wie lautet das Ergebnis, wenn bekannt ist, daB die Xi normalver-
teilt sind?

a) Das arithmetische Mittel ist


1 n
X = - LXi
n i=1

Tschebyscheffsche Ungleichung (7.8-4) mit X und Erwartungswert

E
_ (1
(X) = E
n
;: ~ Xi
)
= E(X i ) = Jl
150 7 Mehrdimensionale Zufallsvariablen
__ u2
=> P(IX - ILl < f) 2 1 - -2 2 0,9
nf

Es muB gelten:

25 ~ 0, 1 => n 2 250
n

b) Wenn bekannt ist, das die Xi identisch normalverteilt sind, ist


v'n(X - IL)/U standardnormalverteilt, so daB gilt

--
P ( IX - ILl < U)
5" = P
(U -- U)
- 5" < X - IL < 5"

= 4> (~)
u/vn
- 4> (-~)
u/v'n

= 4> ( ~) - 4> ( - ~) = 24> ( ~) - 1.

Die Bedingung

P (IX - ILl < i) = 24> (~) - 1 2 0,9

ist aquivalent zu

4> (~) 20,95

~ 21,64
=> n 2 68.
Die Zusatzinformation "normalverteilter MeBfehler" reduziert also
die Anzahl der zur Gewahrleistung einer vorgegebenen Genauigkeit
mit vorgegebener Sicherheitswahrscheinlichkeit notigen Messungen
betrachtlich.
7.9 Ubungsau[gaben 151

Aufgabe 7.11
Gegeben sind zwei im Intervall [0, 1) gleichverteilte, unabhangige Zufalls-
zahlen U1 , U2 • Aus diesen ZufalIszahlen sollen zwei unabhangige N(O, a 2 )_
verteilte ZufalIszahlen X und Y erzeugt werden. Man gebe die Transfor-
mationsfunktionen X = gl(U1 ,U2) und Y = g2(U1 ,U2) an.
Tip: Man erzeuge zuerst Betrag IZI und Phase <P von Z aus Aufgabe
7.7.

Aus Aufgabe 7.7 ist bekannt, daB R = .jX2 + y2 = IZI rayleigh-verteilt


ist. Aus Aufgabe 5.3 ist die Verteilungsfunktion von R bekannt:

fiir r 2: 0
sonst

Die Phase <P ist gleichverteilt im Intervall [0, 27r) und hat somit die Ver-
teilungsfunktion

0 fiir cp <0
F<t>(cp) = { f; fiir 0 :::; cp < 27r .
1 fiir cp 2: 27r
R und <P konnen mit Hilfe der gleichverteilten Zufallsvariablen U1 , U2
folgendermaBen dargestellt werden (Satz 7.6-2):
R = Fii1(U1) = J-2a 2 In(l-:- Ud
und

mit
X = Rcos<p Y = Rsin<P
ergibt sich
X = J -2a In(1 - Ud . cos(27rU2)
2

Y = J -2a2 In(1 - Ud . sin(27rU2 ).


8 Grundlagen stochastischer
Prozesse

Aufgaben der Regelungs- und Nachrichtentechnik erfordern im allgemei-


nen Losungen, die nicht nur fur einzelne Signale, sondern fUr eine groBe
Anzahl moglicher Signale mit gewissen gemeinsamen Eigenschaften gel-
ten. Ein mathematisches Modell fur eine solche Schar von Signalen ist
ein stochastischer ProzeB.

8.1 Definition stochastischer Prozesse


Definition 8.1-1
Ein stochastischer ProzeB X (t, 0 ist eine mit dem Parameter
t indizierte Familie von ZuJallsvariablen.

Bemerkungen:

(i) t wird im allgemeinen als Zeit interpretiert, d.h. t ist ein kontinu-
ierlicher Parameter.

(ii) Zu jedem (festen) Zeitpunkt to ist Xto(~) = X(to,~) eine Zufalls-


variable.

(iii) Wird der Zufallsparameter ~ in X (t, ~) festgehalten, ergibt sich eine


Zeitfunktion X(t,~o), die als Realisierung oder Pfad des Prozes-
ses bezeichnet wird. 1m allgemeinen ist die Anzahl aller moglichen
Pfade (iiberabzahlbar) unendlich groB. Bild 8.1-1 zeigt drei Pfade
eines stochastischen Prozesses.

(iv) Statt X(t,~) schreiben wir im folgenden X(t), bedenken dabei je-
doch immer, daB es sich um einen stochastischen ProzeB handelt.

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
8.1 Definition stochastischer Prozesse 153

Bild 8.1-1: Realisierungen eines stochastischen Prozesses

Da ein stochastischer ProzeB als Gesamtheit seiner Realisierungen de-


finiert ist, kann man ihn z.B. bezUglich jeder Menge von Zeitpunkten
tl < t2 < ... < tN betrachten, wobei N E IN ist. Die Zufallsvaria-
bIen X(tn) mit n = 1,2, ... , N sind stochastisch durch ihre gemeinsame
(N-dimensionale) Dichte f(Xt"Xt2"" ,XtN) (vergleiche Definition 7.1-
3) charakterisiert.
Betrachtet man nun eine andere Menge von N Zufallsvariablen X(tn+h),
wobei heine Zeitverschiebung bedeutet, wird im allgemeinen
f(Xtl +h, xh+h, ... , XtN+h) # f(xt" Xt2" .. , XtN)
gelten. FUr den Spezialfall, daB hier das Gleichheitszeichen gilt, treffen
wir die
Definition 8.1-2
Falls
(8.1-1)
fur jedes h undjedes N gilt, ist X(t) ein stark stationarer Pro-
zeB.
Bemerkung:
Samtliche Dichten eines stark stationaren Prozesses sind gegenUber be-
liebigen Verschiebungen der Zeitachse invariant.
154 8 Grundlagen stochastischer Prozesse

8.2 Scharmittelwerte
Genauso wie Momente ffir ZufaIlsvariablen definiert werden (Definition
5.1-2) werden auch Momente stochastischer Prozesse erkHi.rt. Weil aIle
Realisierungen in den Mittelungsprozef3 einbezogen werden, handelt es
sich dabei urn Scharmittelwerte.
Definition 8.2-1

00

E{Xk(tn)} = / xtf(xt n } dXtn (8.2-1)


-00

heiflt k-tes Moment der Zujallsvariablen X(tn}.


Bemerkung:
1m allgemeinen hangt das k-te Moment (8.2-1) vom Zeitpunkt tn abo 1st
der zugrundeliegende Prozef3 jedoch stark stationar, gilt also f(xt n }
f(Xtn+h} Vh und Vt n , sind die Momente nicht zeitabhangig.
- Mittelung tiber eine Realisierung - - -
(Zeitmittel)

t.~(!;,·I)
I\. M (VI,. fV\" M /l .
v '" III

~
X(!;2'1)
_IlH
V
.

f
I

X(!;3.l l
1ItJ\,rvw-.
V V I

Bild 8.2-1: Bildung von Scharmittelwert und Zeitmittelwert (ergodischer


Prozef3)
8.2 Scharmittelwerte 155

Bild 8.2-1 skizziert die Mittelungsriehtungen in einem stochastischen


ProzeB, auf die Mittelung in Zeitrichtung wird in Abschnitt 8.4 einge-
gangen.
Definition 8.2-2

(8.2-2)

II
00 00

= XtlXt2f(Xtl,Xt2)dXtl dXt2
-00 -00

heijJt Autokorrelationsfunktion des stochastischen Prozesses


X(t).
1st X(t) stark stationar, gilt f(XtllXt2) = f(Xtl+h,Xt2+h) Vtl,t2,h. Das
zieht nach sieh, daB die Autokorrelationsfunktion nieht von h und t2
sondern nur von der Differenz r = t2 - tl abhangt. Flir stark stationare
Prozesse gilt also

Ferner folgt dann

cpxx( -r) = E{X(tdX(tl - r)} = (t~ := tl - r)


= E{X(t~ + r)X(t~)} = E{X(t~)X(t~ + r)} = cpxx(r)
d.h. cpxx(r) ist eine gerade Funktion.

Definition 8.2-3
Ein stochastischer ProzejJ, dessen Erwartungswert (l. Moment)
konstant ist und fur dessen Autokorrelationsfunktion

(8.2-3)

gilt, heijJt (schwach) stationar.

cpxx(O) = E{X2(t)} ist die mittlere Leistung des stationaren stocha-


stischen Prozesses X (t) .
156 8 Grundlagen stochastischer Prozesse

BelDerkung:
Jeder stark stationare Proze6 ist auch schwach stationar. Die Umkeh-
rung dieser Aussage gilt nieht: Schwache Stationaritat bezieht sich nur
auf die ersten beiden Momente, wahrend sieh die starke Stationaritat
auf salDtliche Diehten eines stochastischen Prozesses bezieht. Statt von
schwacher Stationaritat sprechen wir im folgenden kurz von Statio-
naritat.
Mit der Autokorrelationsfunktion eng verwandt ist die Autokovarianz-
funktion:
Definition 8.2-4

CXX(tI, t2) = E{(X(td - JL(td)(X(t2) - P.(t2))}


= 'PXX(tI,t2) - JL(tdJL(t2), (8.2-4)
mit JL(tn) = E{X(t n )}; n = 1,2; heiflt Autokovarianzfunktion
des stochastischen Prozesses X(t).
BelDerkung:
Filr stationare Prozesse vereinfacht sieh die Autokovarianzfunktion von
X(t) zu
cxx(tI, t2) = CXX(t2 - td = CXX(T) = 'PXX(T) - JL 2.

Definition 8.2-5
Der stochastische Prozefl X (t) heiflt norlDal (oder Gaufipro-
ze6), wenn fur jedes N und beliebige Zeitpunkte tI, t2,'" , tN
der Zufallsvektor [X(td,X(t2)"" ,X(tN)jT eine N-dimensio-
nale Normalverteilung besitzt.
BelDerkung:
1st der normale Proze6 zusatzlich stationar, gilt ilN(t) = ilN 'V t und die
Elemente der Kovarianzmatrix 'E'N hangen nur von den Zeitdifferenzen
ti - tj abo Aus Gleiehung (7.3-7) und (7.3-9) folgt, daB ein Gau6pro-
zeB durch Vorgabe von Mittelwertvektoren i1N und Kovarianzmatrizen
'E'N vollstandig bestimmt ist. Daraus folgt, daB ein (schwach) stationarer
Gau6proze6 stark stationar ist. Da die umgekehrte Aussage grundsatz-
lich gilt, sind rur norlDale Prozesse starke und schwache Statio-
naritat aquivalent.
8.2 Scharmittelwerte 157

Sind X(t) und Y(t) zwei stationare Prozesse, stellen die Zufallsvariablen
X(t n }; n = 1,2, ... ,Nj und Y(t~)j m = 1,2, ... ,Mj fUr die Zeitpunkte
tl < t2 < ... < tN und t~ < t~ < ... < t~ Zufallsvariablen dar. Beide
Prozesse zusammen werden durch ihre gemeinsamen Dichten

charakterisiert. Dabei sind N, M E IN beliebig und tl, t2, ... ,t N sowie


t~, t~, ... ,t~ beliebige Zeitpunkte.

Definition 8.2-6

(8.2-5)

!!
00 00

= XtlYt2!Xy(Xtl' Yt2) dXtl dYt 2


-00 -00

heiflt Kreuzkorrelationsfunktion von X(t) und Y(t),


CXy(tl' t2) = cpxy(h, t2) - /-Lx (td/-LY(t2) (8.2-6)
ist die Kreuzkovarianzfunktion der beiden Prozesse.
Die stationaren Prozesse X(t) und Y(t) hei6en gemeinsam stationar,
wenn sowohl X (t) als auch Y (t) stationar ist und ihre Kreuzkorrelati-
onsfunktion nur von der Zeitdifferenz T = t2 - tl abhangt [Pap91]:
CPXy(tl, t2) = CPXy(T),
In diesem Fall folgt:

CPXy( -T) = E{X(tdY(tl - Tn = (t~ = tl - T)


= E{X(t~ + T)Y(t~n = E{Y(t~)X(t~ + Tn = CPYX(T) (8.2-7)

Definition 8.2-7
Die Prozesse X (t) und Y (t) heiflen stochastisch unabhiingig, wenn
158 8 Grundlagen stochastischer Prozesse

fur beliebige tn, t~ und alle N, M E 1N gilt.


Die Prozesse sind unkorreliert, wenn \ltl, t2
(8.2-9)
gilt.
Ist\lt 1 ,t2
<PXy(tl, t2) = E{X(tdY(t2)} = 0, (8.2-10)
heiften X(t) und Y(t) orthogonal.
Bemerkung:
Fur unkorrelierte Prozesse ist immer CXy (tl, t2) = o.

8.3 Komplexwertige stochastische Prozesse


Definition 8.3-1

Z(t) = X(t) + jY(t) (8.3-1)


ist ein komplexwertiger (kurz: komplexer) stochastischer Pro-
zeB, wenn sowohl X(t) als auch Y(t) reellwertige Zufallsprozesse
sind.
Die gemeinsamen Dichten der Zufallsvariablen Z(t n ); n = 1,2, ... ,Nj
sind durch die gemeinsamen Dichten der Komponentenprozesse von
(X(t), Y(t))T

bestimmt.
Die Autokorrelationsfunktion eines komplexen Prozesses ist durch

<PZZ(tl, t2) = ~E{Z(td . Z*(t2)} (8.3-2)

= ~E{[X(tl) + jY(tdl· [X(t2) - jY(t2)]}


1
= 2{<PXX(tl, t2) + <pyy(h, t2)

+ j[<PYX(tl, t2) - <PXy(tl, t2)]}


8.3 Komplexwertige stochastische Prozesse 159

definiert, wobei ~ ein fUr technische Anwendungen verniinftiger Vorfak-


tor ist.
Sind die Prozesse X(t) und Y(t) gemeinsam stationar, ist auch Z(t)
stationar und es gilt mit T := t2 - tl

Fiir die Autokorrelationsfunktion <PZZ(T) folgt (t2 = tl + T)

Tn
(8.3-2)
1
2 E {Z*(td Z (t1 +
E·(Z).::.E(Z·)

1
2E{Z(t1 + T)Z*(td}

= ~E{Z(tDZ*(t~ - Tn
<PZZ(-T). (8.3-3)

Sind Z(t) = X(t) + jY(t) und W(t) U(t) + jV(t) zwei komplexe
stochastische Prozesse, erhalten wir fiir ihre Kreuzkorrelationsfunktion:

<PZW(tl, t2) = ~E{Z(tdW*(t2n (8.3-4)

= ~E{[X(h) + jY(td][U(t2) - jV(t2)]}

1
= 2{<pxu(t1, t2) + <pyv(t1, t2)
+ j[<pYU(tl, t2) - <PXV(tl, t2)]}

Sind Z (t) und W (t) gemeinsam stationar, wird die Kreuzkorrelations-


funktion eine Funktion der Zeitdifferenz T = t2 - tl und es folgt:

<pZW(T) = ~E{Z*(tdW(tl + Tn
1
= 2E{W(t1 + T)Z*(td}

= ~E{W(t~)Z*(t~ - Tn
= <PWZ(-T) (8.3-5)
160 8 Grundlagen stochastischer Prozesse

8.4 Zeitmittelwerte
Von den in Bild 8.2-1 skizzierten Moglichkeiten der Mittelwertbildung
fUr einen stochastischen ProzeB wurde in Abschnitt 8.2 der Scharmit-
telwert diskutiert. Vnd nur die Scharmittelwerte sind fur den ProzeB
reprasentativ.
Ein Zeitmittelwert sagt nur etwas uber die einzelne Realisierung aus,
er kann von Realisierung zu Realisierung variieren. Es gibt jedoch eine
Klasse stationarer Prozesse, fUr die Scharmittelwerte und Zeit mittel-
werte identisch sind:
Definition 8.4-1
Der stationare stochastische ProzejJ X(t) ist ergo disch, wenn
aile seine statistischen Eigenschaften aus einer einzigen Realisie-
rung x(t) abgeleitet werden konnen.
Bemerkung:
Die Ergodizitat laBt sich im allgemeinen nicht ohne weiteres nachprufen.
Man hilft sich hier mit der Ergodenhypothese, mit der die Ergodizitat
einfach postuliert wird, oder man begnugt sich mit eingeschrankten Aus-
sagen.
Definition 8.4-2
Es seien 9 : 1R -+ 1R eine reellwertige Funktion und x(t) ein Pfad
des stationaren stochastischen Prozesses X (t).

-
g[x(t)] = i~~ 2T 1/ T

g[x(t)] dt (8.4-1)
-T

heijJt zeitlicher Mittelwert der Realisierung x(t) bezuglich


der Funktion g.
Beispiel: 1st 9 die Identitat, erhalt man mit

m -
= x(t) = T-+oo 1/
lim -T
2
T

x(t) dt (8.4-2)
-T

den zeitlichen Mittelwert des Pfades, der fur ergodische Prozesse mit
dem Erwartungswert E{X(t)} ubereinstimmt.
8.4 ~eitrnittelvverte 161

Definition 8.4-3
Der stationiire stochastische Prozep X(t) heipt ergodisch
beziiglich g, wenn

g[x(t)] = E{g(X(t))} (8.4-3)

gilt.
Bemerkungen:

(i) Bei einern bezuglich 9 ergodischen ProzeB stimmen zeitlicher Mit-


telwert g[x(t)] des Pfades x(t) und der Erwartungswert der Zufalls-
variablen g[X(t)] uberein.

(ii) Zur Uberpriifung der Ergodizitat eines stochastischen Prozesses


bezuglich des (linearen) Mittelwertes muB seine Autokorrelations-
funktion herangezogen werden [Han97]. Allgemein gilt, daB zur
Prufung der Ergodizitat bezuglich des Mittelwerts der Ordnung
k (siehe (8.4-4)) die Momente der Ordnung 2k benotigt vverden.

Fur ergodische Prozesse berechnen sich die gangigsten Momente, die


gemaB Definition 8.4-3 gleich den entsprechenden zeitlichen Mittelvverten
sind, nach folgenden Formeln.
k-tes Moment:
T
m(k) .
= hm -1 / xk(t) dt (8.4-4)
T ..... oo 2T
-T

k-tes zentrales Moment:


T

J..£(k) = lim ~ / [x(t) - m]k dt (8.4-5)


T ..... oo 2T
-T

Autokorrelationsfunktion:
T

<pXX(T) = lim ~
T ..... oo 2T
/ x(t)x(t + T) dt (8.4-6)
-T
162 8 Grundlagen stochastischer Prozesse

Autokovarianzfunktion:
T

cxx(r) = .
)~~ 1 / [x(t) - m)[x(t
2T + r) - m] dt (8.4-7)
-T

Zwei stoehastisehe Prozesse sind gemeinsaIIl ergodisch, wenn beide


Prozesse gemeinsam stationar und ergodiseh sind und wenn aueh fur
ihre gemeinsamen Momente die Vertausehbarkeit von Sehar- und Zeit-
mittelwerten gegeben ist. Dann folgt:
Kreuzkorrelationsfunktion:
T
.
<pxy(r) = }~~ 1 /
2T x(t)y(t + r) dt (8.4-8)
-T

Kreuzkovarianzfunktion:
T

cxy(r) = )~moo 2~ / [x(t) - m",)[y(t + r) - my] dt (8.4-9)


-T

8.5 Das Leistungsdichtespektrum


Der Frequenzgehalt ist ein Unterseheidungskriterium fur Signale. Dabei
ist zu beaehten, daB es Signale mit endHeher Energie (Energiesigna-
Ie) und solche mit endHeher Leistung (Leistungssignale) gibt. Den
Frequenzgehalt von Energiesignalen erhalt man dureh die Fouriertrans-
formation (siehe Anhang B). Periodische Signale besitzen keine end-
Hehe Energie, d.h. zu ihnen existiert keine Fouriertransformierte. Den
Frequenzgehalt periodischer Signale bestimmt man dureh Fourierreihen-
entwicklung, bei der die Fourierkoeffizienten die Verteilung der Energie
auf die diskreten Frequenzen widerspiegeln.
Stoehastisehe Prozesse sind Familien von Zufallsvariablen, ihre Reali-
sierungen sind im allgemeinen keine Energiesignale. Will man den Fre-
quenzgehalt eines stoehastisehen Prozesses erfassen, ist eine summari-
sche Betraehtung aller Pfade notwendig. Daher definiert man als Fre-
quenzgehalt eines stationaren Zufallssignals (stoehastischer Prozef3!) die
Fouriertransformierte seiner Autokorrelationsfunktion:
8.5 Das Leistungsdichtespektrum 163

Definition 8.5-1
X (t) sei ein stationiirer stochastischer Prozeft mit der A utokorre-
lationsfunktion ip x x (r). Dann heiftt

f
00

~xx(f) = ipxx(r)e- j27r !T dr (8.5-1)


-00

Leistungsdichtespektrum des Prozesses X (t).


Bemerkungen:

(i) Die inverse Fouriertransformation liefert

f ~xx(f)ej27r!T
00

ipxx(r) = df. (8.5-2)


-00

(ii) Es gilt

f ~xx(f)
00

ipxx(O) = df = E{X2(t)} 2: O. (8.5-3)


-00

Man kann zeigen, daB ~xx(f) 2: 0 VI ist [Pro95]. Damit gibt


~ x x (f) die Leistungsverteilung auf die Frequenzen an.

1st X (t) ein reeller stochastischer ProzeB, ist ip x x (r) reell und gerade,
dann ist aber auch ~ x x (f) reell und gerade. Fur komplexe Prozesse gilt
ipzz(r) = ipzz(-r) (8.3-3) und damit

f
00

~zz(f) = ipzz(r)e- j27r !r dr


-00

f
00

= ipzz( _r)e- j27r !T dr


-00

=f
00

ipzz(r)e j27r !T dr
-00

= ~zz(f)·
164 8 Grundlagen stochastischer Prozesse

Zusammen mit der oben gemachten Bemerkung (8.5-3), die sinngemafi


auch fUr komplexe Prozesse gilt, ergibt sich so der
Satz 8.5-1
Das Leistungsdichtespektrum ist in jedem Fall eine nichtnegative
reellwertige Funktion.

Definition 8.5-2

<PXy(f) = !00

-00
<f!xy(r)e-j2rrfr dr (8.5-4)

heiflt Kreuz-Leistungsdichtespektrum der gemeinsam stati-


oniiren Prozesse X(t) und Y(t).

Aus Gleichung (8.2-7), <f!xy(-r) = <f!yx(r), folgt sofort (<f!xy(r) ist


reell):

<PXy(f) = !00

-00
<f!xy(r)ej2rrfr dr

= !00

-00
<f!yx(-r)ej2rrfr dr

= !00

-00
<f!yx(r)e-j2trfr dr

Fur gemeinsam stationare reelle stochastische Prozesse gilt andererseits

!
00

<PXy(f) = <f!xy(r)ej2trfr dr = <PXy( - J).


-00

Daraus ergibt sich:


8.6 Zeitdiskrete ZuEallsprozesse 165

8.6 Zeitdiskrete Zufallsprozesse


Ein zeitdiskreter Zufallsproze13 X (n) ist eine Familie zufalliger Folgen
{x(n)}. X(n) kann z.B. durch aquidistante Abtastung eines zeitkontinu-
ierlichen Prozesses X(t) entstanden sein (n = nLlt). Die Eigenschaften
von X(t) und X(n) sind daher einander sehr ahnlich.
Das k-te Moment von X(n) ist

Jx~!(Xn)
00

E{Xk(n)} = dxn. (8.6-1)


-00

Statt der Autokorrelationsfunktion erhalt man hier die Autokorrelati-


onsfolge

<fJxx(n, k) = E{X(n)X(k)} (8.6-2)

JJ
00 00

= XnXk!(X n, Xk) dXn dXk


-00 -00

und genauso die Autokovarianzfolge

cxx(n, k) = <fJxx(n, k) - E{X(n)}E{X(k)}. (8.6-3)

Flir stationare stochastische Prozesse erhalten wir die Gleichungen

= <fJxx(k - n)
<fJxx(n, k)
cxx(n, k) = cxx(k - n) = <fJxx(k - n) - [E{X(n)}]2 .

Genauso wie die Pfade eines zeitkontinuierlichen Prozesses haben auch


die Pfade zeitdiskreter Prozesse im allgemeinen keine endliche Energie.
Einem stationaren Prozef3 wird aber eine endliche mittlere Leistung
zugeschrieben, die durch

gegeben ist.
Das Leistungsdichtespektrum des zeitdiskreten stationaren Prozes-
ses X(n) erhalt man aus der Fouriertransformation von <fJxx(m). Da
166 8 Grundlagen stochastischer Prozesse

rp x x (m) eine zeitdiskrete Folge ist, ergibt sich ihre Fouriertransformier-


te zu

L
00

ipxx(f) = rpxx(m)e-j21rfm (8.6-4)


m=-oo

und die inverse Fouriertransformierte ist

!
1-
2

rpxx(m) = ipxx(f)e j21rfm df. (8.6-5)


1
-2

Da ip x x (f) die Fouriertransformierte eines zeitdiskreten Signals ist, ist


ip x x (f) periodisch mit der Periode Ip It·
= D.h. es gilt
ipxx(f + k· Ip) = ipxx(f) fUr k = ±1, ±2, ....

8.7 Ubungsaufgaben
Aufgabe 8.1
Es sei X(t), t > 0 ein stochastischer Prozefi mit der Verteilungsfunktion

FX(t) (x) = 1-exp { - (T)2}, X ~ o.


Die gemeinsame Dichte von X(tt} und X(t2), (tl' t2 > 0) sei

a) Man berechne E{X(t)} dieses Prozesses.


b) Man berechne die Autokorrelationsfunktion von X(t).
c) 1st der Prozefi schwach stationar? 1st er stark stationar? (Be-
griindung!)
8.7 Ubungsaufgaben 167

a) Mit (4.1-13) gilt:

dF(x)
iX(t)(x) = ~

= 2. ~ . exp { - ( Tf} , x 2: 0

!
00

E{X(t)} = 2· :: . exp {_(T)2} dx


o
..fi
= 21. _ . -- ..fi
3 =_·t
t 2 4(b) 2 2

b)

c) Der Prozef3 ist weder schwach noch stark stationar, da E[X(t)]


zeitabhangig ist.

Aufgabe 8.2 [Bei97]


Eine QueUe erzeugt zufa.J.lig und unabhangig voneinander eine Folge von
Zeichen 1 bzw. 0 der Lange T. Diesem Signal kann folgender stochasti-
scher Prozef3 zugewiesen werden:

L
00

X(t) = A(nT)h(t - nT)


n=-oo
168 8 Grundlagen stochastischer Prozesse

mit der zeitdiskreten Folge von unabhangigen, null-eins-verteilten Zu-


fallsvariablen A{nT), die mit Wahrscheinlichkeit p den Wert 1 und mit
Wahrscheinlichkeit 1 - p den Wert 0 annehmen. Ferner sei

I fUr 0 < t <T


h{t) = { -
o sonst
ein deterministischer Impuls.

a) Man skizziere eine mogliche Realisierung dieses Prozesses.


b) Man berechne E{X{t)}.
c) 1st dieser Prozef3 (schwach) stationar?
d) 1st der stochastische Prozef3 Y{t) = X{t - D), mit der in [0, T)
gleichverteilten Zufallsvariablen D, (schwach) stationar? Skizzieren
Sie eine mogliche Realisierung von Y{t).

a) Eine mogliche Realisierung des Prozesses ist in nachfolgender Gra-


fik wiedergegeben.

x(t)

o o o

-3T -IT -T 0 IT 2T 3T 4T 5T

y(t)

,.----,
,,
I
I

,,
I
,, , ,,
I ,,, 0 , I 0 ,, I , I ,,, 0 ,,, I
,,
, ,

-3T -2T -T 0 IT 2T 3T 4T 5T

Bild 8.7-1: Mogliche Realisierungen von X{t) (oben) und Y{t) (unten)
8.7 Ubungsaufgaben 169

L L
00 00

b) E{X(t)} = E{A(nT)}h(t-nT)= ph(t-nT)=p 'Vt


n=-oo n=-oo

c) Es mussen hier zwei verschiedene FaIle untersucht werden, die von


den Zeitpunkten tl und t2 abhangen.
1. Fall:
Wenn tl und t2 innerhalb eines Bit-IntervaIles T liegen, ergibt sich
mit nT :::; t 1 , t2 < (n + 1 )T; n = 0, ± 1, ±2, ... :

E{X(td X (t2)} (7.;;9)

E{X(tdX(t2)IX(td = I}· P(X(td = 1)


+ E{X(tdX(t2)IX(tl) = O} . P(X(td = 0) = 1· p
2. Fall:
Wenn tl und t2 nicht im selben Bit-IntervaIl T liegen, ergibt sich
mit

mT :::; tl < (m + l)T

und

nT:::; t2 < (n + l)T

mit m i= n
E{X(tdX(t2)} = E{X(td}· E{X(t2)}
=p.p=p2

Insgesamt gilt somit:

sonst

Der Proze13 X (t) ist, obwohl sein 1. Moment konstant ist, nicht
stationar, da die Autokorrelationsfunktion nicht nur von der Zeit-
differenz T = t2 - tl abhangig ist.
170 8 Grundlagen stochastischer Prozesse

d) Auch hier werden zwei Fane unterschieden:


1. Fall:
Fur den Abstand zwischen den Zeitpunkten gilt It2 - tIl 2: T.
Dann sind Y(td und Y(t2) unabhangig und tl und t2 sind durch
mindestens einen Schaltpunkt nT + D; n ± 1, ... ; getrennt. Es gilt
<Pyy(tl,t2) =p2.
2. Fall:
Vnter der Bedingung It2 - tIl < T sind Y(td und Y(t2) nur
dann unabhangig, wenn tl und t2 durch genau einen SchaItpunkt
nT + D; n = 0, ±1, ±2, ... ; getrennt sind. Dieses zufallige Ereignis
wird mit B bezeichnet. Das dazu komplementare Ereignis unter
derselben Bedingung sei B. Die zugehOrigen Wahrscheinlichkeiten
sind:

Also gilt unter der Bedingung It2 - tIl < T:


E{Y(tdY(t2)} (7.~9) E{Y(tdY(t2)IB}P(B)
+E{Y(tdY(t2)IB}P(B)
E{Y(tl)}E{Y(t2)}P(B)
+E{y2(tl)}P(B)

= p2 . It2 ; tIl + p. (1 _ It2 ; tIl)

p2 . 1;1 + p. (1 _1;1)
Insgesamt gilt somit:

<PYY(T) = {
p2 1¥ + P (1 - 1¥) fur ITI < T
p2 sonst

Folgerung: Der Prozef3 yet) ist schwach stationar, da E{Y(t)} =


E{X(t - D)} = p = canst. und <Pyy(tl' t2) = <PYY(T) gilt.
8.7 Ubungsau[gaben 171

Aufgabe 8.3
Gegeben sei ein stochastischer ProzeB
X(~, t) = A(~) . cos[27r fot + Y(O]
wobei fo eine reelle Konstante ist. Die Zufallsvariablen A und Y sei-
en stochastisch unabhangig. Y sei im Intervall [-7r,7r) gleichverteilt, A
besitze eine N(O, 2)-Verteilung. Man bestimme

a) die Autokorrelationsfunktion und


b) die spektrale Leistungsdichte

des Prozesses.

a) <PXX(tI, t2) = E{X(td· X(t2)}


= E{ A cos [27r fotl + Y] . A cos [27r fot2 + Y]}
= E{A2}. E{cos [27rfotl + Y]
. cos [27r fot2 + Y]}

mit: cos x . cos y = ! (cos (x - y) + cos (x + y))


1
= 2· "2E{cos[27rfo(t2 - td]

+ cos [27r fO(t1 + t 2) + 2Y]}


mit Gleichung (5.1-7)

2../
..-
+ 27r cos [27r fO(t1 + t2) + 2y] dy
-..-
,
'"
=0

= cos [27rfor] = <pxx(r)


172 8 Grundlagen stochastischer Prozesse

b) A und Y sind unabhangig

=> E{X(t)} = E{Acos(27r/ot + Y)}


= E{A}E{cos(27r/ot + Y)}
=0
Insgesamt folgt, daB X(t,~) schwach stationar ist. Die spektrale
Leistungsdichte existiert also und ist gegeben durch:

~xx(f) .-0 ctlXX(T)

Aus Anhang B (Tabelle B-1) folgt


1
~xx(f) "2 [t5(f - /0) + t5(f + /0)].

Aufgabe 8.4
X(t) sei ein normaler, stationarer ProzeB mit E{X(t)} = O. Er besitze
die Au tokorrelationsfunktion

T>O.

a) Man bestimme das Leistungsdichtespektrum des Prozesses.


b) Man bestimme die mittlere Leistung des Prozesses.
c) Man bestimme die gemeinsame Dichte der Zufallsvariablen X(h)
und X(t2) mit tl = 0 und t2 = 2T.

a) Aus Anhang B (Tabelle B-1) folgt:

~xx(f) .-0 exp { _I;I}


2~ 2T
~xx(f) = ~ + (27r/)2
=
1 + (27r/T)2
8.7 Ubungsaufgaben 173

b) E{X2(t)} = <pxx(O) = 1
c) Da X(t) ein normaler ProzeB ist, ist die gemeinsame Dichte von
X(td und X(t2) eine GauBdichte. Zu deren Bestimmung sind Mit-
telwerte m1, m2, Varianzen 0"1,0"2 und der Korrelationskoeffizient
p zu ermitteln.
Nach Voraussetzung ist der ProzeB mittelwertfrei:

O"i = E{X2(td} - mi
= <pxx(O) = 1

x (t) ist stationar =? 0"2 = 0"1 = 1

= E{X(tdX(t2)} = E{X(O)X(2T)}

= <pxx(2T) = e- 2.
Insgesamt folgt fUr die gemeinsame Dichte:
9 Spezielle stochastische
Prozesse

1m letzten Kapitel dieses Buches wollen wir uns mit speziellen stochasti-
schen Prozessen beschaftigen. Die fur die Anwendung uberaus wichtige
Klasse der normalen oder Gauf3prozesse haben wir bereits in Abschnitt
8.2 (Definition 8.2-5) kennengelernt. Wir werden uns hier zunachst einem
Spezialfall aus dieser Klasse zuwenden.

9.1 WeiBes GauBsches Rauschen

Unter einem wei6en Gau6schen Rauschen X(t) versteht man einen


mittelwertfreien, stationaren Gauf3prozef3, dessen Leistungsdichtespek-
trum auf der gesamten Frequenzachse konstant ist (Bild 9.1-1(a»:

No
~xx(f) = 2" Vf (9.1-1)

Gemaf3 (8.5-2) hat das weif3e Gauf3sche Rauschen daher die Autokorre-
lationsfunktion (vergleiche auch Tabelle B-1)

!
00

tpxx(r) = ~o ej21r / df
T

-00

(9.1-2)

F. Jondral et al., Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure
© B. G. Teubner Stuttgart · Leipzig 2000
9.1 WeiBes GauJ3sches Rauschen 175
(a)

o
(b) tiefpaBbegrenzt
...---+--,No
-f-B-

-8/2 o B/2

Bild 9.1-1: Leistungsdichtespektren weif3er Gauf3scher Rauschprozesse

Bemerkungen:

(i) Die mittlere Leistung des weif3en Gauf3schen Rauschens ist nicht
endlich.

(ii) Die Realisierungen des weif3en Gauf3schen Rauschens sind keine


Funktionen sondern Distributionen [Hid80j.

(iii) Aufgrund von (9.1-2) sind fur einen weif3en Gauf3schen Rausch-
prozef3 X(t} die Zufallsvariablen X(td und X(t2} unkorreliert und
damit, da es sich urn einen Gauf3prozef3 handelt, unabhangig, wenn
nur r = t2 - tl f 0 gilt.

In praktischen Anwendungen spielen das tiefpaf3begrenzte (siehe auch


Anhang B) weif3e Gauf3sche Rauschen und das bandpaf3begrenzte weif3e
Rauschen eine wichtige Rolle (Bild 9.1-1(b) und (c}). Das Leistungsdich-
176 9 Spezielle stochastische Prozesse

tespektrum des tiefpaBbegrenzten weiBen GauBschen Rauschens ist:

No fur If I ~ ~ (9.1-3)
ipxx(f) = {
o sonst

Wieder mit (8.5-2) bekommt man fur die Autokorrelationsfunktion

_ N sin(7I"BT)
cpxx (T ) - 0 • (9.1-4)
7I"T

Bemerkungen:

(i) Die mittlere Leistung des tiefpaBbegrenzten weiBen Rauschens ist,


wie man unter Anwendung der Regel von de I'Hospitalleicht nach-
weist,

(9.1-5)

(ii) Die Realisierungen des tiefpaBbegrenzten wei Ben Rauschens sind


(beliebig oft differenzierbare) Funktionen.
(iii) Aufgrund von (9.1-4) sind fUr ein tiefpaBbegrenztes weiBes Rau-
schen X(t) die Zufallsvariablen X(tt} und X(t 2 ) unkorreliert und
damit, da es sich um einen GauBprozeB handelt, unabhangig, wenn
T = t2 - tl = ij- (n E Z, n f 0) gilt.

(iv) Durch den Grenzubergang B -+ 00 ergibt sich aus (9.1-4):

Fur die Verteilungsfunktion des tiefpaBbegrenzten weiBen GauBschen


Rauschens X (t) ergibt sich folgendes: Zunachst einmal spricht nichts
dagegen, daB fur den (reellwertigen) stochastischen ProzeB X (t) posi-
tive und negative Amplituden gleich haufig auftreten. Mit (9.1-5) ist
a 2 = NoB. Um die Verteilungsfunktion zu erhalten, ist daher in (6.8-2)
J-L = 0 und a 2 = NoB einzusetzen:
9.2 PoissonprozeB 177

1st X (t) ergodisch, kann die Amplitudenverteilung des tiefpaBbegrenzten


weiBen GauBschen Rauschens aus einer einzigen Realisierung ermittelt
werden (vergleiche Bild 9.1-2).

x(l)

Bild 9.1-2: Verteilung eines (stationaren) ergodischen tiefpaBbegrenzten


weiBen GauBschen Rauschprozesses

9.2 PoissonprozeB
In paketvermittelnden Ubertragungssystemen muB die Verarbeitung der
Pakete in Knoten diskutiert werden. Die Ankunft der Pakete folgt haufig
einem PoissonprozeB X (t). Wir betrachten ein kleines Zeitintervall der
Lange Ilt und stellen an diesen AnkunftsprozeB folgende Forderungen:

1. Die Wahrscheinlichkeit dafiir, daB im Intervall der Lange Ilt ein


Paket eintrifft ist

P{X(t + Ilt) - X(t) = I} = Allt + o(llt), 1


wobei Allt « 1 und A ein Proportionalitatsfaktor ist.

2. Es gilt

P{X(t + Ilt) - X(t) = O} = 1 - Allt + o(llt).

. . o(~t)
lEs gilt hm - - = O.
at->o ~t
178 9 Spezielle stochastische Prozesse

3. Die Wahrscheinlichkeit daflir, daB im Intervall der Lange f1t ein


Paket eintrifft, ist unabhangig von der Lage des Intervalls auf der
Zeitachse.

4. Der AnkunftsprozeB ist gedachtnislos: Das Eintreffen eines Pakets


im Intervall der Lange f1t ist unabhangig vom Eintreffen irgend-
welcher Pakete in vergangenen oder zuklinftigen (disjunkten) In-
tervallen.

Mit X(O} = 0 gibt X(t} die Anzahl der im Intervall der Dauer t einge-
troffenen Pakete an.
Satz 9.2-1
Es gilt fur t 2: 0

P{X(t} = k} = (~( e- M , (9.2-1)

d.h. X(t) folgt einer Poissonverteilung (vergleiche auch Abschnitt


6·4)·
Beweis:
Gleichung (9.2-1) ergibt sich aus den oben genannten vier Forderungen
an den AnkunftsprozeB X(t}: Wir stell en uns ein Intervall der Lange t
in m kleine Intervalle, von denen jedes die Lange f1t hat, unterteilt vor.
Die Wahrscheinlichkeit flir die Ankunft eines Pakets in jedem Intervall
der Lange f1t ist p = Af1t, die Wahrscheinlichkeit daflir, daB kein Paket
ankommt, ist 1-p = 1-Af1t. Beachtet man nun, daB der AnkunftsprozeB
gedachtnislos ist, ergibt sich die Wahrscheinlichkeit flir das Eintreffen von
k ~ m Paketen im Intervall der Lange t = mf1t zu

Ahnlich wie im Beweis von Satz 6.4-1 ergibt sich Gleichung (9.2-1).
Mit den Uberlegungen aus Abschnitt 6.4 folgt

• flir den Erwartungswert

E{X(t)} = At, (9.2-2)


9.2 Poissonprozef3 179

• fur die Varianz

(9.2-3)

Folgerung:
Wegen (9.2-2) ist der PoissonprozeB nichtstationar.
Ebenfalls aus (9.2-2) ergibt sich fUr den Parameter

,X = E{X(t)}
t

die Interpretation als mittlere Ankunftsrate der Pakete. Daruber hin-


aus folgt aus (9.2-2) und (9.2-3)

D{X(t)} 1
E{X(t)} = v>:t'
Fur ,Xt » 1 (¢:} t » *}
ist die Verteilung also urn den Erwartungswert
'xt konzentriert. MiBt man daher im (groBen) Intervall der Lange t die
Anzahl ankommender Pakete n, ist T ein vernunftiger Schatzwert fur 'x.
Weiterhin gilt

P{X(t} = O} = e- At •
Mit wachsendem t geht daher die Wahrscheinlichkeit dafur, daB kein
Paket ankommt, mit t exponentiell gegen Null.
Wir betrachten nun (siehe Bild 9.2-1) ein groBes Zeitintervall und mar-
kieren die Ankunftszeiten der Pakete.

II I
Bild 9.2-1: Ankunftszeitpunkte der Datenpakete an einem Knoten bei
Poisson-Statistik

Die Zeitdifferenz zwischen zwei aufeinanderfolgenden Ankunftszeitpunk-


ten wird mit T bezeichnet. Es ist klar, daB T eine Zufallsvariable, die
nur nichtnegative Werte annehmen kann, ist.
180 9 Spezielle stochastische Prozesse

Satz 9.2-2
Fur einen Poissonschen Ankunjtsprozep X(t) besitzt die Zufalls-
variable T eine Exponentialverteilung, d. h. die Dichte von T ist
(vergleiche (6.7-1))

0 fur 7 <0
h(7) = { - ,'\ > O. (9.2-4)
'\e- AT fur 7 >0
Beweis:
Die Zufallsvariable T kann so interpretiert werden, daB sie den Ankunfts-
zeitpunkt fUr das erste Paket nach einem beliebigen Zeitnullpunkt be-
schreibt (Bild 9.2-2).

---------T---------

I
i

lbeliebiger) Ankunftszeitpunkt
Zeitnullpunkt des ersten Datenpakets

Bild 9.2-2: Zur Herleitung der Exponentaiverteilung

Aus (9.2-1) foIgt fur 7 > 0:


P{T > 7} = P{X(7) = O} = e- AT
Damit gilt auch
P{T::; 7} = FT(7) = 1 - e- AT (7) 0)
fUr die Verteilungsfunktion von T, woraus durch Differentiation nach 7
(9.2-4) foigt.
Bemerkung:
Aus der Dichte h(7) (Bild 9.2-3) ergibt sich, daB die Differenz zwischen
den Ankunftszeiten zweier aufeinanderfoigender Pakete eher kurz ist.
Mit (6.7-3) findet man

!
00

E{T} = 7h(7)d7 =~ (9.2-5)


o
9.2 PoissonprozeB 181

und mit (6.7-4)

2 1
D {T} = A2 .

Bei gegebener mittlerer Ankunftsrate A ist die mittlere Differenz zwi-


schen den Ankunftszeiten zweier aufeinanderfolgender Pakete t.
( ) = Ae -).t
fT't

A
e

1
o A

Bild 9.2-3: Dichte der Exponentialverteilung

Folgerung:
Unterliegen die Ankunftszeitpunkte der Pakete an einem Knoten einer
Poissonverteilung, ist die Zeitdifferenz T zwischen den Ankunftszeiten
zweier aufeinanderfolgender Pakete exponentialverteilt.

Der Poissonproze13 X (t) besitzt noch eine weitere wichtige Eigenschaft:


Wir den ken uns M stochastisch unabhangige an einem Knoten eintref-
fende Paketstrome, die die mittleren Ankunftsraten AI, A2, ... ,AM be-
sitzen. Die Zusammenfassung der Paketstrome ist dann wieder ein pois-
son scher Paketstrom mit der mittleren Ankunftsrate A = 2:;;;=1 Am·
In paketvermittelnden Netzen tritt diese Situation ein, wenn mehrere
unabhangige Ubertragungswege an einem Knoten eintreffen.
Man macht sich den Zusammenhang einfach klar:
N(m)(t,t + ~t) sei die Anzahl der im Intervall (t,t + ~t) auf dem m-
ten Weg ankommenden Pakete und N(t, t + ~t) sei die Gesamtzahl der
ankommenden Pakete. Dann gilt wegen der Unabhangigkeit der Paket-
182 9 Spezielle stochastische Prozesse

strome
M
P{N(t, t + ~t) = O} = II p{N(m)(t, t + ~t) = O}
m=l

M
= II [1 - Am~t + o(~t)l
m=l

= 1 - A~t + o(~t)
M
mit A = LAm. Ahnlich ergibt sich
m=l

P{N(t, t + ~t) = I} = A~t + o(~t).


Sum men von Poissonprozessen bilden also wiederum einen Poisson pro-
zef3.

9.3 Markoffprozesse und Markoflketten


X(t) sei ein stochastischer Prozef3. Wie wir in Kapitel 9.2 fur Poisson-
prozesse gesehen haben, besteht zwischen den Zufallsvariablen X(ti) und
X(tk) des stochastischen Prozesses im allgemeinen ein Zusammenhang.
Fur technische Vorgange spielen die Markoffprozesse eine wichtige Rolle.

Definition 9.3-1
X(t) heiflt Markoffscher ProzeB, wenn

P{X(tm+d:::; xm+lIX(tm):::; X m,··· ,X(tm-k):::; xm-d


= P{X(tm+d :::; xm+lIX(tm) :::; xm} (9.3-1)

fur jedes m und jedes k sowie beliebige Zeitpunkte


tm-k < tm-k+l < ... < tm+l gilt.
Bemerkung:
Anschaulich gesehen hat fUr einen Markoffschen Proze8 die Vergangen-
heit keinen Einflu8 auf die Zukunft des Proze8verlaufs, wenn die Gegen-
wart bekannt ist.
9.3 Markoffprozesse und Markoffketten 183

Wir wollen uns hier auf die Betrachtung der fur die Praxis besonders
wichtigen Markoffketten, bei denen es sich urn stochastische Prozesse
mit diskreter ZustandsInenge Z = {1, 2, ... ,i, i + 1, ... } und diskre-
ter ZeitparaIneterInenge T = {to, tl, t2, ... ,tm , tm+l, ... } handelt,
konzentrieren. Fur die betrachteten Zeitpunkte, die nicht aquidistant
sein mussen, gelte
o :S to < tl < t2 < ... < tm < tm+1 < ....

Definition 9.3-2
Der zustands- und zeitdiskrete stochastische ProzejJ X(t) heijJt
Markoflkette, wenn

P{X(tm+d = im+lIX(tm) = i m ,··· ,X(to) = io}


= P{X(tm+1) = i m+1IX(tm ) = i m } (9.3-2)
Vm> 2 undVio,i l , ... ,i m+1 gilt.
BeInerkung:
Auch hier gilt: Die Zukunft einer Markoffkette hangt nicht von der Ver-
gangenheit sondern nur von der Gegenwart abo
Definition 9.3-3
X(t) sei eine Markoffkette und t m , tmH E T seien zwei Zeitpunk-
teo Dann heijJen die bedingten Wahrscheinlichkeiten
P{X(tmH) = jIX(tm ) = i} = Pi,j(tm , tmH) (9.3-3)
Ubergangswahrscheinlichkeiten k-ter Stufe.
Wenn die Zustandsmenge Z = {1, 2, ... ,N} endlich ist, lassen sich
die Ubergangswahrscheinlichkeiten zwischen den beliebigen Zeitpunkten
tm < tmH in eine Matrix eintragen:

Pu (tm' tmH) P1N(tm , tm+k)


P2l (tm, tmH) P2N(tm, tmH)
184 9 Spezielle stochastische Prozesse

Definition 9.3-4
Die Markoffkette X(t) heiftt homogen, wenn fur beliebige Zu-
stiinde i, j und beliebige Zeitpunkte t m , tm+l die Ubergangswahr-
scheinlichkeiten Pi,j (t m , tm+l) = Pi,j nicht von der Zeit abhiingen.
Die Ubergangswahrscheinlichkeiten einer homogenen Markoftkette sind
zeitunabhangig. Die Ubergangsmatrix einer homogenen Markoftkette mit
endlicher Zustandsmenge ist dann

Pll P12 P1N


P21 P22 P2N
'P'=

PN1 PN2 PNN


In der Ubergangsmatrix stehen Wahrscheinlichkeiten Pij, also folgt Pij 2:
o Vi,j.
Daruber hinaus ist Pij die Wahrscheinlichkeit dafur, daB die homogene
Markoftkette X(t) vom Zustand i in den Zustand j ubergeht. Befindet
sich X(t) im Zustand i, muB der ProzeB in irgendeinen der endlich vielen
Zustande Z = {I, 2, ... ,N} ubergehen, d.h. es gilt
N
LPij = 1 Vi.
j=l

Mit anderen Worten: Die Zeilensumme von 'P' ist 1 fUr aIle Zeilen.
Definition 9.3-5
Eine (N x N)-Matrix 'P' = [Pij], fur deren Elemente
N
PtJ-- >
_ 0 Vi,j und LPij = 1 Vi
j=l

gelten, heiftt stochastische Matrix. Ihre Zeilenvektoren sind


stochastische Vektoren.
Wir interpretieren fur den Rest des Kapitels t als diskreten Zeitparame-
ter, d.h. t E 1N U {O}. Die Wahrscheinlichkeitsverteilung der Zufallsva-
riablen X (t) ist gegeben durch
P(X(t) = i) = Pi(t}, i = 1,2, ... ,N.
9.3 Markoffprozesse und Markoffketten 185

Da sich die homo gene Markoffkette zum Zeitpunkt t mit Sicherheit in


irgendeinem der Zustande 1,2, ... , N befindet, gilt
N
LPi(t) = l.
i=l

Die Wahrscheinlichkeiten Pi(t) konnen zu dem stochastischen Vektor


p(t) = (Pdt),P2(t), ... ,PN(t)f
zusammengefaBt werden.
p(t) ist zeitabhangig. Wir nehmen an, daB p(t) und die Ubergangsmatrix
P' bekannt sind. Es solI p(t + 1) bestimmt werden (siehe Bild 9.3-1).
Zustand rum
Zeitpunkt t CD ···CD··· ®

Zustand rum
CD CD
~j/
CD ®
Zeitpunkt t+ 1

Bild 9.3-1: Zustandsubergang einer homogenen Markoffkette

Befindet sich die homogene Markoffkette X(t) zum Zeitpunkt t im Zu-


stand i, wird sie sich mit der Wahrscheinlichkeit
Pi(t) . Pij
zum Zeitpunkt t + 1 im Zustand j befinden. Uber die Zustandsverteilung
p(t) = (P1(t),P2(t), ... ,PN(t))T betrachtet, ergibt sich so
N
Pj(t + 1) = LPi(t)Pij, j = 1,2, ... ,N,
i=l

oder in Vektorschreibweise
pr(t + 1) = pr(t)'P'. (9.3-4)

Durch mehrfache Anwendung der oben genannten Uberlegungen ergibt


sich
186 9 Spezielle stochastische Prozesse

Eine homogene Markoflkette X(t) ist also durch ihre Anfangsverteilung


P(O) und die Ubergangsmatrix 'P' bestimmt:

(9.3-5)

Offensichtlich gilt der

Satz 9.3-1

Sind A und B' stochastische M atrizen, ist auch 7J' = A . B' eine
stochastische Matrix.

Folgerung:
Da die Ubergangsmatrix'P' eine stochastische Matrix ist, sind auch ihre
Potenzen r stochastische Matrizen.
Wir wollen nun homogene Markoflketten mit bewerteten Graphen be-
schreiben:
Definition 9.3-6

Ein gerichteter Graph ist ein Mengenpaar (BG,FG), wobei


BG "I 0 eine Zustandsmenge und FG ~ BG X BG eine Menge
von (jbergangen ist. Wird jedem (jbergang eine (jbergangswahr-
scheinlichkeit Pij mit

o :s Pij :s 1,

zugeordnet, entsteht ein bewerteter Graph, der Ubergangs-


graph einer homogenen Markoffkette.
Bemerkung:
Jede homogene Markoflkette kann als Irrfahrt auf einem bewerteten Gra-
phen interpretiert werden.
9.3 Markoffprozesse und Markoflketten 187

Beispiele [Web92]:

(i) Bild 9.3-2 zeigt den Ubergangsgraphen einer homogenen Markoff-


kette mit der Zustandsmenge Z = {I, 2, 3} und der Ubergangsma-
trix

°
r= [0,5 0,25 0,25]
P = 0,5 0,5 .
0,3 0,7
°

0,5

Bild 9.3-2: Ubergangsgraph einer homogenen Markoffkette (nach


[Web92])

(ii) Auf den diskreten Punkten 1,2, ... ,5 der Zahlengeraden bewegt
sich ein Teilchen pro Zeiteinheit mit der Wahrscheinlichkeit p = 0,6
nach rechts und mit der Wahrscheinlichkeit 1 - p = 0,4 nach links.
Erreicht das Teilchen die Punkte 1 oder 5, ist die Irrfahrt beendet.
Bestimme P(3), wenn p(O) = (0,1,0,0, O)T ist, d.h. die Irrfahrt im
Zustand 2 beginnt.

Es gilt

1
° 0,6° ° °
0,4
° ° °
P'=
° 0,4
° 0,6
°
° ° 0,4
° 10,6

° ° ° °
188 9 Spezielle stochastische Prozesse

und daraus foIgt

1 0 0 0 0
0,496 0 0,288 0 0,216
?= 0,16 0,192 0 0,288 0,36
0,064 0 0,192 0 0,744
0 0 0 0 1

Damit ergibt sich

fiT (3) = iF (O)? = (0,496; 0; 0, 288; 0; 0, 216).

Bild 9.3-3 zeigt die Wahrscheinlichkeitsverteilungen fUr tl = 0 und t2 =


3.

P(Xg=il

2 3 4 5

P()(,=il

2 3 4 5

Bild 9.3-3: Wahrscheinlichkeitsverteilungen einer homogenen Markoff-


kette fUr tl = 0 und t2 = 3 (nach [Web92])

Wir wollen uns im foigenden mit absorbierenden homogenen Markoff-


ketten beschaftigen.
9.3 Markoffprozesse und Markoffketten 189

Definition 9.3-7
Ein Zustand i heiflt absorbierend, wenn Pii = 1 gilt. Die Men-
ge R der absorbierenden Zustiinde heiflt Rand. Z \ R ist die
Menge der inneren Zustande. Eine Markoffkette heiflt ab-
sorbierend, wenn R =J. 0 und R von jedem inneren Zustand aus
erreichbar ist.

Es gilt der
Satz 9.3-2
Fiir eine absorbierende Markoffkette endet die Irrfahrt in einem
Zustand des Randes R.
Beispiel [Web92]: Fur die homogene Markoftkette aus dem vorigen
Beispiel zeigt Bild 9.3-4 den Ubergangsgraphen. Es sind

R = {I, 5} der Rand und


Z \ R = {2, 3, 4} die Menge der inneren Zustande.

Bild 9.3-4: Ubergangsgraph einer homogenen Markoftkette (nach


[Web92])

Wir interessieren uns nun fUr die Wahrscheinlichkeit dafur, daB die Irr-
fahrt in einer Teilmenge U C R des Randes endet, sowie fUr die mittlere
Dauer der Irrfahrt bis zur Absorption im Rand R.
Dazu bezeichnen wir

mit Pi: die Wahrscheinlichkeit yom Zustand i aus in U absorbiert zu


werden,

mit mi: die mittlere Dauer der Irrfahrt yom Zustand ibis zur Absorp-
tion im Rand R.
190 9 Spezielle stochastische Prozesse

Fur Pi ergibt sich


N
Pi = LPikPk, (9.3-6)
k=l

wobei Pik die Ubergangswahrscheinlichkeit vom Zustand i in den Nach-


barzustand k angibt. Auf dem Rand R ist Pk = 1 V k E U und Pk = 0
VkER\U.
Die mittlere Dauer mi der Irrfahrt von einem Zustand i (j. R aus bis
zur Absorption im Rand ist urn 1 groBer als das gewichtete Mittel der
mittleren Irrfahrtsdauern von allen Zustanden aus (mi = 0 fur i E R):
N
mi = 1 + LPikmk (9.3-7)
k=l

Die Giiltigkeit von (9.3-7) ist aus Bild 9.3-5 sofort ableitbar.

Bild 9.3-5: Zur mittleren Dauer einer Irrfahrt (nach [Web92])

Beispiel [Web92]:
Ein Spieler besitzt 1 DM. Er nimmt an einem Glucksspiel, das ihn mit
der Wahrscheinlichkeit 0, 5 den doppelten Einsatz gewinnen laf3t, teil. Er
will das Spiel beenden, wenn er 5 DM besitzt, und setzt in jeder Runde
so viel, daB er seinem Ziel moglichst nahe kommt.

a) Mit welcher Wahrscheinlichkeit erreicht der Spieler sein Ziel?

b) Wie lange ist die mittlere Spieldauer?


9.3 Markoffprozesse und Markoftketten 191

Losung:

a) Bild 9.3-6 zeigt den Ubergangsgraphen der zur Aufgabe gehoren-


den homogenen Markoflkette. In den Knoten steht der jeweilige Ka-
pitalzustand des Spielers, die Ubergangswahrscheinlichkeiten sind
alle 0, 5. Es ist

R = {0,5} und U = {5}.

Bild 9.3-6: Ubergangsgraph einer homogenen Markoflkette (nach


[Web92])

1st Pi die Wahrscheinlichkeit dafiir, dafi der Spieler vom Zustand


i aus sein Ziel (5 DM) erreicht, erhalt man mit (9.3-6):

Ps = 1jPo = °
PI = 0,5· P2
P2 = 0,5· P4
P3 = 0,5 . 1 + 0,5 . PI
P4 = 0,5 . 1 + 0,5 . P3

=> P4 = 0,5 + 0,5[0,5 + 0, 5 . Pd = 0, 75 + 0,25 . PI


=> P2 = 0, 5 . 0, 75 + 0,5 . 0,25 . PI = 0,375 + 0, 125 . PI
=> PI = 0,5·0,375 + 0,5· 0, 125 . PI

¢:}
P _
1 - ° °
0,5 . 0,375 _
1 - , 5. , 125 -
°
,
2

Der Spieler erreicht sein Ziel mit der Wahrscheinlichkeit 0,2.


192 9 Spezielle stochastische Prozesse

m5 = °
b) mi sei die mittlere Dauer des Spiels vom Zustand i aus. Mit ma =
ergibt sich mit (9.3-7):

mi = 1 + 0, 5 . m2
m2 = 1 + 0, 5 . m4
m3 = 1 + 0, 5 . mi
m4 = 1 + 0,5 . m3

'* m2 = 1 + 0,5[1 + 0,5· m3l = 1,5 + 0, 25· m3


'* m2 = 1,5 + 0, 25[1 + 0, 5 . mIl = 1,75 + 0, 125 . mi
'* mi = 1 + 0,5[1,75 + 0, 125 . mIl = 1,875 + 0,0625· ml
{:} mi = 1,875 =2
1 - 0,0625
Die mittlere Dauer eines Spiels ist 2 Runden.

9.4 Zyklostationare Prozesse


Digital modulierte Signale werden haufig durch stochastische Prozesse
modelliert, deren Scharmittelwerte (zeitlich) periodisch sind.
Wir betrachten dazu einen stochastischen ProzeB

L
<Xl

Z(t) = A(nT)g(t - nT). (9.4-1)


n=-oo

Darin ist {A (nT)} ein stationarer zeitdiskreter komplexwertiger ProzeB


mit mA = E{A(nT)} V nT und der Autokorrelationsfunktion (vergleiche
(8.3-2) und (8.6-2))

1
<PAA(kT) = 2E{A(nT)A*((n + k)T)}.
{A(nT)} ist die Folge von Symbolen, die iibertragen werden solI, und
~ ist die Symboliibertragungsrate. g(t) ist ein reeller deterministischer
Impuls.
9.4 Zyklostationare Prozesse 193

Wir bestimmen Erwartungswert und Autokorrelationsfunktion von Z(t):

00

E{Z(t)} = 2: E{A(nT)}g(t - nT)


n=-oo

00

= mA 2: g(t - nT)
n=-oo

<pzz(t, t + T) = ~E{Z(t)Z*(t + T)}

= f f
n=-oo m=-oo
~ E{A(mT)A*(nT)}
. g(t - mT)g(t +T - nT)
00 00

2: 2: <PAA«n - m)T)
n=-oo m=-oo

. g(t - mT)g(t +T - nT)

Es gel ten

(i) E{Z(t + kT)} = E{Z(t)} Vk E Z und

(ii) <pzz(t + kT, t + T + kT) = <pzz(t, t + T) Vk E Z.

Folgerung: Sowohl E{Z(t)} als auch <PZZ(HT, t) sind mit T periodisch.

Definition 9.4-1
Ein stochastischer Prozefl Z(t), dessen Erwartungswert und des-
sen A utokorrelationsfunktion periodisch mit derselben Periode T
sind, heiflt (schwach) zyklostationar.
Bemerkung:
Die Autokorrelationsfunktion zyklostationarer Prozesse <pzz(t + T, t)
hangt von t + T und tab!
194 9 Spezielle stochastische Prozesse

SoIl ein zyklostationarer Prozefi durch ein Leistungsdichtespektrum cha-


rakterisiert werden, wird die tiber eine Periode gemittelte Autokorrela-
tionsfunktion
T
2"

ipzz(r) = ~ / <Pzz(t, t + r) dt (9.4-2)


T
-2"

berechnet und fouriertransformiert. Die Mittelwertbildung in (9.4-2) eli-


miniert die Zeitabhangigkeit. Die Fouriertransformierte von ipzz(r)

00

4!zz(J) = / ipzz(r)e- j27r / r dr (9.4-3)


-00

liefert das mittlere Leistungsdichtespektrum des zyklostationaren


Prozesses Z(t).

9.5 Ubungsaufgaben

Aufgabe 9.1

Gegeben sei der stochastische Prozefi X(t) mit

X(t) = N(t)cos(27rfot) + M(t)sin(27rfot),


wobei fo eine reelle Konstante und N(t) und M(t) unkorrelierte, weifie
Gaufische Rauschprozesse sind. Es gilt cP N N (J) = cP M M (J) = 1 fUr aile

a) Geben Sie die Autokorrelationsfunktion von X(t) an.

b) 1st X(t) (schwach) stationar?


9.5 Ubungsau[gaben 195

Da N(t) und M(t) weiBe GauBsche Rauschprozesse sind, sind sie mittel-
wertfrei (Kapitel 9.1).

a) 'PXX(tl, t2) = E {(N(td cos(2nJtd + M(td sin(2nftd)


·(N(t2) cos(2n ft2) + M(t2) sin(27r ft2))}
= E {N(tdN(t2)} cos(27r ftt} cos(27r ft2)
+ E {N(tdM(t2)} cos(27r ftd sin(27r ft2)
+ E {M(tt}N(t2)} sin(27r ftd cos(27r ft2)
+ E {M(tl)M(t2)} sin(27r ftd sin(27r ft2)
N, M sind unkorreliert und mittelwertfrei

<f!XX(tl, t2) = E {N(tdN(t2)}· cos(27rftd cos(27rft2)


+ E {M(tdM(t2)}· sin(27rftd . sin(27rft2)
~NN(f) = ~MM(f) = 1 fur alle f
=> 'PNN(r) = 'PMM(r) = 8(r)

<f!XX(tl, t2) = 8(r) [~. (cos(27rf(t2 - td) + cos(27rf(t2 + tt)))]

+ 8(r)· [~. (coS(27rf(t2 - h)) - coS(27rf(t2 + t d ))]


= 8(r)cos(27rfr)

b) E {X(t)} = 'E-{N(t)}
v - - ' cos(27rft) + ______
E {M(t)} sin(27rft)
=0 =0

=0

Aus a) und b) folgt, daB X(t) (schwach) stationar ist.


196 9 Spezielle stochastische Prozesse

Aufgabe 9.2 [Bei97]


Es sei bekannt, daB die Anzahl X(t) der Sttirungen in einem Rechnernetz
im Intervall [0, t) einem PoissonprozeB mit der mittleren Ankunftsrate
A = 0,25 [h-1j folgt.

a) Mit welcher Wahrscheinlichkeit tritt in den erst en 8 Stunden


hochstens eine Sttirung auf?
b) Wie groB ist die Wahrscheinlichkeit, daB das Rechnernetz 10 Stun-
den ohne Sttirung funktioniert?
c) Die Folge von Zufallsvariablen Tn (n = 1,2,3, ... ), beschreibt den
zufalligen Zeitpunkt, an dem die n-te Storung stattfindet. Man
berechne die Dichte von Tn.
d) Mit welcher Wahrscheinlichkeit tritt die dritte Sttirung nach 8
Stunden auf?

a) Fur das Auftreten hochstens einer Storung in den erst en acht Stun-
den ergibt sich mit A = 0,25 [h-1j:

P(X(8) :s 1) = P(X(8) = 0) + P(X(8) = 1)


O! ·exp{-A8} + ----u- ·exp{-A8} ~ 0,406
(A8)o (A8)1
=

b) 10 Stunden ohne Sttirung:

P(X(10) = 0) = (A~~)O . exp {-AI0}

= 1 . exp {-AlO} ~ 0,0821

c) Das Ereignis Tn :s t tritt dann ein, wenn X(t) ~ n ist.

P(Tn :s t) = P(X(t) ~ n)
9.5 Ubungsaufgaben 197

Fur die Verteilungsfunktion von Tn ergibt sich daraus:

FTn (t) = P(X(t) ~ n)

= L -.,-
00

.
(At)i
Z.
.exp (-At); n = 1,2, ...
l=n

Fur die Dichte von Tn ergibt sich nach Ableitung:

f Tn (t) = dFTn (t) =


dt
00 (At)i-l 00 (At)i
= A' exp (-At) . " . - A' exp (-At) . " - . -
~ (l-1)! ~ l!
t=n t=n
(At)n-l
= A' (n _ 1)! . exp (-At); t ~ 0, n = 1,2, ... ,
das ist die Erlangdichte der Ordung n.

d) P(T3 > 8) = 1 - FT3 (8) = P(X(8) < 3)

Aufgabe 9.3
Gegeben ist der PoissonprozeB X(t) mit dem Parameter A, der die An-
zahl der Ereignisse im Intervall [0, t) beschreibt. Zu zeigen ist folgende
Behauptung:
Die Wahrscheinlichkeiten, daB im Intervall [0, s) genau i Ereignisse auf-
treten unter der Bedingung, daB im Intervall [0, t), t > s genau n Ereig-
nisse eintreten fur i = 1,2, ... ,n genugen einer Binomialverteilung mit
den Parametern p = t und n.
198 9 Spezielle stochastische Prozesse
P(X(s) = i, X(t) = n)
P(X(s) = iIX(t) = n) = P(X(t) = n)
P(X(s) = i, X(t) - X(s) = n - i)
P(X(t) = n)
P(X(s) = i)P(X(t) - X(s) =n - i)
= P(X(t) = n)
(As)'. -AS [A(t-sW-'. -A(t-s)
i! e (n-i)! e
= ~ ·e- At
n!

= (n)i t(S)i· (1 - t s)n-i


j i = 0,1, ... , n

Aufgabe 9.4
Die Anzahl der Unfalle in einem Werk kann durch einen PoissonprozeB
mit>. = 3 pro Jahr modelliert werden.

a) Mit welcher Wahrscheinlichkeit treten im erst en Halbjahr des


nachsten J ahres mindestens zwei U nfalle ein?
b) Man berechne die gleiche Wahrscheinlichkeit wie in a) aber unter
der Bedingung, daB im gesamten nachsten Jahr genau 4 Unfalle
auftreten.

a) P(X(O, 5) ~ 2) = 1- [P(X(O, 5) = 0) + P(X(O, 5) = 1)]


= 1 - [e- 1 ,5 + 1,5· e- 1 ,5] ;:::: 0,442
b) P(X(O, 5) ~ 2IX(1) = 4)
=1- [P(X(O, 5) = 0IX(l) = 4) + P(X(O, 5) = 11X(l) = 4)]

mit Aufgabe 9.3

= 1- [(~) . (0,5)°· (0,5)4 + G) . (0,5)1. (0,5)3]

=1- [(0,5)4 + 4 . (0,5)4] = 0,6875


9.5 Ubungsaufgaben 199

Aufgabe 9.5
Folgendes Experiment soIl mit Hilfe einer homogenen Markoffkette un-
tersucht werden:
Es wird so lange mit einem idealen Wiirfel gewiirfelt, bis aIle Augenzah-
len mindestens einmal aufgetreten sind.

a) Man zeichne den zugeh6rigen Ubergangsgraphen und gebe die Uber-


gangsmatrix an.
b) Wie oft muS im Mittel gewiirfelt werden, bis das Experiment be-
endet ist?

a) Zustand i: Es wurden i verschiedene Augenzahlen gewiirfelt. Wur-


den schon i-I Zahlen gewiirfelt sind fUr den Ubergang nach i genau
6 - (i - 1) Zahlen giinstig:
6-i+1 i
Pi-l,i = 6 Pi,i =6

Bild 9.5-1: Ubergangsgraph

Die Ubergangsmatrix ergibt sich zu:

0 1 0 0 0 0 0
0 1/6 5/6 0 0 0 0
0 0 2/6 4/6 0 0 0
P'= 0 0 0 3/6 3/6 0 0
0 0 0 0 4/6 2/6 0
0 0 0 0 0 5/6 1/6
0 0 0 0 0 0 1
200 9 Spezielle stochastische Prozesse

b) Gesucht: mo mit (9.3-7):

6
mo =1+L POk . mk = 1 + POl . ml
k=O

ml = 1 + Pu . ml + P12 . m2
m2 = 1 + P22 • m2 + P23 • m3
m3 = 1 + P33 . m3 + P34 . m4
m4 = 1 + P44 . m4 + P45 • m5
m5 = 1 + P55 • m5 + P56 . m6
m6 = 0 da 6 E Rand
m5 = 1 + m5 ·5/6 =} m5 = 6
m4 = 1 + 4/6 . m4 + 2/6 . 6 =} m4 = 9
m3 = 1 + 3/6 . m3 + 3/6 . 9 =} m3 = 11
m2 = 1 + 2/6· m2 + 4/6·11 =} m2 = 50/4 = 12,5
ml = 1 + 1/6· ml + 5/6·50/4 =} ml = 137/10 = 13,7
=} mo = 1 + 1 . 13,7= 14,7

Aufgabe 9.6 [Web92]


Eine Bitquelle erzeugt pro Zeiteinheit mit der Wahrscheinlichkeit P = 0,6
eine 1 und mit Wahrscheinlichkeit q = 0,4 eine O. Der Proze13 wird
gestoppt, wenn dreimal direkt hintereinander eine 1 erzeugt wurde, also
durch die Bitfolge 111.

a) Bestimmen Sie den Ubergangsgraphen und die Ubergangsmatrix.


b) Wie gro13 ist die mittlere Dauer des Prozesses?
c) Der Proze13 werde nun durch eine der Bitfolgen 11 oder 00 gestoppt.
Wie gro13 ist die Wahrscheinlichkeit, da13 der Proze13 durch die Folge
11 gestoppt wird und wie lange dauert dieser Proze13 im Mittel?
9.5 Ubungsaufgaben 201

a)

0,4

Bild 9.5-2: Ubergangsgraph zu a)

Als Ubergangsmatrix ergibt sich:

° ° °
0,4 0,6

° ° °
0,4 0,6

° ° °
']5'= 0,4 0,6

° ° ° 0,4 0,6

°° ° ° 1

b) mo = 1 + 0,4 . ml + 0,6 . m2

ml = 1 + 0,4 . ml + 0,6 . m2
m2 = 1 + 0,4 . ml + 0,6 . m3
m3 = 1 + 0,4 . ml + 0,6 . m4
, da 4 E Rand
m2 = 1 + 0,4· ml + 0,6(1 + 0,4· md = 1,6 + 0,64· ml
ml = 1 + 0,4· ml + 0,6(1,6 + 0,64· md
= 1 + 0,4 ; ml + 0,96 + 0,384 . ml
0,216· ml = 1,96 ::} ml ~ 9,074
::} m2 ~ 7,407 ::} mo ~ 9,074
202 9 Spezielle stochastische Prozesse

c)

Bild 9.5-3: Ubergangsgraph zu c)

Als Ubergangsmatrix ergibt sich:

0 0,4 0,6 0 0
0 0 0,6 0 0,4
P'= 0 0,4 0 0,6 0
0 0 0 1 0
0 0 0 0 1

Mit (9.3-6):

P4 =0
P3 = 1
Po = 0,4 . Pl + 0,6 . P2
Pl = 0,6 . P2 + 0, 4 . P4 => Pl = 0, 6 . P2
P2 = 0, 4 . Pl + 0, 6 . P3
=> P2 = 0,4· Pl + 0,6 = 0,4· (0,6· P2 ) + 0,6
P. _ 0,6
=> 2 - 0,76

0,6 0,6
=> Po = 0,4 . 0,6 . 0, 76 + 0,6 . 0, 76 ~ 0,6632
9.5 Ubungsaufgaben 203

mo = 1 + 0,6 . m2 + 0,4 . ml
ml = 1 + 0,6 . m2 + 0,4 . m4
m2 = 1 + 0,4 . ml + 0,6 . m3
m3 = °
m4 = °
=} ml = 1 + 0,6· (1 + 0,4· md = 1,6 + 0,24· ml
1,6
=} ml = - -
0,76

m2 = 1 + 0,4· °1,6
, 76 = °, 76
1,4

mo = 1 + 0,6· °, 76 + 0,4· °, 76
1,4 1,6
~ 2,947

Aufgabe 9.7
Gegeben sei der ProzeB
Y(t) = X(t) cos(21lJot)
wobei X(t) stationar sei.

a) Man zeige, daB der ProzeB zyklostationar ist.


b) Berechnen Sie ~yy(r).

c) Berechnen Sie 4!yy(J) fUr <pxx(r) = 8(r).

a) E{Y(t)} = E{X(t) cos(27rfot)}


= E{X(t)}cos(27rfot)

Mit E{X(t)} = konstant, da X(t) stationar:

E{Y(t)} = E{X(t + kT)} cos(27rfo(t + kT))


= E{Y(t + kT)}
204 9 Spezielle stochastische Prozesse
1
~ periodisch mit T = fo

<pyy(t, t + T) = E{Y(t)Y(t + T)}


= E{X(t) cos(27r fot) . X(t + T) cos(27r'fo(t + T)}
= E{X(t)X(t + T)}· cos(27rfot)· cos(27rfo(t + T))
= cpxx(t, t + T) . cos(27rfot) . cos(27rfo(t + T))
= cp X X (t + kT, t + kT + T)
. cos(27r fo(t + kT)) cos(27r fo(t + kT + T))
= cpyy(t + kT, t + kT + T)

Der Erwartungswert und die Autokorrelationsfunktion sind beide


periodisch mit derselben Periode T = fo ~ Y(t) ist zyklostationar.

b) Mit (9.4-2) gilt fUr die tiber eine Periode gemittelte Autokorrelati-
onsfunktion:

J
T
"2

~yy(T) = ~ cpyy(t,t+T)dt
_1:
2

J
1:
2

= ~ <pxx(t,t+T)·cos(27rfot)·cos(27rfo(t+T))dt
T
-"2

Additionstheorem

J
T
"2

= 2~ <pxx(T)(cos(27rfoT) + cos(27rfo(2t + T))) dt


T
-"2

~ 2~ IOxx (T) [T .cos(2w foT) + I1:

-"2
cos(2w fo(2' + T)) d']
9.5 Ubungsaufgaben 205

Mit

!
r2

!
T+T
cos(27rfo(2t+T))dt ~ cos(27r fot') dt' = 0
T
-"2 -T+T

ergibt sich:
1
4?yy(T) = 2<PXX(T)cos(27rfoT).

c) mit (9.4-3) gilt:

!
00

"¥yy(j) = 4?yy(T)e- j2n'/T dT


-00

=~ !
-00
00

8(T) cos(27rfoT)e-j 2-rr!T dT (<2:.2 ) ~


A Begriffe aus der
Kombinatorik

Eine Permutation nN ist eine Anordnung von N Elementen in einer


bestimmten Reihenfolge.
Die Anzahl InN I der Permutation en N verschiedener Elemente ist
InNI = N!.
Beispiel: Sitzordnung in einer Klasse
Befinden sich unter den N Elementen K gleiche (K ~ N), ist die Anzahl
In}:) Ider Permutationen (mit Wiederholung)

In (K)1
N
= N!
K!'
Beispiel: 16 Sitzplatze werden mit je einer Tasche belegt. 4 der 16
Taschen sind gleich. Wie viele unterscheidbare Permutationen gibt es?
Antwort: Ini!) I= 14~!
I
Die Anzahl In}:1,K2, ... ,KM) der Permutationen von N Elementen, die
sich in M Gruppen mit jeweils K 1 , K 2 , ••• ,KM gleichen Elementen
CL;;;=l Km = N) einteilen lassen, ist
In}:1,K2, ... ,KM)1 = K 1 !·
N!
K 2 !··· KM!
.

Beispiel: Aus den fiinf Ziffern 4, 4, 5, 5, 5 lassen sich

I
n(2,3)
5
I= ~
2!3!
= 10

verschiedene fiinfstellige Zahlen bilden.


A Begriffe aus der Kombinatorik 207

Eine Kombination C~K) ist eine Auswahl von K Elementen aus N


Elementen ohne Beachtung der Reihenfolge.
Die Anzahl I cW)I der Moglichkeiten, aus N verschiedenen Elementen
K Elemente ohne Beachtung der Reihenfolge auszuwahlen, wobei jedes
der N Elemente hochstens einmal in einer Kombination auftreten darf
(Kombination ohne Wiederholung), ist

Beispiel: Beim Lotto gibt es (~) Moglichkeiten 6 aus 49 Zahlen


anzukreuzen.
Die AnzahIIC~K) I der Moglichkeiten, aus N verschiedenen Elementen K
Elemente ohne Beachtung der Reihenfolge, aber bei Zulassung belie big
vieler Wiederholungen jedes der Elemente, auszuwahlen, ist

Beispiel: Mit K Wiirfeln sind

verschiedene Wiirfe moglich. Fiir 2 Wiirfel gilt also

Eine Variation V}{) ist eine Auswahl von K aus N Elementen unter
Beachtung der Reihenfolge.
I
Die Anzahl IV}{) der Moglichkeiten, aus N verschiedenen Elementen
K unter Beachtung der Reihenfolge auszuwahlen, ist
208 A Begriffe aus der Kombinatorik

Beispiel: 30 Personen nehmen an einer Wahlveranstaltung teil. Wie-


viele Moglichkeiten gibt es, einen aus einem Vorsitzenden, seinem Stell-
vertreter, einem 1. und einem 2. Beisitzer bestehenden Wahlvorstand zu
benennen?

Antwort: 4! C40 ) = 657720


Wenn von den N verschiedenen Elementen in einer Variation einzelne
auch mehrfach auftreten diirfen, liegt eine Variation mit Wiederholung
vor. Fiir ihre Anzahl gilt

Beispiel: Mit einem Byte (8 Bit) sind 28 = 256 verschiedene Zeichen


darstellbar.
Die Ergebnisse dieses Anhangs sind in Bild A-I zusammengefafit darge-
stellt.
Art der Auswahl von K aus N Elemanten
(K:s;N)

Pennutationen Kombinationen Variationen

ohne Wiedemolung N!
(~) K!( ~)
N!
mit Wiedemolung K! ( N\K-l ) NK

Bild A-I: Kombinatorik, Anzahl der Moglichkeiten


B Die Fouriertransformation

Die Fouriertransformation ordnet einer Funktion x(t) aus einem Funk-


tionenraum U eine Funktion X (J) aus einem anderen Funktionenraum
V umkehrbar eindeutig zu. In der Technik wird x(t) haufig als Zeitfunk-
tion interpretiert. D.h. x(t) ist ein reell- oder komplexwertiges Signal.

Definition B-1
Filr die integrierbare Funktion x(t) ist durch

X(J) = !00

-00
x(t)e- i2 11"/t dt (B-1)

deren Fouriertransformierte gegeben.


Bemerkungen:

(i) Der Zusammenhang zwischen x(t) und X(J) wird kurz durch
x(t) 0--. X(J) beschrieben.

(ii) Die Fouriertransformation ist zunachst nur fUr integrierbare Funk-


tionen erklart. Diese Funktionen bilden einen Vektorraum L1.
Durch den Satz von Plancherel ([KF75], S.436if.) kann die Fou-
riertransformation auch fUr den Raum L2 der technisch bedeut-
samen quadratintegrablen Funktionen eingefiihrt werden. Signale
x(t) E L2 besitzen endliche Energie. Dariiber hinaus kann die Defi-
nition der Fouriertransformation auch auf Distributionen erweitert
werden ([WaI74], S.155 if.). Formal gilt iiberall die Definitionsglei-
chung (B-1), mit der wir im folgenden auch rechnen werden.

Die inverse Fouriertransformation X(J) ..-0 x(t) ist durch

x(t) = !00

-00
X (J)e i 21l"/t df (B-2)
210 B Die FouriertransEormation

gegeben.
Es gelten folgende Rechenregeln der Fouriertransformation

1. Linearitat
Flir beliebige Konstanten en und Signale xn(t}, 0 ::; n ::; N, gilt

2. Konjugiert komplexe Signale

x*(t} ~ X*(-f)

3. Symmetrieeigenschaften

x(-t} ~ X(-f)
Re {x(t)} gerade {:} Re {X (f}} gerade
Re {x(t)} ungerade {:} 1m {X(f)} ungerade
1m {x(t)} gerade {:} 1m {X(f)} gerade
1m {x(t)} ungerade {:} Re{X(f)} ungerade

4. MaBstabsanderung, Skalierung
Flir aile a E R, a "# 0, gilt

x(at} ~ ,!,X (~)


5. Zeitverschiebung
Flir aile to E R gilt

x(t - to} ~ e-i21rlto X(f}

6. Modulation
Flir aile 10 E R gilt

ei21rlotx(t} ~ X(f - lo}


B Die Fouriertransformation 211

7. Differentiation der Zeitfunktion

8. Differentiation der Fouriertransformierten

9. Integration der Zeitfunktion

J
t

x(r) dr o---e
-00

10. Faltungssatze
Flir quadratintegrable Signale Xi(t)j i = 1,2j gilt

Xl(t) * X2(t) o---e Xl (f) . X 2(f) (B-3)


Xl(t)· X2(t) o---e Xl (f) * X 2(f)
Mit Gleichung (B-3) wollen wir uns etwas naher beschaftigen. Zunachst
ist durch * eine Operation, die Faltung der Signale Xl(t) und X2(t)
heiBt, erklart. Ausfuhrlich schreibt sich die Faltung

J
00

Xl(t)*X2(t) = xdr)x2(t-r)dr.
-00

GemaB (B-3) wird aus der Faltung zweier Signale im Zeit bereich im
Frequenzbereich das Produkt der zugehorigen Fouriertransformier-
ten. Wir betrachten ein Zeit signal s(t) mit Fouriertransformierter
S(f) und eine Fouriertransformierte

I fur If I ~ ~ (B-4)
H(f) = { .
o flir If I > ~
Die Funktion H(f) charakterisiert einen (idealen) TiefpaB, d.h. ein
System, das aIle Frequenzen If I ~ ~ unbeeinfluBt laBt und aIle Fre-
quenzen If I > ~ vollstandig unterdruckt. Dies wird z.E. durch die
212 B Die Fouriertransformation

Gtiltigkeit von

SU) . H(f) ~ { S~) fur III ~ ~


fur III > ~
deutlich. Bezeichnen wir mit h(t) die inverse Fouriertransformierte
von H(f), die sich aus Tabelle B-1 bestimmen laf3t, erhalten wir mit
(B-3)
S(f) . H(f) = U(f) e----<> u(t) = s(t) * h(t).
Die Faltung

I
00

u(t) = s(t) * h(t) = s(r)h(t - r) dr


-00

stellt das durch (ideale) Tiefpaf3filterung aus s(t) hervorgehende Si-


gnal dar. Die hier diskutierten Zusammenhange sind in Bild B-1 skiz-
ziert.

-etlh, ~, A,
-B/2 B/2 -B/2 B/2 -B/2 B/2

Frequenzbereich S (fl. H 1ft = u 1ft


I I I
Zeitbereich s Itt • h Itt = u Itt

Bild B-1: Idealer Tiefpaf3

Die Funktion

GU) ~{ ~ 10 - ~ ~ III ~ 10 + ~
sonst
mit B « 10 charakterisiert einen (idealen) BandpaB. Dieses System
lli.f3t aIle Frequenzen, die von 10 hochstens einen Abstand von 1f be-
sitzen, unbeeinfiuBt und unterdriickt alle anderen Frequenzen.
B Die Fouriertransformation 213

1 0-----. °
1
(f)
1
cos (211" fot) 0-----. 2 0(f + fo) + 2 0(f - fo)
I f . If I < F
Fsi(1I"Ft) 0-----. X(f) = { ur "2
o fUr If I > f

x(t) = {
I fur It I < f 0-----. Tsi(1I" fT)
o fur It I > f
1 1
2o(t + to) + 2o(t - to) 0-----. cos(211" fto)

°( t) 0-----. 1
sin(27r fot) 0-----. ~o(f + fo) - ~o(f - fo)
1 fur t > 0 1 1
x(t) ={ o fur t < 0
0-----. -o(f)
2
+ -.-
J211" f
-altl 0 0-----. 2a
e ,a> a2 +(27rf)2

x(t) = { e~.' fur t > 0


,a >0 0-----.
1
·2 f
furt<O a+J1I"
te-at furt>O 1
x(t) = { 0 ,a >0 0-----. 2
fur t < 0 (a + j27r f)
-
1 0-----. - sIgn f
J..
1I"t 1
j sign t 0-----. -
1I"f

x(t) =.!:.11" ! x('x~


00

t-/\
d,X 0-----. (-jsignf)X(f)

°(i - ;)
-00
1
L L
00 00

o(t - mT) 0-----. T


m=-oo m=-oo

Tabelle B-1: Korrespondenzen zur Fouriertransformation


C Die ~-Distribution

Urn sowohl stetige als auch diskrete Zufallsvariablen einheitlich behan-


deln zu konnen, ist die Einffihrung der 8-Distribution notwendig (ver-
gleiche (4.1-12)). Dieser, auch in [Pap91] verfolgte Ansatz ist zwar rna-
thernatisch nicht korrekt, erweist sich jedoch ffir die Praxis als nfitzlich.
Mit der 8-Distribution 8(X') kann einern Punkt X' = (Xl,X2, ... , XN)T
irn N-dh~ensionalen Raurn lRN die Masse 1 zugeordnet werden, d.h. es
gilt

!
RN
8(X') dX' = l. (C-1)

Genauer betrachtet ist die 8-Distribution ein stetiges lineares Funktional


[Wa174J, das jeder Funktion <p(X') seines Definitionsbereichs gernaB der
Gleichung

!
RN
8(X') <p(X') dX' = <p(O) (C-2)

ihren Wert irn Ursprung zuordnet. Darfiber hinaus ergeben sich die Iden-
titaten

!
RN
8(X' - X'o)<p(X') dX' = !
RN
8(X')<p(X' + X'o) dX'

(C-3)

1 -
= ~<p(o), a~ o. (C-4)
C Die is-Distribution 215

Bemerkungen:

(i) Uber die Forderungen, die die Funktion <p(i) in (C-2) erftillen muB,
gibt die Distributionentheorie Auskunft [Wa174]. 1m vorliegenden
Buch wird stets davon ausgegangen, daB die verwendeten Funktio-
nen <p(i) so beschaffen sind, daB (C-2) gilt.

(ii) Es wird empfohlen, als Ubung die Gleichungen (C-I) bis (C-4) fUr
den Fall N = 1 aufzuschreiben und zu interpretieren!

Die 8-Distribution laBt sich fUr N = 1 z.B. durch eine Folge von Recht-
eckpulsen

o ftir Ixl > a/2


,a>O
1 ftir Ixl ~ a/2

approximieren (Bild C-I). Betrachtet man namlich die in einer Umge-


bung des Ursprungs stetige Funktion <p(x), ergibt sich

lim
a--+O
~a I
00

-00
reet (:.) <p(x) dx
a

. I!
hm -
a--+O a
~

<p(x) dx
-"-
2

(C-2)
<p(O) = !00

8(x )<p(X) dx
-00
216 C Die IS-Distribution

A
a1 reet(x)a

1
a=-
24

1
a=-
12

1
a=-
2
a=l

-----;------;-----~U-----+---~_+------+x
1 -
2 2

Bild C-1: Approximation der o-Distribution durch Rechteckimpulse


(N = 1)
D Tabelle der
Standardnormalverteilung

I x I <p{x) I x II <p{x) I x II <p{x) II


0,00 0,5000000 0,38 0,6480272 0,76 0,7763727
0,02 0,5079783 0,40 0,6554217 0,78 0,7823045
0,04 0,5159534 0,42 0,6627572 0,80 0,7881446
0,06 0,5239221 0,44 0,6700314 0,82 0,7938919
0,08 0,5318813 0,46 0,6772418 0,84 0,7995458
O,lO 0,5398278 0,48 0,6843863 0,86 0,8051054
0,12 0,5477584 0,50 0,6914624 0,88 0,8105703
0,14 0,5556700 0,52 0,6984682 0,90 0,8159398
0,16 0,5635594 0,54 0,7054014 0,92 0,8212136
0,18 0,5714237 0,56 0,7122602 0,94 0,8263912
0,20 0,5792597 0,58 0,7190426 0,96 0,8314723
0,22 0,5870644 0,60 0,7257468 0,98 0,8364569
0,24 0,5948348 0,62 0,7323711 1,00 0,8413447
0,26 0,6025681 0,64 0,7389137 1,02 0,8461357
0,28 0,6102612 0,66 0,7453730 1,04 0,8508300
0,30 0,6179114 0,68 0,7517477 1,06 0,8554277
0,32 0,6255158 0,70 0,7580363 1,08 0,8599289
0,34 0,6330717 0,72 0,7642375 1,10 0,8643339
0,36 0,6405764 0,74 0,7703500 1,12 0,8686431
218 D Tabelle der Standardnormalverteilung

I x II ~(x) II x II ~(x) I x II ~(x) II


1,14 0,8728568 1,64 0,9494974 2,14 0,9838~26

1,16 0,8769755 1,66 0,9515427 2,16 0,9846136


1,18 0,8809998 1,68 0,9535213 2,18 0,9853712
1,20 0,8849303 1,70 0,9554345 2,20 0,9860965
1,22 0,8887675 1,72 0,9572837 2,22 0,9867906
1,24 0,8925123 1,74 0,9590704 2,24 0,9874545
1,26 0,8961653 1,76 0,9607960 2,26 0,9880893
1,28 0,8997274 1,78 0,9624620 2,28 0,9886961
1,30 0,9031995 1,80 0,9640696 2,30 0,9892758
1,32 0,9065824 1,82 0,9656204 2,32 0,9898295
1,34 0,9098773 1,84 0,9671158 2,34 0,9903581
1,36 0,9130850 1,86 0,9685572 2,36 0,9908625
1,38 0,9162066 1,88 0,9699459 2,38 0,9913436
1,40 0,9192433 1,90 0,9712834 2,40 0,9918024
1,42 0,9221961 1,92 0,9725710 2,42 0,9922397
1,44 0,9250663 1,94 0,9738101 2,44 0,9926563
1,46 0,9278549 1,96 0,9750021 2,46 0,9930531
1,48 0,9305633 1,98 0,9761482 2,48 0,9934308
1,50 0,9331927 2,00 0,9772498 2,50 0,9937903
1,52 0,9357445 2,02 0,9783083 2,52 0,9941322
1,54 0,9382198 2,04 0,9793248 2,54 0,9944573
1,56 0,9406200 2,06 0,9803007 2,56 0,9947663
1,58 0,9429465 2,08 0,9812372 2,58 0,9950599
1,60 0,9452007 2,10 0,9821355 2,60 0,9953388
1,62 0,9473838 2,12 0,9829969 2,62 0,9956035
D Tabelle der Standardnormalverteilung 219

I x II ~(x) II x II ~(x) II x II ~(x) II


2,64 0,9958546 3,10 0,9990323 4,10 0,9999793
2,66 0,9960929 3,15 0,9991836 4,15 0,9999833
2,68 0,9963188 3,20 0,9993128 4,20 0,9999866
2,70 0,9965330 3,25 0,9994229 4,25 0,9999893
2,72 0,9967359 3,30 0,9995165 4,30 0,9999914
2,74 0,9969280 3,35 0,9995959 4,35 0,9999931
2,76 0,9971099 3,40 0,9996630 4,40 0,9999945
2,78 0,9972820 3,45 0,9997197 4,45 0,9999957
2,80 0,9974448 3,50 0,9997673 4,50 0,9999966
2,82 0,9975988 3,55 0,9998073 4,55 0,9999973
2,84 0,9977443 3,60 0,9998408 4,60 0,9999978
2,86 0,9978817 3,65 0,9998688 4,65 0,9999983
2,88 0,9980116 3,70 0,9998922 4,70 0,9999986
2,90 0,9981341 3,75 0,9999115 4,75 0,9999989
2,92 0,9982498 3,80 0,9999276 4,80 0,9999992
2,94 0,9983589 3,85 0,9999409 4,85 0,9999993
2,96 0,9984618 3,90 0,9999519 4,90 0,9999995
2,98 0,9985587 3,95 0,9999609 4,95 0,9999996
3,00 0,9986501 4,00 0,9999683 5,00 0,9999997
3,05 0,9988557 4,05 0,9999743

Die Werte sind hinter der 7. Nachkommastelle abgeschnitten.


Literaturverzeichnis

[Bei95] BEICHELT, F.: Stochastik fur Ingenieure. B.G. Teubner, Stutt-


gart, 1995.

[Bei97] BEICHELT, F.: Stochastische Prozesse fur Ingenieure. B.G.


Teubner, Stuttgart, 1997.

[Bey95] BEYER, 0., ET. AL.: Wahrscheinlichkeitsrechnung und mathe-


matische Statistik. E.G. Teubner Verlagsgesellschaft, Stuttgart,
1995.

[Boh98] BOHME, J.F.: Stochastische Sign ale. Studienbucher Elektro-


technik. E.G. Teubner, Stuttgart, 1998.

[Bos95] BOSCH, K.: Elementare Einfuhrung in die Wahrscheinlichkeits-


rechnung. Vieweg & Sohn, Braunschweig, 1995.

[Bos96] BOSCH, K.: Klausurtraining Statistik. Oldenbourg Verlag,


Munchen, 1996.

[BS70] BRONSTEIN, I. und K. SEMENDJAJEW: Taschenbuch der Ma-


thematik. Verlag Harri Deutsch, Zurich, 10. Aufiage, 1970.

[Fis70] FISZ, M.: Wahrscheinlichkeitsrechnung und mathematische Sta-


tistik. VEB Deutscher Verlag der Wissenschaften, Berlin, 1970.

[Han97] HANSLER, E.: Statistische Sign ale. Springer-Verlag, Berlin, 2.


Aufiage, 1997.

[Hen97] HENZE, N.: Stochastik fur Einsteiger. Vieweg, Braun-


schweig/Wiesbaden, 1997.
LITERATURVERZEICHNIS 221

[Hid80] HIDA, T.: Brownian Motion. Springer-Verlag, Berlin, 1980.


[Jon91] JONDRAL, F.: Funksignalanalyse. Studienbiicher Elektrotech-
nik. B.G. Teubner, Stuttgart, 1991.
[KF75] KOLMOGOROFF, A. und S. V. FOMIN: Reelle Funktionen und
Funktionalanalysis. VEB Deutscher Verlag der Wissenschaften,
Berlin, 1975.
[Kol33] KOLMOGOROFF, A.: Grundbegriffe der Wahrscheinlichkeits-
rechnung. Ergebnisse der Mathematik und ihrer Grenzgebiete.
Verlag v. Julius Springer, Berlin, 1933.
[Kre79] KREYSZIG, E.: Statistische Methoden und ihre Anwendungen.
Vandenhoeck & Ruprecht, Gottingen, 7. Auflage, 1979.
[Pap91] PAPOULIS, A.: Probability, Random Variables, and Stochastic
Processes. McGraw-Hill, Inc., New York, 3. Auflage, 1991.
[Pro95] PROAKIS, J.: Digital Communications. McGraw-Hill, Inc., New
York, 3. Auflage, 1995.
[Ren71] RENYI, A.: Wahrscheinlichkeitsrechnung. VEB Deutscher Ver-
lag der Wissenschaften, Berlin, 3. Aufiage, 1971.
[Sch87] SCHWARTZ, M.: Telecommunication Networks. Addison-Wesley
Publishing Company, Reading (Mass.), 1987.
[Wal74] WALTER, W.: Einfuhrung in die Theorie der Distributionen.
Bibliographisches Institut, Ziirich, 1974.
[Web92] WEBER, H.: Einfuhrung in die Wahrscheinlichkeitsrechnung
und Statistik fur Ingenieure. B.G. Teubner, Stuttgart, 1992.
Index

absolutes zentrales Moment k-ter Eigenschaften von Verteilungsfunk-


Ordnung, 59 tionen,39
absorbierender Zustand, 189 Elementarereignis, 5
Autokorrelationsfolge eines zeit- Energiesignale, 162
diskreten Zufallsprozes- Ereignis,5
ses, 165 entgegengesetztes, 6
Autokorrelationsfunktion, 155 Komplement, 7
Autokorrelationsfunktion eines er- Negation, 7
godischen Prozesses, 161 sicheres,5
Autokovarianzfolge eines zeit dis- Teilereignis,6
kreten Zufallsprozesses, unmogliches, 5
165 Ereignisdisjunktion
Autokovarianzfunktion, 156 vollstandige, 14
Autokovarianzfunktion eines er- Ereignisse
godischen Prozesses, 162 disjunkte, 8
unabhangige, 31
BandpaB, 212 unvereinbare,8
Bernoullisches Versuchsschema, vollstandig unabhangige, 32
77 zufallige, 1
Ergebnisraum
endlicher, 5
charakteristische Funktion, 60
Ergebnisse, 5
Ergodenhypothese, 160
de MORGANsche Formeln, 8 ergodisch beziiglich g, 161
8-Distribution, 214 Erlangdichte, 197
Dichte,41 Erwartungswert,54
bedingte, 109 bedingter, 11 0
mehrdimensionale, 105 erzeugende Funktion, 62
DifIerenz von Mengen, 6
Dispersion, 57 Faltung, 211
Durchschnitt,6 Fehlerfunktion
INDEX 223

gauBsche, 92 Kreuzkorrelationsfunktion, 157


komplementare, 93 Kreuzkorrelationsfunktion gemein-
Formel von Bayes, 30 sam ergodischer Prozes-
Formel von der totalen Wahr- se, 162
scheinlichkeit, 30 k-tes Moment, 56
Formel von der totalen Wahr- k-tes Moment eines ergodischen
scheinlichkeit fUr Dich- Prozesses, 161
ten, 110 k-tes Moment eines zeitdiskreten
Fouriertransformation, 209 Zufallsprozesses, 165
inverse, 209 k-tes zentrales Moment, 56
Rechenregeln der, 210 k-tes zentrales Moment eines er-
Fouriertransformierte, 209 godischen Prozesses, 161
Galtonsches Brett, 132
Leistungsdichtespektrum eines sta-
Gammafunktion, 95
GauBprozeB, 156 tionaren stochastischen
gemeinsam stationare stochasti- Prozesses, 163
sche Prozesse, 157 Leistungssignale, 162
Leistungsdichtespektrum zeit dis-
Haufigkeit kreter stationarer Pro-
absolute, 9 zesse, 165
relative, 9
Eigenschaften, 10 Markoffkette, 183
absorbierende, 189
Indikatorfunktion, 124
homogene, 184
innere Zustande, 189
Markoffscher ProzeB, 182
Kolmogoroffsche Axiome, 14 Median, 59
Kombination, 207 mehrdimensionale Verteil ungsfunk-
Korrelationskoeffizient, 111 tion, 105
Kovarianz, 111 Mittelwert, 54
Kovarianz komplexer Zufallsva- mittlere Ankunftsrate, 179
riablen, 119 mittlere Leistung, 155
Kovarianzmatrix, 113 mittlere Leistung zeitdiskreter Pro-
Kreuz-Leist ungsdichtespektrum ge- zesse, 165
meinsam stationarer Pro- mittleres Leistungsdichtespektrum
zesse, 164 eines zyklostationaren Pro-
Kreuzkovarianzfunktion, 157 zesses, 194
Kreuzkovarianzfunktion gemein- Modalwert, 59
sam ergodischer Prozes- Multiplikationsregel fUr Wahrschein-
se, 162 lichkeiten, 28
224 INDEX

Normalverteilung, 58,90 Realisierung, 152


k-tes zentrales Moment, 91 Scharmittelwert, 154
charakteristische Funktion, schwach stationarer, 155
91 stark stationarer, 153
Erwartungswert, 91 Stationaritat, 156
Varianz, 91 Zeitmittelwert, 160
zweidimensionale, 106 zyklostarionarer, 193

orthogonale stochastische Prozes- TiefpaB, 211


se, 158
Ubergangsgraph, 186
Periodische Signale, 162 Ubergangswahrscheinlichkeiten k-
Permutation, 206 ter Stufe, 183
PoissonprozeB, 177
p-tes Quantil, 59 Varianz, 57
Variation, 207
Q-Funktion,93 Vereinigung, 6
Verteilungsfunktion, 38
Rand,189 Eigenschaften, 39
Randdichten, 108 Verteilungsfunktion einer mehr-
Rayleigh-Verteilung, 122 dimensionalen Zufalls-
variablen, 105
Satz von Bayes ffir Dichten, 110
Scharmittelwert, 154 Wahrscheinlichkeit, 11, 15
schwach stationar, 155 a posteriori, 30
u-Algebra, 12 a priori, 30
Borelsche, 14 bedingte,27
Standardabweichung,57 Konvergenz in, 126
Standardnormalverteilung, 42 Wahrscheinlichkeitselement, 43
zweidimensionale, 107 Wahrscheinlichkeitsraum, 15
stochastische Matrix, 184 weiBes GauBsches Rauschen, 174
stochastische Prozesse
gemeinsam stationare, 157 zeitdiskrete Zufallsprozesse, 165
unkorrelierte, 158 Autokorrelationsfolge, 165
stochastische Vektoren, 184 Autokovarianzfolge, 165
stochastischer ProzeB, 152 k-tes Moment, 165
ergodischer, 160 mittlere Leistung, 165
komplexer, 158 stationare, 165
normaler, 156 Leistungsdichtespektrum,
Pfad,152 165
INDEX 225

zeitlicher Mittelwert der Reali- zweidimensionale Standardnormal-


sierung x(t), 160 verteilung, 107
Zeitmittelwert, 160 zyklostarionarer stochastischer Pro-
Zeitparametermenge, 183 ze6, 193
Zufallsexperiment, 5 zyklostationarer Proze6
Laplacesches, 11 mittleres Leistungsdichtespek-
Zufallsvariable,38 trum, 194
Erwartungswert, 54
absolutes zentrales Moment
k-ter Ordnung, 59
cauchyverteilte, 53
charakteristische Funktion,
60
diskrete, 40
Dispersion, 57
erzeugende Funktion, 62
exponentialverteilte, 89
gau6verteilte, 90
gleichverteilte, 87
komplexe, 118
mehrdimensionale, 104
nichtzentral x~-verteilte, 123
normalverteilte, 90
poissonverteilte, 82
rayleighverteilte, 96, 122
riceverteilte, 123
stetige,40
unabhangige, 111
unkorrelierte, 112
verallgemeinert riceverteilte,
123
verallgemeinert rayleighver-
teilte, 122
weibullverteilte,95
zentral x~-verteilte, 122
Zustand, 189
Zustandsmege, 183
zweidimensionale Normalvertei-
lung, 106

Das könnte Ihnen auch gefallen