Sie sind auf Seite 1von 522

Statistic B

Überblick

2 Zufallsvorgänge und Wahrscheinlichkeiten

2.1. Zufallsvorgänge

2.2. Wahrscheinlichkeiten

2.3. Kombinatorik

2.4. Bedingte Wahrscheinlichkeiten

2.5. Stochastische Unabhängigkeit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 1 / 58
Zufallsvorgang, Zufallsexperiment

Zufallsvorgang:


Die möglichen Ergebnisse des Vorgangs stehen im Voraus
fest.
Das tatsächliche Ergebnis ist im Voraus nicht bekannt.

Beispiele: Wetter am morgigen Tag, Kurs der Deutsche


Bank-Aktie in einem Jahr.
Zufallsexperiment: geplanter und kontrolliert ablaufender
Zufallsvorgang.
Beispiele: Werfen eines Würfels, Ziehung der Lottozahlen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 2 / 58
Ergebnisse, Ergebnismenge
r
=
might Ergesnisse

Die Menge der möglichen Ergebnisse (Ausgänge) eines


Zufallsvorgangs heißt Ergebnismenge. Sie wird mit Ω
.
bezeichnet.
. ∈Ω
Ein Element ω . heißt Ergebnis oder Ausgang. Die
Ergebnisse werden mit kleinen ω’s
. bezeichnet.

Die Ergebnismenge kann endlich, abzählbar unendlich oder


überabzählbar unendlich sein.
Ω = {ωO1 , ω2 , . . . , ωOn } endlich
Ω = {ωO1 , ωO2 , . . . } abzählbar unendlich
Ω = {ω | ω ∈ OR, ω ≥ 0} überabzählbar unendlich

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 3 / 58
Beispiele

Endliche Ergebnismenge:

µsk
Münzwurf: Ω = {Z , W }, Artale an

ten Ergebnissen
Würfelwurf: Ω = {1, 2, 3, 4, 5, 6}, high
.

Roulette: Ω = {0, 1, 2, . . . , 35, 36}.


Es gibtvesdiedeenelliiglichke.hn "
,

Abzählbar unendliche Ergebnismenge: ⇒ nerzieet lis I


wird

Münzwurf bis „Z“ erscheint: Ω = {Z , WZ , WWZ , . . . },


Anzahl verkaufter Zeitungen: Ω = {0, 1, 2, . . . } = N0 .
Überabzählbar unendliche Ergebnismenge:
Lebensdauer eines Bauteils: Ω = { t | t ∈ R, t ≥ 0},
} linleslimmt ,

Ertrag einer Investition: Ω = R. Hits for


avsseteungen
"

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 4 / 58
Ereignis

Eine Zusammenfassung von Ergebnissen bezeichnet man als


Ereignis. s
. der Ergebnismenge Ω.
Formal: Ein Ereignis ist eine Teilmenge A ⊂ Ω
Ein Ereignis A . tritt ein, wenn der Zufallsvorgang ein Ergebnis ω
. ⊂Ω
liefert, das Element von A ist.

ω∈A⊂Ω

Die leere Menge ∅. heißt auch unmögliches Ereignis.

:
Die gesamte Ergebnismenge Ω heißt auch sicheres Ereignis.
Ein einelementiges Ereignis {ω} heißt Elementarereignis.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 5 / 58
Verknüpfung von Ereignissen

Durchschnittsereignis: A 0
∩ B tritt genau dann ein, wenn A und B
beide eintreten. („A und B“)
O

AIBO

Had
A B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 6 / 58
Verknüpfung von Ereignissen

0
Vereinigungsereignis: A ∪ B tritt genau dann ein, wenn
mindestens eines der Ereignisse A odero B eintritt. („A oder B“)

-
A B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 7 / 58
Verknüpfung von Ereignissen

0
Differenzereignis: A \ B tritt genau dann ein, wenn A und nicht B
eintritt. („A und nicht B“) O
A ohne B
d

z
A B

E-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 8 / 58
Verknüpfung von Ereignissen

Komplementärereignis: O

Eet
A tritt genau dann ein, wenn A nicht
eintritt. („nicht A“)
a

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 9 / 58
Verknüpfung von Ereignissen

Exklusives oder: Das Ereignis tritt genau dann ein, wenn genau
0 - oder B“)
eines der Ereignisse A oder B eintritt. („ entweder A

FYI
'

-
A B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 10 / 58
Regeln für Ereignisverknüpfungen

be Sethe geeta
immer

A∪B =B∪A
Kommutativgesetze
A∩B =B∩A
a

A ∪ (B ∪ C) = ,(A ∪ B) ∪ C
Assoziativgesetze
I ∩C
A ∩ (B ∩ C) = I(A ∩ B)

saz
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
Distributivgesetze
A ∩ ¥e
(B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A∪B =A∩B
De Morgansche Regeln
-

-
A∩B =A∪B
I

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 11 / 58
Regeln für Ereignisverknüfungen A ∪ B = A ∩ B

A B A B

Ω Ω Ω

A B A B

Ω Ω

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 12 / 58
Disjunkte Ereignisse, vollständige Zerlegung

O
Zwei Ereignisse A, B ⊂ Ω heißen disjunkt (unvereinbar), wenn
O
A ∩ B = .∅ ist.
Die Ereignisse AO1 , . . . , An heißen paarweise disjunkt, wenn je
zwei dieser Ereignisse disjunkt sind. D
Die Ereignisse AO1 , . . . , AOn bilden eine vollständige Zerlegung
oder Partition, wenn sie

nichtleer und 0
¥¥¥
1

paarweise disjunkt sind und


.
2

3 ihre Vereinigung die gesamte Ergebnismenge Ω. ergibt.


An R
Anu Az Asu
=
u
,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 13 / 58
Disjunkte Ereignisse
Weise disjunct
paar

A B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 14 / 58
Vollständige Zerlegung

A1

fit
A3

¥
A5
A
µ A4
A2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 15 / 58
Vollständige Zerlegung

Die Ereignisse A01 , . . . , AOn bilden eine vollständige Zerlegung


oder Partition, wenn gilt:
heine here nape

§
= ∅ für alleO
ES
1 Ai ̸ i, ⇒ gibt

2Ai ∩ Aj = ∅ für alle i @



= j,
Beispiee ¥; 3
FIE
do
I
TO
!n
3 A1 ∪ . . . ∪ AOn = i=1 Ai = Ω. U
,
Ai =
Anu Az As

Er
Interpretation r
Eti

2
O ein Ereignis OAi ein.
Es tritt immer höchstens
3 Es tritt immer mindestens ein Ereignis O
Ai ein.
r s Ai

-
Also: Ist A1 , . . . , An eine vollständige Zerlegung, so tritt immer
genau eines der Ereignisse A1 , . . . , An ein.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 16 / 58
Beispiel: Roulette

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 17 / 58
Beispiel: Roulette ⇒
Vall stand .

je
Zet e
guy
Z = {0} ) Z
Ci n =p U n 6 n r n e
( = Zero )
N r
) Z U G R =
u u
u u

U = {1, 3, . . . , 35} ( = Impair )


G = {2, 4, . . . , 36} ( = Pair )
R = {1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23,
25, 27, 30, 32, 34, 36} ( = Rouge )
N = {2, 4, 6, 8, 10, 11, 13, 15, 17, 20, 22, 24,
26, 28, 29, 31, 33, 35} ( = Noir )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 18 / 58
Überblick

2 Zufallsvorgänge und Wahrscheinlichkeiten

2.1. Zufallsvorgänge

2.2. Wahrscheinlichkeiten

2.3. Kombinatorik

2.4. Bedingte Wahrscheinlichkeiten

2.5. Stochastische Unabhängigkeit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 19 / 58
Formale Definition der Wahrscheinlichkeit

. eine Ergebnismenge und A


Sei Ω .
. eine Menge von Ereignissen.
Eine Abbildung
' .
.P : A. (→ P(A), A. ∈ A,
.
heißt Wahrscheinlichkeit, falls die folgenden Axiome von
Kolmogoroff gelten:
)
Rr I
Nichtnegativität: P(A) ≥ 0 für alle A ∈ A.

i
somit
1 sina.FIeeebhisf.EE
2 Normierung: P(Ω) = 1.
3 Additivität: . = P(A) + P(B), falls A ∩ B = ∅.
P(A ∪ B)
.

Sohst PLAIANB) t PCBIANB )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 20 / 58
Rechenregeln
Es gelten die folgenden Rechenregeln für Wahrscheinlichkeiten:

P(A) = 1 − P(A),
-
wahrkheinlich Kit
Gegen

When 't
P(∅) = 0, here
rage ,

hi cuts !

P(A) ≤ P(B), falls A ⊂ B,


When 't Von A Kleiner des von B ,

echte Teil menge B


falls A eine von ist

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 21 / 58
Rechenregeln
da
Greaten ,

groped
0 ≤ P(A) ≤ 1, W' ka 't nicht

kleiner O sein
kaan
Oder
I

P(A \ B) = P(A) − P(A ∩ B),


A ohne B

} RAID

O falls B ⊂ A.
O − P(B),
P(A \ B) = P(A)
Wir Wissen class di
=)
nage
,

itnhngersykonpktt +
{

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 22 / 58
Additionssätze
Für paarweise disjunkte Ereignisse AO1 , . . . , AOn gilt

P(A1 ∪ A2 ∪ A3 ) = P(A1 ) + P(A2 ) + P(A3 ), final


"n # n
! $ PLAN ) t RAI ) PC Ah ) t t
P Ai = P(Ai ).
.
. .

i=1 i=1

A1 A3

A2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 23 / 58
Additionssätze

Für beliebige Ereignisse A, B, C gilt

O ∪O
P(A B) = P(A) + P(B) − P(A ∩ B),
me addict

A B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 24 / 58
Additionssätze
Für beliebige Ereignisse A, B, C gilt

. + P(C)
. + P(B)
P(A ∪ B ∪ C) = P(A) .
−P(A ∩ B) − P(A ∩ C) − P(B ∩ C)
+P(A ∩ B ∩ C).

An B

.
A B

Ω C

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 25 / 58
Beispiel: Wetter von Morgen

. ! „Morgen Regen“,
Gegeben: A P(A) = 0.6,
B. ! „Höchsttemperatur ≥ 15◦ C“, P(B) = 0.5,
P(A ∪ B) = 0.3.

Bei de Erajnisse I
Gesucht: W. für „Regen und Temp. ≥ 15 C“, d.h. P(A ∩ B).

:{
B B

II
'

:&
0.6

ooo
A o

A 0.3
0.5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 26 / 58
Beispiel: Zeitungen
. ! „Zufällig ausgewählter Einwohner liest die Abendzeitung“
A
.B ! „Zufällig ausgewählter Einwohner liest die Bildpost“

Gegeben:
1 Wahrscheinlichkeit, dass er die Abendzeitung liest, ist 60%,
2 Wahrscheinlichkeit, dass er die Bildpost liest, ist 50%,
3 Wahrscheinlichkeit, dass er mind. eine der Zeitungen liest, ist
I
90%. og
B An } =⑦
-
-

o ,

ANT
= ,

B B
A 0.2 0.4
0.6
A 0.3 Ot 0.4

0.5 O .
5 1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 27 / 58
Beispiel: Zeitungen (Fortsetzung)

. ! „Zufällig ausgewählter Einwohner liest die Abendzeitung“


A
.B ! „Zufällig ausgewählter Einwohner liest die Bildpost“

Gesucht:
a Wahrscheinlichkeit, dass er beide Zeitungen liest,
02
⇒ What fi An B =

( side Tate )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 28 / 58
Beispiel: Zeitungen (Fortsetzung)
b Wahrscheinlichkeit, dass er keine der Zeitungen liest,
F a

}
,


point ) =p CANT ) = on
silage

c Wahrscheinlichkeit, dass er genau eine Zeitung liest.


B)
PHAT ( An B- ) ) at
sprint einer
u
genome Zeitung
=
PLAT ) B t PLA n 5)

4 O 3
=
= O . t .

0dg paan
B) YA on ) )
=
9 O 2
O
-

=
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 29 / 58
Laplace-Experimente
Ein Zufallsexperiment heißt Laplace-Experiment, wenn
fester Wirt
1 die Ergebnismenge endlich ist, d.h. |Ω| = n, und
2 alle Ergebnisse gleichwahrscheinlich sind, d.h.

1
.
.
P({ω.i }) = , i = 1, . . . , n .
n.

. gilt dann:
Für ein Ereignis A. ⊂ Ω
Kah dinah fit
K
.
|A| Anzahl der (für A) günstigen Ergebnisse
. . =
P(A) = .
.
|Ω| Anzahl der möglichen Ergebnisse

O die Anzahl der Elemente der Menge A.


Hier bezeichnet |A|

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 30 / 58
Überblick

2 Zufallsvorgänge und Wahrscheinlichkeiten

2.1. Zufallsvorgänge

2.2. Wahrscheinlichkeiten

2.3. Kombinatorik

2.4. Bedingte Wahrscheinlichkeiten

2.5. Stochastische Unabhängigkeit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 31 / 58
Kombinatorik

Anordnungen von n unterscheidbaren Objekten:

n! = n · (n − 1) · . . . 3 · 2 · 1 .

Anordnungen von n Objekten, von denen jeweils n1 , . . . , nJ


(mit n1° + · · · + nJ Oe
= n) ununterscheidbar sind:

n!
n1 ! · n2 ! · · · · · nJ !

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 32 / 58
Kombinatorik

Auswahl von k Objekten aus n unterscheidbaren Objekten

mit Berücksichtigung ohne Berücksichtigung


der Reihenfolge der Reihenfolge

ohne Ii ) (it
i
" #
n! n
Zurücklegen (n − k )! k

mit n+k −1
" #

Zurücklegen
nk lid k

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 33 / 58
Beispiel: Anordnung und Auswahl von Objekten I

0 Zurücklegen; mit
Mit O Berücksichtigung der Reihenfolge:
Beispiel: n = 4, k = 2 hk ( iii )

(1;1) (1;2) (1;3) (1;4)


(2;1) (2;2) (2;3) (2;4)
(3;1) (3;2) (3;3) (3;4)
(4;1) (4;2) (4;3) (4;4)

nk = 42 = 16 Möglichkeiten.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 34 / 58
Beispiel: Anordnung und Auswahl von Objekten II

° Zurücklegen; mit
Ohne ° Berücksichtigung der Reihenfolge:
Beispiel: n = 4, k = 2
nor .

(1;1) (1;2) (1;3) (1;4)


(2;1) (2;2) (2;3) (2;4)
(3;1) (3;2) (3;3) (3;4)
(4;1) (4;2) (4;3) (4;4)

n!
(n−k )! = 4 · 3 = 12 Möglichkeiten.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 35 / 58
Beispiel: Anordnung und Auswahl von Objekten III

OH
Ohne Zurücklegen; ohne Berücksichtigung der Reihenfolge:
in
Beispiel: n = 4, k = 2

} EYE
(1;1) (1;2) (1;3) (1;4) da

(2;1)
(3;1)
(4;1)
(2;2)
(3;2)
(4;2)
\ (2;3)
(3;3)
(4;3)
(2;4)
(3;4)
(4;4)

4 4·3
%n& " #
= = = 6 Möglichkeiten.
k 2 2!

'÷m ¥
-

- =

ni .
i

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 36 / 58
Beispiel: Anordnung und Auswahl von Objekten IV

0 O Berücksichtigung der Reihenfolge:


Mit Zurücklegen; ohne
Beispiel: n = 4, k = 2 Heflin

(1;1) (1;2) (1;3) (1;4)


(2;1) (2;2) (2;3) (2;4)
fatling
wet
{
'

(3;1) (3;2) (3;3) (3;4)


guide
Zaheer
vomer (4;1) (4;2) (4;3) (4;4) des
ceufgwad
Miglia
bricklayers
n+k −1 5
" # " #
= = 10 Möglichkeiten.
k 2

IE V
1)
( 4th
-

=
=
-

-
to
=

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 37 / 58
Kombinatorik in Excel
Wichtige kombinatorische Funktionen in Excel:

Excel-Funktion berechnet

=FAKULTÄT(n) n!
n!
=VARIATIONEN(n;k)
(n − k)!
" #
n
=KOMBINATIONEN(n;k)
k

Mit Hilfe dieser Funktionen können alle oben aufgeführten


kombinatorischen Formeln einfach berechnet werden.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 38 / 58
Überblick

2 Zufallsvorgänge und Wahrscheinlichkeiten

2.1. Zufallsvorgänge

2.2. Wahrscheinlichkeiten

2.3. Kombinatorik

2.4. Bedingte Wahrscheinlichkeiten

2.5. Stochastische Unabhängigkeit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 39 / 58
Bedingte Wahrscheinlichkeit

. ein Ereignis mit P(B) > 0. Dann heißt für ein beliebiges
Sei B
Ereignis A
.
P(A. ∩ B)
. =
P(A. | B)
P(B).

die bedingte Wahrscheinlichkeit von A. unter der Bedingung B.


Interpretation: Wahrscheinlichkeit dafür, dass A eintritt, wenn
man bereits weiß, dass B eingetreten ist.
.
P(A∩B) .
. | A)
Entsprechend ist P(B . = P(A). die bedingte
Wahrscheinlichkeit von B
. unter der Bedingung A.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 40 / 58
Bedingte Wahrscheinlichkeit: Eigenschaften

Für gegebenes B mit P(B) > 0 erfüllt die bedingte


Wahrscheinlichkeit die Kolmogoroffschen Axiome, d.h.. es ist
PIANBIPCB ) ) to

. ≥ 0 für alle A,
!
1 P(A | B)
ist
2 - .fi?estlieeErgeb.uisme.ngei.wennBOleeitseingetreteh
P(Ω | B) = 1, What

¢
3 P(A1 ∪ A2 | B) O
. = P(A1 | B) + P(A2 | B), falls A1 ∩ A2 = ∅.

:%i%I
:
Perine
"
digging


pcltnutz )nB)lP( B)
B) IRB ) than B) n ( An B) =¢
3. Axiom

PC Azn B )
PC Ann B ) -
t

PCB ) PCB )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 41 / 58
Bedingte Wahrscheinlichkeit: Eigenschaften

Ferner gilt:
P( ) =p
C A) I c A) =p
r
)I P Cr ) =p
PC Ans
P(A | Ω) = P(A) und =

P(A | B) = 1, falls B O
⊂ A ist.
%n÷ :# I
=
.

A
B

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 42 / 58
D=
PLANT or

B) 0.2
Beispiel: Zeitungen P( An =

PIAF ) or
=

Fortsetzung Folie 27: P(A) = 0, 6 P(B) = 0, 5 P(A ∪ B) = 0, 9


1 Wie groß ist die Wahrscheinlichkeit, dass eine zufällig
ausgewählte Person die Abendzeitung liest, wenn - bekannt ist,
dass sie die Bildpost liest?

PpqAj==o
PLAIN -

2 Wie groß ist die Wahrscheinlichkeit, dass eine zufällig


ausgewählte Person keine der beiden Zeitungen liest, wenn
bekannt ist, dass sie höchstens eine Zeitung liest?
PLANT PHAT )nlAnT) )
PLATE
) I ) =

t
PLANT )
OI
thing
=
ons
Y÷hzetwgu , I PLANT ) =

⇐ pca.pt as

y y
o g 1-0.2
1 - .

=
0.4
= 0.8

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 43 / 58
Multiplikationssätze PCANB )
PCAIB )
=


Für zwei beliebige Ereignisse A, B gilt:
'
P(A|B) · P(B) , wenn P(B) > 0,
P(A ∩ B) =
P(B|A) · P(A) , wenn P(A) > 0,

Für drei beliebige Ereignisse A, B, C gilt:

P(A ∩ B ∩ C) = P(A|B ∩ C)P(B|C)P(C) , wenn P(B ∩ C) > 0.

Eine entsprechende Formel existiert auch allgemein für n


Ereignisse!
P( An Bnc ) PCAIBNC ) PC Bnc )
-
.

-
PCBK )
.

Pcc )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 44 / 58
Satz von der totalen Wahrscheinlichkeit
Satz (von der totalen Wahrscheinlichkeit)
Sei A10 , . . . , AnO eine vollständige Zerlegung von Ω und sei
P(Ai ) > 0 für i = 1, . . . , n. Dann gilt für jedes Ereignis O
B ⊂ Ω:
echk
n
( Talmage
P(B) = P(B | AOi )P(A0i ) .
i=1

Bemerkung: P(B) ist gewichtetes arithmetisches Mittel der


bedingten Wahrscheinlichkeiten P(B | Ai ). Gewichte sind
gegeben durch die P(Ai ).

As
disjunct
=

& PCBIAI ) PCA ,



Ereignisse
D= (Bratt
P( )tP( )

Brits
.

'

Batz
r

B PC Bn Az ) PC Bn A- 3) ⇒ 3. Axiom
=p ( Brian )
t

pl B)
t

✓ FETCH =pYB¥PCAs )
An Az =p ( BIAN ) .
PLAN

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 45 / 58
Satz von Bayes

Satz (von Bayes) graft Nevin formation auf aktualisiert die Wahrscheinlilhkeilen
and

Sei AO1 , . . . , AnO eine vollständige Zerlegung von Ω und sei


P(Ai ) > 0 für i = 1, . . . , n. Sei B. eine Ereignis mit P(B) > 0.
Dann gilt für i = 1, . . . , n:

P(B | Ai )P(Ai )
P(Ai | B) = n
.
$
P(B | Aj )P(Aj )
j=1
⇒ Pl Ail B) I PCB )

Interpretation: Die Wahrscheinlichkeiten P(Ai ) heißen


A-priori-Wahrscheinlichkeiten. Nach Beobachten des
Ereignisses O
B (Informationsgewinn!) erhält man mit dem Satz
von Bayes die A-posteriori-Wahrscheinlichkeiten P(Ai | B).
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 46 / 58
Beispiel Ui =
Wir ziehen aus Uru

U2
⇒ Bayes
U bilder Zelegumg

Un
,
, ] uollstiindige

Drei Urnen sind wie folgt mit farbigen Kugeln gefüllt:

Urne rot schwarz


5

K
1 4 1
:*
't

>
2 3 4
-

3 5 9 14

Zunächst wird zufällig eine der Urnen ausgewählt. Dann wird


.

zufällig eine Kugel aus der gewählten Urne entnommen.


PCRIU )= 4/5
,
pl RIV D= 317 PCR 1033=544

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 47 / 58
Beispiel
1 Wie groß ist die Wahrscheinlichkeit eine rote Kugel zu ziehen?
PCRM ) .

Plus ) t PERIOD .

Plus ) t Pl Rl 03
)
.

Plus)
It } 5kg
415
% t
13
=

0.52=86
.
.
.

\ I l
W' Katen der

bin 2- eben Urhln

2 Die gezogene Kugel ist rot. Mit welcher Wahrscheinlichkeit


wurde die Kugel aus Urne 1 (Urne 2, Urne 3) entnommen?
PHIR ) =P ( Urn R ) Eye
W' ke 't
# d. h
Xv
Uerleilt
gleich
-
,

Pl R ) ist
to ,
⇒ what Vertihmg
=p ( RM ) .

P ( Va ) intevschiedtu

PTN PC KIR ) =
0¥03
0.16¥
415
A0¥46 pcbzlr )
.

=
-

= O 5045
=
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 48 / 58
Beispiel: Ziegenproblem

In einer Spielshow hat ein Kandidat die Wahl zwischen drei


verschlossenen Türen. Hinter einer Tür befindet sich der
Hauptgewinn, hinter den anderen beiden lediglich Trostpreise.
Der Kandidat wählt zunächst Tür 1. Daraufhin öffnet der
Moderator die Tür 2, hinter der sich nur ein Trostpreis befindet.
Der Kandidat bekommt nun die Möglichkeit, sich
umzuentscheiden und eine andere Tür zu wählen oder bei
seiner ursprünglichen Wahl zu bleiben.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 49 / 58
Beispiel: Ziegenproblem

Was sollte er tun?


"
Tir
Ai =
,,
Auto hinter i

3
1,2
.

=
i


"

Moderator Eff net T.ir 2


B
PC Az )
=
Rts ) =
1/3 ⇒ A priori
PLA D=
"
,, posteriori
Nz
P ( BI An )
=

T.ir 2 Wint
)
( What Haptgewinh
dass Moderator
.

O T.ir
P ( BI Az )
= ,
linter 2 ist
Wem

P ( BI A g) y
=

) PCBI An ) MAHPCBIAD
PLAY PC Blts ) PLAs )
pI B
.

t
.
.

= 1/2 .

Mz t O .

73 t
I .

43
=
the
0,5 )
42 FIT
Iz
=
C

PffB,
.

Mpfg
=

persian
PLAN B)
.

=
=

As RBI )
PpY I
g >
Iz !
= =

Zz
.

pctzlrs )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 50 / 58
Überblick

2 Zufallsvorgänge und Wahrscheinlichkeiten

2.1. Zufallsvorgänge

2.2. Wahrscheinlichkeiten

2.3. Kombinatorik

2.4. Bedingte Wahrscheinlichkeiten

2.5. Stochastische Unabhängigkeit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 51 / 58
Stochastische Unabhängigkeit

Zwei Ereignisse A, B sind unabhängig


Das Eintreten des Ereignisses A hat keine Auswir-
⇐⇒ kung auf die Wahrscheinlichkeit des Eintretens von
Ereignis B (und umgekehrt). P ( An B ) pass

All=RBA
=P C
.

P(A|B) = P(A) , wenn P(B) > 0, ⇒ I


⇐⇒ )
P(B|A) = P(B) , wenn P(A) > 0. ⇒ PpYI 7 PC An B) =P CA ) RB )
⇐ .

Zwei Ereignisse A und B heißen (stochastisch) unabhängig,


wenn gilt:
P(A ∩ B) = P(A) · P(B)
Ist P(A) > 0, so ist dies äquivalent zu P(B | A) = P(B).
Ist P(B) > 0, so ist dies äquivalent zu P(A | B) = P(A).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 52 / 58
Stochastische Unabhängigkeit: Eigenschaften
Sind A und B stochastisch unabhängig, so sind auch die
folgenden Ereignisse stochastisch unabhängig:
PCA )=o
A ,
B Sto chastiser unable
gig
⇒ Plan
Anne
PLAN
A
B) ERA )
A und B , A und B , A und B . B) =P # RB)
⇒ Oe

B) = PCA .

PCB )
-0
y
PC An

E Eo Ist P(A) = 0 oder P(A) = 1, so ist A. von jedem Ereignis B


stochastisch unabhängig.
Sind -A und B. disjunkt und ist P(A), P(B)
. > 0, so sind A
und B nicht stochastisch unabhängig.
① lane Menge

) PLAN B) =P 101=0
PLAT B) =P l B pl An B )
-

=
PCB ) -

IPCA ) PCB
.

] pets # . B) 70 r

PCB ) It PCA ) ] PCA ) PCB ) W B


.

y A
- -
-

30
Do

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 53 / 58
Stochastische Unabhängigkeit
Frage: Wie ist stochastische Unabhängigkeit von mehr als zwei
Ereignissen definiert?
AO1 , . . . , An heißen vollständig oder global unabhängig, falls

O≤ m
für jede Auswahl von m Ereignissen gilt (2 . ≤ n).
.
O
P(AOi1 ∩ Ai2 ∩ . . . ∩ AOim ) = P(Ai1 ) · P(Ai2 )00· . . . · P(AO
im )

Beispiel :
Any As
,
voustiindig washing if
.
. .

PC Ann As ) PLAN ) PLAs )


Z
gilt
B :
=
.

. .

uses

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 54 / 58
Beispiel: Ausfallwahrscheinlichkeiten

Ein elektronisches Bauteil besteht aus drei Komponenten A, .


. B,
. Das Bauteil fällt aus, wenn A
C. . ausfällt oder wenn B '
. und C
zusammen ausfallen. Die Ausfallwahrscheinlichkeit für A. sei
O für .B und C
3%, O
. jeweils 5%.

Mit welcher Wahrscheinlichkeit fällt das Bauteil aus, wenn man


annimmt, dass die Komponenten unabhängig voneinander
arbeiten?
⇒ PC Au C Bnc )

) PLAN Bnc )
P( A) PC Bnc
-

t
=

=
PC A) t PCB ) .

PCC ) -

PLA ) .

PCB ) .

Pcc )
-
Stochastishcenabhanyig
= 0.03T (0.05-0.05) ( 0.03
-
0.05 0.05 .
.

)
=
0.03T 0.0025 -
0.000075

= 0.032425

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 55 / 58
Bernoulli-Versuchsreihe
Ein Bernoulli-Experiment ist ein Zufallsexperiment, bei dem lediglich
O oder nicht.
O
go
interessiert, ob ein bestimmtes Ereignis A eintritt („Erfolg“)
Eine Bernoulli-Versuchsreihe ist die n-malige Wiederholung eines
Bernoulli-Experiments, wobei

1 die Wiederholungen stochastisch unabhängig sind und


2 die Erfolgswahrscheinlichkeit bei jeder Wiederholung gleich ist.

Es sei A.i das Ereignis „Erfolg bei der i-ten Wiederholung“ und
.π = P(A' i ), i = 1, . . . , n.
Beispiele:

0.8
1 . i = „Zahl beim i-ten Wurf“
Münzwurf: A
2
° beim i-ten Wurf“
Würfel: A. i = „Sechs
3 Prüfen von Bauteilen: Ai = „i-tes O
o Bauteil ist defekt“

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 56 / 58
Bernoulli-Versuchsreihe: Beispiel
Gesucht sei die Wahrscheinlichkeit bei n = 5 Versuchen k = 2
Erfolge zu erzielen.
Im folgenden stehe 1 für einen Erfolg, 0 für keienen Erfolg.

÷÷÷÷ '
is
11000 π · π · (1 − π) · (1 − π) · (1 − π) = π 2 (1 − π)3
10100 π · (1 − π) · oπ · (1 − π) · (1 − π) = π 2 (1 − π)3
: 10010 π · (1 − π) · (1 − π) · π · (1 − π) = π 2 (1 − π)3
.. .. ..
. . .
00011 (1 − π) · (1 − π) · (1 − π) · π · π = π 2 (1 − π)3
Wie viele unterschiedliche Anordnungen von k = 2 Einsen und O
n − k = 3 Nullen gibt es?
Insgesamt n = 5 Objekte, von denen) jeweils
. = .5 =
)n* n. − k. = 3
k = 2 und
ununterscheidbar sind. =⇒ 2!·3! 5!
i . )! k
n!
i
*
=
. .2 .k !(n−k

8
Die gesuchte Wahrscheinlichkeit ist also .2. π (1 − π)3 .
)5* 2
to
Allgemein erhält man kn π.k (1: − π).n−k. . lingetettk
) *
What
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 57 / 58
Bernoulli-Versuchsreihe

Satz (Bernoulli-Versuchsreihe)
Sei π die Erfolgswahrscheinlichkeit bei einer
Bernoulli-Versuchsreihe, d.h. π = P(AOi ), i = 1, . . . , n. Dann gilt
" #
n k
P(k Erfolge bei n Wiederholungen) =
k.
π (1 − OOπ)n−k
. ..
.

Beispiel: Wie groß ist die Wahrscheinlichkeit bei zehnmaligem


Würfeln genau zwei Sechsen zu werfen?
Formel oben
liuglfettt
von
"
"

Edith .HN .IE?oHTG-fI


#%H=nnun}
.

'

Hitomi NHI
"

I
son ,
? #
'

little 45¥

=

=
0,2907
Mit IT eingesetzt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 2. Zufallsvorgänge und Wahrscheinlichkeiten 58 / 58
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 1 / 66
Zufallsvariablen
X ist line Fun Lti on

Eine Zufallsvariable ist eine Abbildung p

X. : Ω. −→ R ,
- #−→ X
ω . .
. (ω)
↳ Element der
Er gets his
merge
. (ω)
. wird eine reelle Zahl X
Jedem Ergebnis ω . zugeordnet:

X- (ω)
. = x. ∈ R
Trunnion
. den die Zufallsvariable X annimmt, heißt
Der konkrete Wert x,
Realisation.
. X = {x. = X
Wertebereich der Zufallsvariablen: W ' (ω) . ∈ Ω}.
. |ω .
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 2 / 66
Beispiel: Dreifacher Münzwurf

Zufallsexperiment: Eine Münze wird dreimal geworfen. Es


interessiert die Zufallsvariable X = „Anzahl Zahl“

.①
ωi (K . ) (K. , K
. , .K , K . ,Z,K
. , Z. ) (K . ) (K
. , Z. , Z
. )

. Oi )
. (ω
X O l 1 2

.ω①
i (Z. , K. , K. ) (Z. , K. , Z. ) (Z' ,.Z , K. ) (Z. , Z , Z. )

X. (ω' Oi ) y 2 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 3 / 66
P/X=tl=Pl{ Kiktthlkizikhfz , km )

Kurzschreibweisen formal =%
werlxcwy.ee }
PH 't )=P( It
{
Wahrscheinlichkeit ,
bei der die
"
A annimmt
Zufall Svan able
.

Man verwendet die folgenden Kurzschreibweisen:

P(X. = x) . ∈Ω
. = P ({ ω . (ω)
. |X . = x. })
- ≤ x)
. = P ({ ω . . (ω)
. ≤x
. })
P(X . ∈ Ω|X
. = P ({ ω
P(a- < X ≤ b) . ∈Ω
. |a . (ω)
. <X . ≤ b. })

Allgemein: Für eine beliebige Menge B. ⊂ O


R ist

. ∈ B)
P(X . = P ({ .ω ∈ Ω
. |X
. (ω) . })
. ∈B
z.rs
D= ] ,b ]
.

=P I Xc B)
=fYacxEb )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 4 / 66
Beispiel: Dreifacher Münzwurf
Zx worth Kopffzahl
Es handelt sich um ein Laplace-Experiment! Daher gilt .

P({ω.i }) = 1/8 für jedes der acht Elementarereignisse.

x.i . . (ω)
{ω|X . = x.i } . = x. i )
P(X

Heine Tretter 1/8


0 {(K. , K . )}
. ,K

Genauttreftr 1 . , K. , Z. ), (K
{(K . , Z , K. ), (Z. , K. , K
. )} 3/8

Gerau Ztreffer 2 . , Z. ), (Z
{(K. , Z. , Z. ), (Z. , K . , Z. , K
. )} 31g

Gender 3 Tretter 3 {(Z. , Z. , .Z )} 11g

WEE 0,112,3 }

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 5 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 6 / 66
Verteilungsfunktion

Definition (Verteilungsfunktion)
Die Funktion
FX. : R −→ [0, 1] ,
.x . = P(X. ≤ x)
#−→ F.X (x) . . (ω)
. = P ({ω|X .
. ≤ x}) .

heißt Verteilungsfunktion von X. . abhingif


border

Ah Zahl der Unia been


p
Statt FX (x) schreibt man auch kurz F (x).
Die Verteilungsfunktion ist für alle reellen Zahlen x ∈ R
definiert!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 7 / 66
Beispiel: Dreifacher Münzwurf
F (x)

1.000
)
0.875

"Yra0 }pH=i
}PCx=3
}PH=2
)

0.500

::
) zhhiaeeitgwd
=)
t.bg
0.125
}
"
Zahl
"
Artale der
few
omen

negakv ( x
1 hier
O
2 3
-

in

heinous
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 3. Zufallsvariablen und Verteilungen 8 / 66
Eigenschaften von Verteilungsfunktionen

TO
1 F ist monoton wachsend: F (x) . wenn .x < .y.
. ≤ F (y),
2 F wächst von Null bis Eins:

lim FX (x) = 0 und . =O


lim FX (x) 1.
x→−∞ x→∞

.
? #unhhiohswoi
. = F (x).
F ist rechtsseitig stetig: lim F (y)
=
3

Yemen
y→x
-0
y>x ;tkebwvon

Kurzschreibweise für den linksseitigen Grenzwert:

g
.
FX (x−) . .
:= lim F (y)
y→x
y<x
.

.
F (x−) ist der „Funktionswert unmittelbar links von O
x“.

. an der StelleG
Hat F .
x keinen Sprung, so ist F (x−) .
= F (x).
5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 9 / 66
Wahrscheinlichkeiten für Intervalle
Die Wahrscheinlichkeit, dass eine Zufallsvariable X einem Wert
in einem Intervall annimmt, kann durch die Verteilungsfunktion
F. ausgedrückt werden:

f
J . = F (x)
P(X. ≤ x) .
P(X. < x)
. = F (x−)
q
. = 1 − F (x−)

OEE
. ≥ x)
P(X . o
P(X. > x) .
. = 1 − F (x) )
pcacxeb

:}I:

. = F (b)
P(a. < X. ≤ b) . − F (a)
.
Fca )
. − F (a−)
. = F (b)
P(a. ≤ X. ≤ b) .
Fcb )
= -

P(a. ≤ X. < b) . O − F (a−)


. = F (b−) .O
P(a. < X . = F (b−)
. < b) .
P(X. = x)
.
− F (a)
. = F (x)
. − F (x−)
. O
! a=b=X

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 10 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 11 / 66
Quantilfunktion

Definition (Quantilfunktion)
Für eine Zufallsvariable X mit Verteilungsfunktion F.X heißt die
00 del werden
Funktion rotten
µ
nie get

Q.X : ]0, 1[ −→ R ,
p. #−→ Q.X (p) . . X (x)
. = min{x|F . ≥ .p} ,

Quantilfunktion von X .
. heißt .p-Quantil oder p · 100%-Punkt von X. .
x. p = QX (p)

.
Merksatz Das p-Quantil ist der kleinste Wert, an dem die
Verteilungsfunktion den Wert p. erreicht oder übersteigt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 12 / 66
Spezielle Quantile

Namen spezieller Quantile:

x0.5 Median
x0.25 x0.5 x0.75 Quartile
x0.2 x0.4 x0.6 x0.8 Quintile
x0.1 x0.2 x0.3 x0.4 x0.5 x0.6 x0.7 x0.8 x0.9 Dezile

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 13 / 66
Beispiel: Dreifacher Münzwurf
F (x)

1.000
}P4
0.875

}B
p = 0.6
0.500
median

39
fyi
.

:
0.125 and flatten
} Pr Quartile 90.64
p

x
1 2 = x0.6 3
=Xn =Xz =t4
=
Xz

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 14 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 15 / 66
Diskrete Zufallsvariable

Eine Zufallsvariable heißt diskret, wenn es

endlich viele Punkte x10 , x2 , . . . , xO


J oder
abzählbar unendlich viele Punkte x1 , x2 , x3 , . . .

Yo
E
's:

§
gibt, so dass

o
.
.pj = P(X = xj ) > 0 für alle j und

go
1
!
2 pj = 1 ist.
j ✓ Alle lilkiln Zvsammeu

Eine Zufallsvariable, die nur endlich oder abzählbar


O
unendlich viele Werte annimmt, ist immer diskret!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 16 / 66
Diskrete Zufallsvariable: Träger

Die Menge
quoth .ch abzihlbar wnenahih

TX = {x1 , x2 , . . . , xJ } bzw. T.X = {x1 , x2 , x3 . . . }

. .
heißt Träger von X

Menge der Werte, die mit positiver Wahrscheinlichkeit


angenommen werden.
Meist ist der Träger einer diskreten Zufallsvariablen eine
Teilmenge der natürlichen Zahlen!
Es gilt P(X. ∈ TX. ) = O
1.
Element alter Verte die
X ist in ,

Werden Kinney
augehommeh
Vorkommeh
=3 X muss also

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 17 / 66
Diskrete Zufallsvariable: Wahrscheinlichkeitsfunktion
Definition (Wahrscheinlichkeitsfunktion)
die
fast Keith Sind
W'
. gleich
,

Die Funktion fX. : R → [0, 1], Zusamnen (


,

L = x ,
=
Xz )
pm
A

pj , falls x. = O
"
xj für einO
. = O
j,
fX. (x) . = x)
. = P(X
0 sonst,

heißt Wahrscheinlichkeitsfunktion von X .

Berechnung beliebiger Wahrscheinlichkeiten:

P(X. ∈ B) f. (x.j ) = p.j


# #
. =
.
j:xj ∈B Oo .
j:xj ∈B
¥6 Xj Siegen in B → W' Keit dieter Punkie aufsvmmieren

Aufsummierung der Einzelwahrscheinlichkeiten über alle x. j in


B PLXZ 2) f (2) fl 3) 3ft Yg % t = =

der Menge B. Z
=
.
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 18 / 66
Diskrete Zufallsvariable: Verteilungsfunktion

Die Verteilungsfunktion einer diskreten Zufallsvariablen ist


gegeben durch

f. (x. j ) =
# #
. ≤ .x) =
. = P(X
F. X (x) p. j
pp j:xj ≤x j:x.j ≤x
O

Die Verteilungsfunktion einer diskreten Zufallsvariablen ist


immer eine Treppenfunktion.

Sprungstellen an den Stellen x1 , x2 , x3 , . . . ,


Sprunghöhen sind die Wahrscheinlichkeiten p1 , p2 , p3 , . . . .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 19 / 66
Beispiel: Dreifacher Münzwurf
Träger: TX = {0, 1, 2, 3}.
fir awfsvmmiei
ke 't
'

urfereeintelnen
W
I )
tahleupaare
( K,
Wahrscheinlichkeitsfunktion: Zahl Kykl Ot

§
What

¢
3xCEitiZ Witch 't
)

④ Wir Kommer Paareiozsto


ode
④ xL= 0.25

le M hi M
Sommieuuf ⎧

been
Foi
"

de jeweiigen ⎨0.125 , falls x = 0, 3, eiwY-fmfwfkn.LI


.

}
⎪ •

Zahler
.

fX (x) = 0.375 , falls x = 1, 2, Autahl A von Zahl lei

µ ✓ 2x =
0,75
Werfel
① liegt

0 ④ sonst. Zooey dreimaligem

↳ Da wir unseen

Verteilungsfunktion: Wuvfbeeit auf


haben
# 3

eiugegreutt


alle
Die
henge
m
glider
Wi Helen

aufsummiet
( ⇒ Treppe)
⎪ 0, falls x. < 0,
\j
⇒ bei heinen Mal when

ng

Zahl

Heine
⎨0.125 , falls 0 ≤ x. < O 1, =)


Siebe
Fe 5

f
o
.

31g
=) mind It Zahl
FX (x) = 0.500 , falls 1 ≤ x. < O 2, o
.

magen 2x
0.875 , ⑦ falls 2 ≤ x. <

Bettie O 3, ⇒ mind

⎪ .

o

Z ahlen


⎪ 3x
⎩ 118 v mind
( K Kik )
falls x. ≥ 3.
⎪ ⇒
.1 ,
.

,
0.125
I 573
g.
=

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 20 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 21 / 66
Stetige Zufallsvariable

Definition (Stetige Zufallsvariable, Dichte)


Eine Zufallsvariable X. heißt stetig, wenn sich ihre
Verteilungsfunktion als Integral einer Funktion fX. : R → [0, ∞[
schreiben lässt:
( x
FX (x) = fX (t) dt für alle x ∈ R.
−∞

Die Funktion fX heißt Dichtefunktion, kurz Dichte von X .

Der Wertebereich einer stetigen ZV ist immer überabzählbar,


meistens ein Intervall der reellen Zahlen oder die reellen
Zahlen selbst.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 22 / 66
Graphische Darstellung: Dichte

0.4

0.3

F-
-
I

FX (−1)
0.2

0.1

O
−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 23 / 66
Graphische Darstellung: Dichte

0.4

FX (0.5) 0.3

0.2

0.1

0
−3 −2 −1 f- 0.5
1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 23 / 66
Graphische Darstellung: Verteilungsfunktion
FLH
1.0 t

0.8

0.6

0.4

0.2

−3 −2 −1 =
0.5 1 2 3
I
Xp
-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 24 / 66
Dichte: Eigenschaften

Die Dichte einer ZV X besitzt die folgenden Eigenschaften:


1 fX (x) ≥ 0 für alle x ∈ R, fx Kaan nicht
hegakv
Seis

① ①
O
)∞
2 fX (t) dt = ①
1. gesamte hposiner Been
−∞ Flake

Jede Funktion mit diesen Eigenschaften definiert eine


Verteilungsfunktion einer Zufallsvariable.
Achtung: Dichten sind keine Wahrscheinlichkeiten! Dichten
können auch Werte größer als O
1 annehmen!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 25 / 66
Dichte und Verteilungsfunktion

Die Verteilungsfunktion einer stetigen Zufallsvariablen ist stetig


(keine Sprünge!). Sie ist sogar fast überall differenzierbar.

Dichte gegeben, Verteilungsfunktion gesucht:

O
x
(
FX (x) = f.X (t) dt .
O
−∞

Verteilungsfunktion gegeben, Dichte gesucht:

fX (x) = FX′ (x) .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 26 / 66
Beispiel: Lebensdauer

Wir betrachten ein bestimmtes technisches Gerät und


betrachten die Zufallsvariable

. = Zeit bis zum Ausfall des Gerätes.


X

nicht Gera't faint


Wertebereich: WX = [0, ∞[. Wir wissen Wann as
⇒ ,

Die Zufallsvariable X. habe die Dichte:


"
2e−2x , falls x ≥ 0,
fX (x) =
0 sonst.

Berechnen Sie die Verteilungsfunktion!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 27 / 66
Beispiel: Lebensdauer (Dichte)
Berechnung Fx txt f Hdt Dente Verteilung
!
gregersen
,
geseht

2.0
lrebeurechuvng
fI 2 e- Hdt Stammfht
2 e-
von

2T
fat .

I
:

HII
.

I e- 2
-

= -

2T
^ = e-
-
-

1.5 "
= I -
e-
Joy da eat Fat vovschntt
.

lei X co to ) =) O
2X
)
=

f e- f
20
)
-

1.0 =
- e2× -
C -
t )

te
=

0.5

0.5 1.0 1.5 2.0 2.5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 28 / 66
Beispiel: Lebensdauer (Verteilungsfunktion)
Fulton
durchgehehde # X )
Knick
(
o.ci

1.0
=)
falls
-
-
::i
:*:
na . ar

0.8

0.6

0.4

0.2

O
B Knick
E. .

an
Steele o
0.5 1.0 1.5 2.0 2.5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 29 / 66
Beispiel
Für a ∈ R sei die Funktion f : R → R gegeben durch
" %dF.ee 879ha

f (x) = O
a(1 − x 2 ) , für −1 ≤ x ≤O1,

Jah
0 sonst. ⇒ aefgvud Def .

nicht
hinny −1 1
him
fir uns ihlegiereu

a Für welche Werte von a ist f Dichte einer Zufallsvariablen X ?


It
Hdr
-

-
1 i

=
Earth -

Irs )dx ]
- 1 '

( F. is ) Cath Citi I .tn )


t
fry
-

= -

a.
. .

= a .

I A -

Is) -

( -

a .fr
-
CI .
C- it

IE
If f- Esa ) I
-

= -

=
Zz a
t
Fa =
4J a

74 ①
Para (
beePiute )
I ) Ig a = 1.3 Ftii che unter

4 a
=3 I :
4 FCHZO ft
⇒ =
a

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 30 / 66
Beispiel

b Bestimmen Sie die Verteilungsfunktion von X .


FX ( x ) =
fI fl Htt )dt X E I -1,43 rebeurechnung

Ft .

Gezi )

I 34 .

G- tydt

It
'
=
34 It -

It Ix ) tip ]
'
= 314 - -

fr -

Is -

314 I ( Fx ) f I )]
'
= X - -
-
t -

C -


J
=
314 IH -

13×3+3 ) ]
=

f.x -

f. Ittf .

}
¥ Z EE
#:!
{ Iaas III.
-

f # =
.

sexes

I falls t So
,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 31 / 66
Wahrscheinlichkeiten bei stetigen Zufallsvariablen
Bei stetigen Zufallsvariablen hat jeder einzelne Punkt die
.
Wahrscheinlichkeit Null:

P(X. = a)
. = FX (a) . O = 0.
. − FX (a−)

Bei stetigen Zufallsvariablen können Wahrscheinlichkeiten auch mit


Hilfe der Dichte berechnet werden:
( b b ) teal
FC
. ≤ X. ≤ b)
-

P(a . = fX (t) dt
(a ∞
. ≥ a)
P(X . = fX (t) dt 1 -

Fca )

a
( b
. ≤ b)
P(X . = fX (t) dt =
Fcb )

−∞


Achtung: Alle „≤“-Zeichen können durch „<“-Zeichen ersetzt
werden! ( For bleibeu gleich)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 32 / 66
Graphische Darstellung

0.4

0.3

A
O ≤ X ≤ −1)
P(−2
O 0.2 y
-
Ysti
an

0.1

−3 −2. .
−1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 33 / 66
Beispiel: Lebensdauer (Dichte)

2.0

1.5

1.0
Axl

0.5
O ≤ X ≤ 1.5)
P(1 O

0.5 .
1.0 .
1.5 2.0 2.5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 34 / 66
Stetige Zufallsvariablen: Träger

Der Träger einer stetigen Zufallsvariable ist die kleinste


abgeschlossene Menge TX , für die

P(X ∈ TX ) = 1 .

Bemerkungen:

Obige Definition ist auch allgemein gültig, d.h. auch für


diskrete Zufallsvariablen.
In den meisten Fällen ist der Träger die Menge der Punkte
mit positiver Dichte (bzw. deren Abschluss).
1k£ O

{
" ' ' × - 2

z B fat =

=
) Tx = Io 23
abgesle lame
.
.

O Sohst

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 35 / 66
Stetige Zufallsvariablen: Quantilfunktion

Vereinfachte Darstellung der Quantilfunktion bei stetigen


Zufallsvariablen:

Q. X (p) O x ∈ R | FX (x) = p}
. = min{ . .

Praktische Berechnung:
1 Ansatz p = F (x) machen
2 Gleichung nach x auflösen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 36 / 66
Beispiel: Lebensdauer
Die Zufallsvariable X habe die Verteilungsfunktion:
"
1 − e−2x , falls x ≥ 0,
FX (x) =
0 sonst.
O
Bestimmen Sie die Quantilfunktion!
FCA
P
=

2T
/
Zt

= I - e- + e-
p
"
I
pte p
⇐ > l
-

X-p ) I la
2x
⇒ e- =

= - 2x = ln
Ctp )
I : f 2)
)
Ibn ( A
p
-

= x
-
=


Qxcp ) Tz en C t
p)
-
-
=

:S
:c
:*:
Z . B lei X = o .
S

}
"

÷¥÷÷÷ .
ausfo.int ,
betrcigt 501

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 37 / 66
Beispiel: Quantilfunktion
er set ten
p
nad

do


⎪ 0, falls x < 0, 1.0
⎨ 1 x 2,

falls 0 ≤ x < 2,
F (x) = 81
x, falls o
2 ≤ x ≤ 4, 0.5
⎩4



1, falls x > 4,

i¥E¥ ⑥ 1 O
O
2
4 3

Falls 0 < p ≤ F (2), Ansatz p = 81 x 2


*
⇐⇒ x 2 = 8p ⇐⇒ x = 8p

Falls F (2) < p < 1, Ansatz p = 41 x ⇐⇒ x = 4p


"*
8p , falls 0 < p ≤ 0.5,
Also ist die Quantilfunktion: Q(p) =
4p , falls 0.5 < p < 1.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 38 / 66
Affin-lineare Transformation von Zufallsvariablen
. eine Zufallsvariable und Y. = .a + bX
Sei X . . , wobei a. ∈ R, b > 0.

Transformation der Verteilungsfunktion: Bevis niches Blatt

y. − a.
+ ,
FY (y) = F.X
.
b
, y ∈ R.
-
Wiang fi das

Verstiindnis von

Transformation der Quantile: Intervale Vfteilungsfamilieh

. + bx
y. p = a . op , p ∈]0, 1[ .
"
Transformation der Dichte:
T
y. − a.
+ ,
1
fY (y) = OgfX , y ∈ R.
-
b b.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 39 / 66
£3 Fe .
39

Y BX
at
Fylyl ?
-

Fy (4) =P l Yey ) Pcatbxey) I


- -
a

Plbxey -
a
) I :b

=P CX Eff ) Ifi boo

=FxC YI )V

fyl Y) =

day Fy ( y)

haben wir baits
heawsgefmden

=
day Fx ( YI ) I einstein von Fft I .

Ibfx ( YI ) V
Symmetrie

Eine Zufallsvariable heißt symmetrisch verteilt mit Zentrum c,


wenn gilt:

i
P(X ≤ c − y) = P(X ≥ c + y) für alle y. ∈ R.

Dies ist äquivalent dazu, dass die Wahrscheinlichkeitsfunktion


(diskrete ZV) bzw. Dichte (stetige ZV) symmetrisch zu co ist:

fX (c − y) = fX (c + y) für alle .y > 0.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 40 / 66
Symmetrie: Graphische Darstellung

O
0.4 (
=

↳ t O
symmetisch

0.3

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 41 / 66
Symmetrie: Graphische Darstellung
O
( =

Zu O
0.4 ↳ sywmeth.sk

0.3
4=2

0.2

in
in

I
)
pcxzcty
pcxzz )

-44
PIXEL y)
-

0.1
PH '

,
.
all I -

−3 O
−2 −1 1 0
2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 41 / 66
Symmetrie: Graphische Darstellung
( I ⇒ Verte ist
symmetnsh
lung
=

t ⇒ bide Fkichea Sind


gleich glop
=

0.4 Y

0.3

PIXEL YI
PartCty )
-

Pure
-

i )
0.2 P( Ht )
I


0.1

. .

−3 −2 O
−1 O
1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 41 / 66
Verteilungsparameter

Verteilungsparameter sind Größen, die bestimmte Aspekte


einer Verteilung charakterisieren wie z.B.
die
liegt Verleibug ?
Wo


Lage
?
wie ist die
Strang
Streuung → # ,

Yo:
'

Schiefe →
,
www.symdhefnineasz .

O und
Wir betrachten insbesondere: Erwartungswert (Lage)
Varianz (Streuung).
O

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 42 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 43 / 66
Erwartungswert
. ist wie folgt
Der Erwartungswert einer Zufallsvariablen X
definiert.
F-
f
Falls X diskret ist: Si
.

fi
E[X ] =
!
x. j P(X = xj ) =
!
x.j p.j . µ ⇒
Ej a
ti

0j 0j ¥
Is it ,

Falls X stetig ist:


ii ber Dick
" ∞
lntigiereh
E[X ] = xf. (x) dx .
−∞

Statt E[X ] verwendet man für den Erwartungswert auch die


Notation µOX .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 44 / 66
Beispiel: Dreifacher Münzwurf
Die Zufallsvariable O
X sei diskret verteilt:

x 0 1 2 3
P(X = x) 1
8
3
8
3
8
1
8
¥! } aufsummiereu !

Bestimmen Sie den Erwartungswert!


F- C D= 0% til .

3/8 t 2. % t 3. %
=
ft t
If t
tf

tf as
=
=

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 45 / 66
Beispiel: Stetige Zufallsvariable
Die Zufallsvariable X. habe die Dichte: ( X ist Steig )

① ≤ x ≤ 1,baden lorenzen
#
!
3
(1 − x 2 ) , falls −1
µ
fX (x) = 4 un

0 sonst. ⇒

Bestimmen Sie den Erwartungswert von X ! O


−1 10

I
'

⇒ ¥
G -
xxx

I .

In xu -
H
=

If If .

x-P

=
Zi .

I Ext Ex
4
I
¥ ICE i Ii I C Zhi E. tail
'
-
- -

=
.

ICE F)]
or 379899%4171570
=
f. -

=
o =
sin

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 46 / 66
Erwartungswert einer transformierten Zufallsvariable

:
Sei X eine Zufallsvariable, g : R → R eine Funktion und
Y. = g(X ).
Dann ist der Erwartungswert von Y , falls X diskret ist:

ii.
! !
E[Y ] = E[g(X )] = g(xj )P(X = xj ) = g(xj )p. j ,
j j

und falls X stetig ist:


" ∞
E[Y ] = E[g(X )] = g(x)f (x) dx .
−∞

Bemerkung: Der Erwartungswert von Y . kann also berechnet


. zu berechnen!
werden, ohne die Verteilung von Y

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 47 / 66
Beispiel: Dreifacher Münzwurf
Die Zufallsvariable X sei diskret verteilt:

x 0 1 2 3
1 3 3 1
P(X = x) 8 8 8 8

Bestimmen Sie den Erwartungswert von X 2 !


EID
'
= 02 Iz .

t t
?
I t I .

If t 32 .

I
=
o .

f- t t .

3ft
4 .

I t g .

I
= Zz t
tf t
GI

tf 3
=
=

Ge Sich t
( mittler er Winn
auf langer
fairer firs Spiel )
Oder Ei us at t

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 48 / 66
Beispiel: Stetige Zufallsvariable
Die Zufallsvariable X habe die Dichte:

(1 − x 2 ) , falls −1 ≤00
#
3
x ≤ 1,
fX (x) = 4
0 sonst.

Bestimmen Sie den Erwartungswert von X 2 !


'
O
−1 O
1
EID -

24×241×27
Fili
=¥e¥¥dt
=
-
x

ITI
In s :-# x'
m

EEE
-
-

ftp.i-E.i-HI.hi-E.tn 'D
=3 It 's ⇒
fztzDIE.CC#-EsHIstEsDZiICZsI-f-ED=Z.Is--Fo-
.

-
-

For
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 3. Zufallsvariablen und Verteilungen 49 / 66
Erwartungswert: Affine Transformation

. mit a,
. = a. + bX
Ist Y . b. ∈ R, so gilt

. . ]=a
. ] = E[a. + bX
E[Y .
. + bE[X.]

Der Erwartungswert ist also

. ] = a. + E[X
. +X
lageäquivariant, d.h. E[a . ], und
skalenäquivariant, d.h. E[bX .
. . ] = bE[X
. ] für b > 0.

Ein Verteilungsparameter, der lage- und skalenäquivariant ist,


heißt Lageparameter.
Weitere Lageparameter sind der Median x0.5 sowie alle
Quantile xp .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 50 / 66
Erwartungswert: Eigenschaften

Die Zufallsvariable X − µ. X bezeichnet man als zentrierte


Zufallsvariable. Es gilt )
YEH
E[X. − µ.X ] = 0 .

Ist .X symmetrisch verteilt mit Zentrum c,. so gilt in der


Regel
E[X. ] = c. .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 51 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 52 / 66
Varianz
Definition (Varianz)
Der Erwartungswert der quadrierten Abweichung einer ZV von
ihrem Erwartungswert heißt Varianz:
$ %
V [X ] = E (X − E[X ])2 .

Statt V [X ] verwendet man für die Varianz auch die Notation σX2 .

Die (positive) Wurzel aus der Varianz heißt Standard-


abweichung und wird mit σX oder σ[X ] bezeichnet:

} Wwzeeanfgrand
&
σ.X = V [X ] . Quadri
her
every

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 53 / 66
Varianz: Berechnung

Berechnung der Varianz für diskrete und stetige


Zufallsvariablen:

?
⎧!

⎪ (xj − µX )2 pj , falls X diskret,
0 y

⎨ j
V [X ] = " ∞
(x − µX )O2 f (x) dx , falls X stetig.




−∞

Alternative Berechnung (meistens einfacher):


+ ,O2
o
V [X ] = E[X 2 ] − E[X ] .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 54 / 66
Beispiel: Dreifacher Münzwurf
Die Zufallsvariable X sei diskret verteilt:

x 0 1 2 3
1 3 3 1
P(X = x) 8 8 8 8

Bestimmen Sie die Varianz! '

VID
-
-
-

D
Efx

FEED
EI D= 0.48 til .

318 t 2 .
318 t 3 .

My

3/8Z 6ft
= 318 t

t.IS#H=
25
tf
= ,
=
E
,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 55 / 66
Beispiel: Stetige Zufallsvariable
Eruartyswet
Die Zufallsvariable X habe die Dichte: Arch iukgiereu
X heasgetunden

#
3
(1 − x 2 ) , falls −1 ≤ x ≤ 1,
fX (x) = 4
0 sonst.

Bestimmen Sie die Varianz von X ! −1 1


'

)
'

VID
=
E EX ] -

( EID
w
0
=
1/5 .

=
115 ✓

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 56 / 66
Varianz: Affine Transformation

Ist Y. = a. + .bX. mit a,


. .b ∈ R, so gilt

V- [Y. ] = V. [a. + bX
. . ] = 'b 2 V [X
. ],
. . ] = |b|σ[X
. . + bX
.σ[Y.] = σ[a . . . ].
↳ p=lbl
Die Standardabweichung ist also

. ] = .σ[X. ], und
lageinvariant, d.h. σ[a. + X
. . ] für b. > 0.
. . ] = .bσ[X
skalenäquivariant, d.h. σ[bX

Ein Verteilungsparameter, der lageinvariant und


skalenäquivariant ist, heißt Streuungsparameter.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 57 / 66
Varianz: Eigenschaften

Die Zufallsvariable X −µ
σX
X
bezeichnet man als
standardisierte Zufallsvariable. Es gilt
EH )
(.
X. − µ. X ' − µ.X
- - .
X
.
E =0 und V. = 1.
σ.X σX
↳ Standard
abwichvny

VI # text ]=¥ Vet no


-

C t -
.

d. h Hein
IF VIX ] =t
Konstanty X=µ
.

=
,

mehr Vorhanden
Tx Zufall

Es gilt immer V [X ] ≥ 0. -
Ferner ist V [X ] = 0 genau dann, wenn P(X = µX ) = 1.
VID -
EI C
xxx 'D

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 58 / 66
Varianz: Eigenschaften
Varianzverschiebung:
$ %
E. (X
. − .
a) 2
= V' [X. ] + (µ. X − a)
. .
2 .

w
to

Minimaleigenschaft des Erwartungswertes:


$ % $ %
min E. (X
. − a)
.
2
= E. (X 2
. − µX ) . =
VID
a∈R
↳ minimal ,
wenn
apt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 59 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 60 / 66
Ungleichung von Tschebyscheff Betrays
shoe

It -4×1

Abstand
geben den
an

Satz (Ungleichung von Tschebyscheff)


Für jede Zahl ϵ > 0 gilt: Ab stand
and
zwischen
Erwartungswert
Zi E.
der
CX )
Zu falls variable

✓ It ]

# (
σ.X2
E

mm
+ , E

.
P |X − µ.X | < ϵ ≥ 1 − , . l I I I
ϵ.2 Mx

bzw.
, σ2 kompeemehta.ir what

P |X. − µ.X | ≥ ϵ ≤ . X2 . }
+
Zu oben

ϵ.

Die Ungleichung von Tschebyscheff ermöglicht die


Abschätzung von Wahrscheinlichkeiten allein aufgrund der
Kenntnis des Erwartungswertes und der Varianz.
PCH axle '¥t It
t
If
-
-
= -

1=1 :

1-1,2=0

fits Izz 31g


=

y : A -

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 61 / 66
Ungleichung von Tschebyscheff
Alternative Darstellung (Setze ϵ = λσX ):


+
. − µ.X | < O
, 1
P |X λσX ≥ 1 − 2 .
λ

bzw.
+ , 1
P |X. − µ.X | ≥O
λσX ≤ 2 .
λ.

Speziell erhält man für λ = 2 bzw. λ = 3: Er


+ ,
. X < X. < µX + 2σ
P µX − 2σ . X ≥ O
3
4
+ ,
. X
. X < X. < µX + 3σ
P µX − 3σ ≥ O
8
9

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 62 / 66
Eins-, Zwei-, Drei-Sigma-Bereiche
f (x)

.−
µ .
O 3σ .
. −O 2σ
µ .−
µ O .σ .µ .+
µ .
O σ O .2σ
.µ + µ+ .
O 3σ

λ=1

λ=2
λ=3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 63 / 66
Überblick

3 Zufallsvariablen und Verteilungen

3.1. Zufallsvariablen

3.2. Verteilungsfunktion

3.3. Quantilfunktion

3.4. Diskrete Zufallsvariablen

3.5. Stetige Zufallsvariable

3.6. Erwartungswert

3.7. Varianz

3.8. Ungleichung von Tschebyscheff

3.9. Schiefe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 64 / 66
Schiefe

Die Schiefe misst die Abweichung einer Verteilung von der


Symmetrie.
/0 13 2
X. − µ.X . . − µ-X )3 ]
E[(X
. ]=E
γ.1 [X . = .
σX σ. X3

Bei einer symmetrischen Verteilung gilt γ.1 [X. ] = 0.


Ist γ.1 [X
. ]̸
= 0, so ist die Verteilung asymmetrisch.

γ. 1 [X. ] > 0 Rechtsschiefe bzw. Linkssteilheit


γ.1 [X. ]<0 Linksschiefe bzw. Rechtssteilheit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 65 / 66
Beispiel: Schiefe
rechtsschief bzw. linkssteil linksschief bzw. rechtssteil
It ] ) O It ] do

fr yr
2.5 2.5

2.0 2.0

1.5 1.5

1.0 1.0

0.5 0.5

0.2 0.4 0.6 0.8 1.0 0.2 0.4 0.6 0.8 1.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 3. Zufallsvariablen und Verteilungen 66 / 66
Überblick

4 Spezielle diskrete Verteilungen

4.1. Hypergeometrische Verteilung

4.2. Binomialverteilung

4.3. Geometrische Verteilung

4.4. Poisson-Verteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 1 / 34
Hypergeometrische Verteilung

Modell: „Ziehen ohne Zurücklegen“

.
Grundgesamtheit vom Umfang N
. N. − M. Elemente nicht
.M Elemente besitzen eine Eigenschaft A,
Zufällige Entnahme von n. Elementen ohne Zurücklegen
. unter diesen n.
.X = Anzahl der Elemente mit Eigenschaft A
Elementen

. M.
. N,
Dann heißt X hypergeometrisch verteilt mit Parametern n, .
. ∼ H(n,
Man schreibt: X . M).
. N, .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 2 / 34
Hypergeometrische Verteilung

Hypergeometrische Verteilung
Sei X ∼ H(n, .
. M).
. N, Dann gilt: .gg/ohattf-
quite
. . −M '
! "! "
M N
}
Anz
g nstiger Ergebnisse
.

k .
n−k
P(X = k) = ,
N.
! " der Ant

}
.

glilen
n.
Ergebnisse m

Thigh
.
wobei k. ∈ TX = max{0, n. − (N. − M)}, . M} .
# $
. . . , min{n, .
Ferner ist
M. . M. N. − n.
! "
M
E[X ] = n. und V [X ] = .n 1− .
N- N. N. N. − 1
w
Ankit db Element
Mit
Eigenschaft A
in de Grudges anther 't

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 3 / 34
Hypergeometrische Verteilung: Träger
Wie kommt man auf die Formel für den Träger,
# $
TX = max{0, n − (N − M)}, . . . , min{n, M} ?

1 Die Anzahl roter Kugeln in der Stichprobe ist höchstens so groß


wie der Stichprobenumfang, also 0 . ≤OX ≤ n.
2 Die Anzahl roter Kugeln in der Stichprobe ist höchstens so groß
wie die Anzahl roter Kugeln in der Gesamtheit, also O
X ≤ M.

"
3 Die Anzahl schwarzer Kugeln in der Stichprobe ist höchstens so
Der Rest
groß wie die Anzahl schwarzer Kugeln in der Gesamtheit, also
n − X ≤ N − M bzw. X ≥ n − (N − M).
dwiinaeenkugelnideswe@0-OXBIPioelin.us
Insgesamt gilt also

max{0, n − (N − M)} ≤ ①
ge

µ= go
X ≤ min{n, M}
⇒ XI5= n -
( N - le )
A min . 5 =
15
-
Choo go ) -

role Hugh = 5

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 4 / 34
Beispiel: Wareneingangskontrolle
Einer Warenlieferung vom Umfang N = 200 werden n = 10
.

Stücke zufällig und ohne Zurücklegen entnommen und


überprüft. PAH )

Wie groß ist die Wahrscheinlichkeit mehr als 2 defekte Stücke


zu entdecken, wenn in der Warenlieferung M = 20 defekte
Stücke enthalten sind?
2) I Kott PH 2) Plt 3D
P( A PC t
Ggenwahrsdeinlichkeit
- -

>
x
=

P( f- o
) -
-

(8) tho) =
o .
3398

PLEA ) =
14949) =
0.3574
÷÷÷÷÷÷ .

" ⇒
o . .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 5 / 34
Beispiel: H(n = 10, N = 200, M = 20)

0.4 t?o¥ .
no .

our

0.3

0.2

0.1

0
0 O
1 2 3 4 5 6 7 8 9 10

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 6 / 34
Beispiel: H(n = 50, N = 500, M = 50)
M
O a
j
= .

0.20
0.18
ftp.
ninth
'

E I D
=
50 .

or = 5
(
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0
0 2 4 ⑤ 6 8 10 12 14 16 18 20

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 7 / 34
Beispiel: H(n = 50, N = 500, M = 200)
¥ If =
0.4
=

0.12 20
50 0.4
EID
=
.

0.10

0.08

0.06

0.04

0.02

O
0
0 5 10 15 20 25 30 35 40 45

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 8 / 34
Überblick

4 Spezielle diskrete Verteilungen

4.1. Hypergeometrische Verteilung

4.2. Binomialverteilung

4.3. Geometrische Verteilung

4.4. Poisson-Verteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 9 / 34
Binomialverteilung
Modell: „Anzahl der Erfolge“

Bernoulli-Experiment mit Erfolgswahrscheinlichkeit π.


.
Bernoulli-Experiment wird n-mal wiederholt
Ergebnisse der Wiederholungen sind stochastisch unabhängig
Erfolgswahrscheinlichkeit bleibt bei jeder Wiederholung gleich
X. = Anzahl der Erfolge bei den n Wiederholungen

. binomialverteilt mit Parametern n. und .π.


Dann heißt X IF In
Man schreibt: X. ∼ B(n, π). in:c
:÷:÷ta:::i
:*:* :

Beispiel: Auswahl aus GG mit Zurücklegen (vgl. H(n, N, M)).


i
i

Die B(1, π)-Verteilung nennt man auch Bernoulli-Verteilung.


#
A
In )
Nw ex
Bch ,
dvchgefibrt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 10 / 34
Binomialverteilung

Binomialverteilung
Sei X. ∼ B(n, π). Dann gilt:

÷
! "
n k
P(X = k) = π (1 − π)n−k ,
k

wobei k ∈ TX = {0, . . . , n}. Ferner ist

E[X ] = nπ und V [X ] = nπ(1 − π) .

Die Binomialverteilung ist symmetrisch für π = 0.5, rechtsschief


für π < 0.5 und linksschief für π > 0.5.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 11 / 34
Beispiel: B(n = 10, π = 0.1)

0.4 EID =
to .

0.1=4

0.3

0.2
rechtsschief
0.1

O
0
0 1 2 3 4 5 6 7 8 9 10

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 12 / 34
Folie ly :

Bernoulli Verte Blt IT )


.

lung
-

F- It ] =
A IT -

0ft -

I ) =
IT

F- It =
i -

IT .-
OH -

it )
=
IT

V It ] =

EIR ] -

CE IDF
2
IT IT
= -

=
it ( t -

IT )
Beispiel: B(n = 50, π = 0.1)
5
] 50
FIX
or
-

= .

0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0
0 2 4 ⑤ 6 8 10 12 14 16 18 20

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 13 / 34
Beispiel: B(n = 50, π = 0.4)
50 20
I It ] 0.4
= .
=

0.12
⇒ fast Sym
meth 's oh ,

her noch Interval


0.10
Minimal recht chief

0.08

0.06

0.04

0.02

0
0 5 10 15 O
20 25 30 35 40 45

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 14 / 34
Binomialverteilung
Tabellen: Formelsammlung, Seiten 77 – 83. (n ≤ 50, π ≤ 0.5)
I 0.2 π
n x .05 .10 .15 .
.20 .25 .30 .35 .40 .45 .50
1 0 .9500 .9000 .8500 .8000 .7500 .7000 .6500 .6000 .5500 .5000
1 .0500 .1000 .1500 .2000 .2500 .3000 .3500 .4000 .4500 .5000
2 0 .9025 .8100 .7225 .6400 .5625 .4900 .4225 .3600 .3025 .2500
1 .0950 .1800 .2550 .3200 .3750 .4200 .4550 .4800 .4950 .5000
2 .0025 .0100 .0225 .0400 .0625 .0900 .1225 .1600 .2025 .2500
3 0 .8574 .7290 .6141 .5120 .4219 .3430 .2746 .2160 .1664 .1250
1 .1354 .2430 .3251 .3840 .4219 .4410 .4436 .4320 .4084 .3750
2 .0071 .0270 .0574 .0960 .1406 .1890 .2389 .2880 .3341 .3750
3 .0001 .0010 .0034 .0080 .0156 .0270 .0429 .0640 .0911 .1250
.4 0 .8145 .6561 .5220 .4096 .3164 .2401 .1785 .1296 .0915 .0625
1 .1715 .2916 .3685 .4096 .4219 .4116 .3845 .3456 .2995 .2500
2 .0135 .0486 .0975 .1536 .2109 .2646 .3105 .3456 .3675 .3750
.
3 .0005 .0036 .0115 O
.0256 .0469 .0756 .1115 .1536 .2005 .2500
4 .0000 .0001 .0005 .0016 .0039 .0081 .0150 .0256 .0410 .0625

¥410,8 q=§yh4,02 ) ) → h Y B ( 4 ; 0.2 )


Bspi
BC x=
X
- -
-
:

L
⇒ pcx =3 ) P I XA ) -

) = O .
0256

= 0.0256

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 15 / 34
Binomialverteilung IF An Zahl de to
Ige

YI
Ermittlung der Werte für π > 0.5: Sei

t.at#ahldhrUistefolge
. π)
f (k. , n, falls X ∼ B(n,.π).
. := P(X = k ) , .

. so ist Y = .n − X ∼ B(n,
Ist X ∼ B(n, π), . 1 − .π) („Anzahl der
Misserfolge“). Ant Etdge
ahh d .

ltssefolje Aazahe d .

k)
Daraus ergibt sich: P(x=k ) =
Pcu -
th -

h -
X ~
Bcn ,
t it )

f (k. , .n, π)
. = f (n. − .k , n, .
. 1 − π)

Beispiel: Es sei X ∼ B(n. = 4, π. = 0.8). Gesucht ist P(X = 1). Es ist


k h
It
P(X = 1) = f (1, 4, 0.8) = f (3, 4, 0.2) = 0.0256 .
or
IT 20.5

Ahh ,
n
,
t ) =
A 3,4 ,
0.2 ) ⇒ PCT =D X -
BC 4 , o .
z )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 16 / 34
Beispiel: Wareneingangskontrolle
Einer Warenlieferung vom Umfang N = 200 werden n = 10
Stücke zufällig und mit Zurücklegen entnommen und überprüft.
Wie groß ist die Wahrscheinlichkeit mehr als 2 defekte Stücke
zu entdecken, wenn in der Warenlieferung M = 20 defekte
Stücke enthalten sind?
Rt ) RED t Pex 2 )
) I A-
-
-0 t
P( X 22

Approtimieuy
:

X -
Bcn ,
IT )
78=0.1 )
Fu
f- too 0.05
=

⇒ Xn B ( 10 , it =
=

↳ butter fi X=0 ⇒ Faust regeeerfillt


=) A -
( O . 3987 to .
3874 t O 19371
.

it -
O . 9298=0.0702

PCXIZ )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 17 / 34
Approximation: H(n, N, M) durch B n, M
! "
N

Hypergeometrische Vert.: Auswahl aus GG ohne Zurücklegen


Binomialvert.: Auswahl aus GG mit Zurücklegen

Der Unterschied ist vernachlässigbar, wenn nur relativ wenige


Elemente der GG ausgewählt werden. Die Größe .Nn heißt
Auswahlsatz.
Satz
Ist X ∼ H(n, N, M) und ist der Auswahlsatz „klein“, so gilt
appr . !
approximativ X ∼ B n, π = M
"
N .

n
Faustregel für eine gute Approximation: N ≤ 0.05.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 18 / 34
Überblick

4 Spezielle diskrete Verteilungen

4.1. Hypergeometrische Verteilung

4.2. Binomialverteilung

4.3. Geometrische Verteilung

4.4. Poisson-Verteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 19 / 34
Geometrische Verteilung

Modell: „Zeitpunkt des ersten Erfolgs“

.
Bernoulli-Experiment mit Erfolgswahrscheinlichkeit π
Bernoulli-Experiment wird so lange wiederholt bis „Erfolg“ eintritt
Ergebnisse der Wiederholungen sind stochastisch unabhängig
Erfolgswahrscheinlichkeit bleibt bei jeder Wiederholung gleich

.X = Anzahl der Durchführungen des Experiments bis zum


ersten Erfolg (einschließlich)

.
Dann heißt X geometrisch verteilt mit Parameter π.

g
Man schreibt: X ∼ G(π).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 20 / 34
Geometrische Verteilung

Geometrische Verteilung
. Dann gilt:
Sei X ∼ G(π).

.
P(X = k) = π(1 − .π)k−1 ,
Fringer "

th IT )
wobei k ∈ TX = N = {1, 2, 3, . . . }. een
.

In he -
-

Ferner ist
1 1−π .
E[X ] = und V [X ] = .
.
π π. 2

Die geometrische Verteilung ist rechtsschief.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 21 / 34
Geometrische Verteilung
Die folgenden Aussagen sind äquivalent:

Der erste Erfolg tritt frühestens beim (k + 1)-ten Versuch auf.


Bei den ersten k Versuchen tritt kein Erfolg auf.

musket
¥i%
Daher ist
Tretter
t
P(X ' ≥ k + 1) = (1 − .π)Ok
. > k. ) = P(X für k ∈ N.
k
PCXE 4=1 P( X k ) t ( AIT )
Fck )
.

=
- > = -

Die Verteilungsfunktion der geometrischen Verteilung lässt sich somit


einfach darstellen.
Satz (Verteilungsfunktion der G(π)-Verteilung)


Ist X ∼ G(π), so gilt
w Keitt

. ) = P(X O
. ≤ k. ) = 1 − (1 − .π) für k ∈ N.
k
FX (k

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 22 / 34
Beispiel: Mensch ärgere dich nicht
Ein Würfel wird so lange geworfen bis zum ersten Mal „6“
erscheint.
a Wie groß ist die Wahrscheinlichkeit, dass die erste “6“
beim vierten Wurf erscheint?
b Wie groß ist die Wahrscheinlichkeit, dass mehr als sechs site
Definition
Würfe benötigt werden? rn

-1 (b) PH > Ktpcxzhtil


P(X=k)= )h
(a) it ( pit
" '
=
f A- Hk
=%( %)
.
A
=h %) .

I EP
'
=
46 .

=
'

I
= O =

0.3348g

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 23 / 34
Beispiel: G(π = 1/6)

0.16

0.14

0.12
hent idle
0.10

0.08

0.06

0.04

0.02

0
0 2 4 6.
.
8 10 12 14 16 18 20 22 24

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 24 / 34
Überblick

4 Spezielle diskrete Verteilungen

4.1. Hypergeometrische Verteilung

4.2. Binomialverteilung

4.3. Geometrische Verteilung

4.4. Poisson-Verteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 25 / 34
Poisson-Verteilung
Poisson-Verteilung
Eine Zufallsvariable X. heißt Poisson-verteilt mit Parameter
. ∼ Po(µ),
µ. > 0, kurz X . falls

µk
. = . e−µ. ,
. = k)
P(X
.
k!
wobei k. ∈ TX = N0 = {0, 1, 2, 3, . . . }.
Dann ist
E[X. ] = µ
. und . ] = .µ .
V [X

Tabellen: Formelsammlung, Seiten 84 – 85. (µ ≤ 10)


Anwendungen: Ankünfte von Kunden in einem Geschäft, Eintreffen
von Telefonanrufen in einem Call-Center, Vorbeifahren von Autos an
einem Kontrollpunkt, etc.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 26 / 34
Beispiel: Po(µ = 1)
Linh SKY bar &

0.4 Thchtsslief
It ] =
n
E
0.3

0.2

0.1

0
0 O
1 2 3 4 5 6 7 8 9 10

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 27 / 34
Beispiel: Po(µ = 5)
]
=
5
E It
0.20
he ich le
0.18 The ehtssdiete
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0
0 2 4 ⑤ 6 8 10 12 14 16 18 20

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 28 / 34
Beispiel: Po(µ = 20)
20
E IX ]
=

0.12
fehr lei cute Tunis home
0.10

0.08

0.06

0.04

0.02

0
0 5 10 15
020 25 30 35 40 45

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 29 / 34
Poisson-Verteilung
Tabellen: Formelsammlung, Seiten 84 – 85. (µ ≤ 10)
µ
x 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5
0 .2231 .1353 .0821 .0498 .0302 .0183 .0111 .0067 .0041
1 .3347 .2707 .2052 .1494 .1057 .0733 .0500 .0337 .0225
2 .2510 .2707 .2565 .2240 .1850 .1465 .1125 .0842 .0618
3 .1255 .1804 .2138 .2240 .2158 .1954 .1687 .1404 .1133
4 .0471 .0902 .1336 .1680 .1888 .1954 .1898 .1755 .1558
5 .0141 .0361 .0668 .1008 .1322 .1563 .1708 .1755 .1714
6 .0035 .0120 .0278 .0504 .0771 .1042 .1281 .1462 .1571
7 .0008 .0034 .0099 .0216 .0385 .0595 .0824 .1044 .1234
8 .0001 .0009 .0031 .0081 .0169 .0298 .0463 .0653 .0849
9 .0000 .0002 .0009 .0027 .0066 .0132 .0232 .0363 .0519
10 .0000 .0000 .0002 .0008 .0023 .0053 .0104 .0181 .0285
11 .0000 .0000 .0000 .0002 .0007 .0019 .0043 .0082 .0143
12 .0000 .0000 .0000 .0001 .0002 .0006 .0016 .0034 .0065
13 .0000 .0000 .0000 .0000 .0001 .0002 .0006 .0013 .0028
14 .0000 .0000 .0000 .0000 .0000 .0001 .0002 .0005 .0011
15 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0002 .0004
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 30 / 34
Beispiele
Die Anzahl der Kunden, die in einer bestimmten Zeit ein
Geschäft betreten sei Poisson-verteilt. Im Durchschnitt betreten
in einer Stunde 20 Kunden dieses Geschäft.
a Wie groß ist die Wahrscheinlichkeit, dass während einer
Viertelstunde nicht mehr als zwei Kunden das Geschäft
betreten?
5 Kander
20 Kanady ⇒ 1=5
=


PIXEL )= PCFO )tP(x=DtP(x=2 )

=
=
0.0067
0.1246 ✓
t
mitts
0.0337T 0.0842 Siebe
Tubule

b Ein Kunde betritt gerade das Geschäft. Wie groß ist die
Wahrscheinlichkeit, dass man bis zur Ankunft des
nächsten Kunden länger als 15 Minuten warten muss?
⇒ Kein Kunde in den hiichsten As this
⇒ PC F- O ) =
0.0067 V

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 31 / 34
Approximation: B(n, π) durch Po(nπ)
PLEW ,
wenn X -
Bluitt )

Mn¥4weunx→%
Man kann zeigen:
,
µk −µ
# $
n k
lim π (1 − π)n−k = e
n→∞,π→0 k k!
nπ→µ

Grenzübergang: n geht gegen unendlich, π geht gegen Null


und das Produkt nπ geht gegen eine positive Zahl µ.
Satz
.
Ist X ∼ B(n, π) und ist n „groß“ und π „klein“, so gilt
appr .
approximativ X ∼ Po(µ = nπ).

Faustregel für eine gute Approximation:

n ≥ 50 , π ≤ 0.1 , µ = nπ ≤ 9 .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 32 / 34
Beispiel: Lotto
Für eine Ziehung des Samstaglottos „6 aus 49“ werden
97 000 000 Tippreihen abgegeben. Wie groß ist die
Wahrscheinlichkeit, dass es bei der entsprechenden Ziehung
mindestens einen Hauptgewinn gibt? Nehmen Sie dabei an,
dass die Tipps zufällig und unabhängig voneinander
abgegeben werden.
Hinweis: P(Hauptgewinn)=1/139 838 160 . = IT

X ( Ah zahl
Gewiuhe ) BC 57000000 IF IN )
=

h
838160
n =
,

Approximation might
:

Far sheqel :
h 250 V
, Teo ,
V
,
I ⇒
3,7%8%2=0.6937 Eg ✓

PCX ? D= y -
Parco )
PCE k
)=f
n
e-
=
r -

pyo ,

65370
M
O
I 6537
= O
e- 1
.

o 4557
of
-
=
.

-
. .

= O .

5003 ✓

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 33 / 34
Diskrete Verteilungen in Excel

Hypergeometrische Verteilung: X ∼ H(n, N, M)


fX (k ) = P(X = k ) =HYPGEOM.VERT(k ; n; M; N; FALSCH)
FX (k ) = P(X ≤ k ) =HYPGEOM.VERT(k ; n; M; N; WAHR)

Binomialverteilung: X ∼ B(n, π)
fX (k ) = P(X = k ) =BINOM.VERT(k ; n; π; FALSCH)
FX (k ) = P(X ≤ k ) =BINOM.VERT(k ; n; π; WAHR)
QX (p) =BINOM.INV(n; π; p)

Poisson-Verteilung: X ∼ Po(µ)
fX (k ) = P(X = k ) =POISSON.VERT(k ; µ; FALSCH)
FX (k ) = P(X ≤ k ) =POISSON.VERT(k ; µ; WAHR)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 4. Spezielle diskrete Verteilungen 34 / 34
Überblick

5 Spezielle stetige Verteilungen

5.1. Rechteckverteilung

5.2. Exponentialverteilung

5.3. Normalverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 1 / 32
Rechteckverteilung R(α, β)

Definition (Rechteckverteilung)
. β. ∈ R, α
X heißt rechteckverteilt mit Parametern α, . kurz
. < β,
.
X ∼ R(α, .
β), wenn X die folgende Dichte hat:

⎨ 1 , falls -α ≤ x ≤ .β,

fX (x) = β. − α .
0 sonst.

Träger: [α, β].

Weitere Bezeichnungen: Stetige Gleichverteilung oder auch


uniforme Verteilung.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 2 / 32
Rechteckverteilung R(α, β)

Verteilungsfunktion:

falls O
⎨O
.

0, x < α,

}

:

x −α linear
FX (x) = , falls α. ≤ O .
x ≤ β,
β. − α
Funkhoh

falls O

O1, x > .β.

Erwartungswert und Varianz:

α + β. (β. − α)
.
2
ktrvnallbrate
E[X ] = . und V [X ] =
=

2 12
↳ Symmetnsche
Dichter turn

des Intervals
tlitkepunkt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 3 / 32
Beispiel: R(α = 0.2, β = 0.8)
Kaun
Dichter werden
aest
go.pe Dichte Verteilungsfunktion
.

I Ein
1.6 = Hohe Integral
-
.
linear .

Uniting
O 7 Fda Fiche
ton af =D
1.4 I unter de Dichter

}
1
1.2
=
"

1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
.

0.2 see 0.2

0.2 0.4 0.6 0.8 1.0 0.2 0.4 0.6 0.8 1.0
Lodicule
koustant
&
P
↳ Sohst o

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 4 / 32
Rechteckverteilung: Affine Transformation

. β)
Ist X ∼ R(α, . und Y . = a. + .bX , so ist Y
. wieder
. ∼ R(a. + .bα,
rechteckverteilt, Y ..
. a. + bβ).

Insbesondere gilt:

- ..
X −α
.
. β)
X ∼ R(α, ⇐⇒ β−α ∼ R(0, 1)
X ∼ R(0, 1) ⇐⇒ α . − α)X
. + (β . ∼ R(α, .
. β)

Die R(0, 1)-Verteilung bezeichnet man auch als Standard-


Rechteckverteilung.
It ] t C
P
t ) E ]
E Ix
a
-

= .


%
( a) =

p
= a t
-

VIZ ] =

(p -

a )
?
Vex ] =
I
PII
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 5. Spezielle stetige Verteilungen 5 / 32
Beispiel
Die Verspätung (in min), mit der ein bestimmter Student zu
einer Vorlesung erscheint sei rechteckverteilt mit Parameter
α = −10 und β = 5.
10 kin we fine 5 Min -2 spit

a Mit welcher Wahrscheinlichkeit erscheint der Student zu


spät zu einer Vorlesung?
PCXZO ) =
A RKO )
C ro )
o
IF %
-
.

Fco )
=
A =

Eo
-

= A =

,
=

b Welche Verspätung wird mit einer Wahrscheinlichkeit von


80% nicht überschritten?
Fx =

0.8 ⇐ = 0.8
5- C- to

to 0.8 15
X tho =
.

t X
= = O .

8 ⇐ 7

Ig I
to 12 to
Xt
= -

⇒ V

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 6 / 32
Überblick

5 Spezielle stetige Verteilungen

5.1. Rechteckverteilung

5.2. Exponentialverteilung

5.3. Normalverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 7 / 32
Exponentialverteilung Exp(λ)

.
.
Definition (Exponentialverteilung)
. heißt exponentialverteilt mit Parameter λ > 0, kurz
X
X ∼ Exp(λ), wenn X. die folgende Dichte hat:

. . , falls x ≥ 0,
%
.λe−λx
fX (x) =
0 sonst.

Träger: [0, ∞[. ( alle fallen einsdlieplicho )


positive
Anwendung: Lebensdauern (z.B. technische Geräte),
Wartezeiten (in Bedienungssystemen).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 8 / 32
Exponentialverteilung Exp(λ)
Verteilungsfunktion: Folie 271 Zufall variables
4=2 gbechret
fir

O , falls x ≥ 0,
%
1 − e. −λx
FX (x) =
0 sonst.

Quantilfunktion: Auf
Folie 371 EV -7
fi if 2 berechnet

1
.
xOp = − ln(1 . .
− p)
λ.

Erwartungswert und Varianz:

1 1
E[X ] = und V [X ] =
.
λ λ'2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 9 / 32
Dichte: Exp(λ = 2) und Exp(λ = 0.5)

2.0
EID '
F -

EV
haim X

1.5
je , destoeanysamer
Abfee
der etponenlielle
λ=2

1.0

0.5
λ = 0.5 E It ] -2

−0.5 0.5 1.0 1.5 2.0 2.5 3.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 10 / 32
Verteilungsfunktion: Exp(λ = 2) und Exp(λ = 0.5)

1.0

λ=2

0.5
λ = 0.5

−0.5 0.5 1.0 1.5 2.0 2.5 3.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 11 / 32
Beispiel
Die Zeit (in min) zwischen aufeinanderfolgenden
Kundenankünften in einem Geschäft sei exponentialverteilt mit
Parameter λ = 0.8.
a Wie groß ist die Wahrscheinlichkeit, dass zwischen zwei
aufeinanderfolgenden Kundenankünften mehr als zwei
Minuten vergehen? Xr Expo )
⇒ PCXZ 2) = e- PLIED
"
=
t -

It -
E ]
Eas ]
'
1- It
.

=
-

=
0.2018

b Welche Wartezeit zwischen zwei Kundenankünften wird


mit einer Wahrscheinlichkeit von 95% nicht überschritten?
( )
Qoahlilfunhlioh Xp ln t
p
-
:

If } Fog lull -0.951


%
'S
to .gs
=
-

= -
1,25 .

lnc 0.05 )

=
3,7447 ( Nih )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 12 / 32
Überblick

5 Spezielle stetige Verteilungen

5.1. Rechteckverteilung

5.2. Exponentialverteilung

5.3. Normalverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 13 / 32
Normalverteilung
Definition (Normalverteilung)
X. heißt normalverteilt mit Parametern µ. ∈ R, σ 2
. > 0, kurz
. σ. ), wenn X die folgende Dichte hat:
X ∼ N(µ, 2

& x−µ. '2


1 1
fX (x) = √ e− 2 σ. .
. 2π
σ
Träger: R.

Anwendung: Fehlerverteilungen (Messfehler, Produktions- und


Fertigungsfehler), Verteilung einer „Störgröße“, approximative
Verteilung von Summen von Zufallsvariablen.
Achtung: Das π in obiger Formel hat nichts mit der Erfolgswahr-
scheinlichkeit bei Binomial- oder geometrischer Verteilung zu tun,
sondern ist die Kreiszahl π = 3.14159 . . .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 14 / 32
Standardnormalverteilung

Im Spezialfall µ. = 0 und σ.2 = 1 heißt die Verteilung


Standard-Normalverteilung, kurz N(0, 1)-Verteilung.
Eine standardnormalverteilte Zufallsvariable wird oft mit U
.
bezeichnet, U ∼ N(0, 1), ihre Dichte mit φ:

1 − 1 u. 2
Dichk :

. . = √ e 2
φ(u)
2π.
.

Für U ∼ N(0, 1) gilt:

E[U] = 0 ,
O V [U] = 1 .
O

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 15 / 32
Dichte der N(0, 1)−Verteilung

4lot=¥=o
Dime Hjalmar .
"

Syncretism 0.4

Uhh ¥⇒e¥v
↳ EIKO
0.3

o 0.2 O

→ , :#
0.1

-41
AT Icu
d-

1111111 1111111
-

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 16 / 32
Eigenschaften der N(0, 1)−Dichte

φ hat ein globales Maximum bei u = 0 mit φ(0) = √1 .



φ ist symmetrisch zu Null, d.h. φ(−u) = φ(u).
φ(u) > 0 für alle u ∈ R
limu→∞ φ(u) = 0 = limu→−∞ φ(u).
φ hat Wendepunkte bei u = 1 und u = −1.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 17 / 32
Standard-Normalverteilung: Verteilungsfunktion
Die Verteilungsfunktion einer N(0, 1)−verteilten
. bezeichnet:
Zufallsvariablen wird mit Φ
( u

i.
. . =
Φ(u) .
φ(t) dt .
−∞

Das Integral lässt sich nicht durch bekannte Funktionen


ausdrücken!
. ist streng monoton wachsend.
Monotonie: Φ
Symmetrie:

Φ(u)
. . = 1 − Φ(−u) für alle u ∈ R.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 18 / 32
Verteilungsfunktion der N(0, 1)−Verteilung

1.0

0.8

0.6

0.4

0.2

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 19 / 32
Standard-Normalverteilung: Tabellen
Verteilungsfunktion: Formelsammlung Tabelle 4, S. 86.
. . für 0 ≤ .u < 3.5.
Tabelliert ist Φ(u) Bsp TEO -48=0,6844 .

Detent
Sit

u 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 =)
jewels
border
0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359 auf
Symaemehiffnhae 0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753 ufadaehiniene

bird 0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141
-
Achtenahschhitl 0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517
y 0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 O
.6844 .6879
0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224
0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549
0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852
0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133
. . . . . . . . . . .
.. .. .. .. .. .. .. .. .. .. ..
3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998

Für u ≥ 3.5 gilt approximativ Φ(u)0≈ 1.


Für u < 0 verwendet man Φ(u) = 1 − Φ(−u).
Beispiel: Φ(−0.64) = 1 − Φ(0.64) = 1 − 0.7389 = 0.2611.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 20 / 32
Standard-Normalverteilung: Quantile

Die Quantile einer N(0, 1)−verteilten Zufallsvariablen werden


mit u. p bezeichnet. Es gilt

.
Φ(u
.p ) = p und uΦ(x)
.
=x.

Auflösen von Gleichungen, in denen Φ vorkommt:


UP Quantile

.Φ(x) = p y
⇐⇒ x = up I I
.
anwenden

f- VEH Up
Symmetrie:
04dg
u.p = −u1−p für alle p ∈]0, 1[.
U 0.05 Uo 55
= -
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 21 / 32
Standard-Normalverteilung: Tabellen

Quantile: Formelsammlung Tabelle 3, S. 85.


Tabelliert ist up für einige Werte von p. (0.8 < p < 0.9995)

p 0.800 0.850 0.900 0.950 0.975 0.990 0.995 0.999 0.9995


up 0.8416 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902 3.2905

Für p < 0.5 verwendet man up = −u1−p .


Beispiel: u0.05 = −u0.95 = −1.6449.
Weitere Quantile: Tabelle 4 „rückwärts“ lesen. Feagin
#:
3
.

-
out Ehommen
① = 0.7517.
Beispiel: u0.7517 = 0.68, da Φ(0.68)
Beispiel: u0.25 = −u0.75 ≈ −0.675, da Φ(0.67) = 0.7486 und
Φ(0.68) = 0.7517.
↳ liegt unseen
beidler Westen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 22 / 32
Zusammenhang: N(0, 1)− und N(µ, σ 2 )−Verteilung

. . σ. 2 ) gilt
Für X ∼ N(µ, Vgl .

ing.
Dich K For
by Uup
3

x − .µ Spezia fall
) *
1
:

fX (x) = φ . f-
or =L
0

σ. σ.
m
Zusammenhang zwischen allgemeiner NV'tund
or
Standard-NV:
GM
IR , > o '
K ( ¥ )
Dicke fxLH= off ,
e-

.
U. ∼ N(0, 1) ⇐⇒ µ. + .σU. ∼ N(µ,
. . σ. 2 )

-
X ∼ N(µ, . 2)
X −µ. ∼ N(0, 1)
. σ ⇐⇒ σ

Dichte, Verteilungsfunktion und Quantile einer allgemeinen


Normalverteilung ergeben sich aus den entsprechenden
Größen der Standard-Normalverteilung!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 23 / 32
Normalverteilung N(µ, σ 2 )

Verteilungsfunktion:

.
) *
x −µ
FX (x) = Φ. .

Quantile: %¥ 5tsuo.gs
. p.
xp = .µ + σu

Erwartungswert und Varianz:

E[X ] = .µ , V [X ] = σ. 2 .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 24 / 32
Hap 5 .
I Folie 23

fu
10,1 ) =4ln=¥ne¥
"
Ur N

X = to U Dick X ?
µ
von

(g)
t I
b

EH
a

f- atbx ⇒
fycy ) =
I fx ( YT)

fft ) I

}
-

I .

¥ e-
"
EFI Vge
. Folie #

;
EFF
I

Folie 23

U~NCO.nl ⇒ X= our NC µ ol )
put ,

EID =
E
In too ] =

into
ELIE
.

Erwartuuyswert einer
ally .

=/
Normal
Verleiteeny =②

VIX ] ]
VITI
VIM too o2
- -

-
.

= or Valiant einer Allgemeine

# ( X) =

Fm + on ( x)
Normal
Vbleiteeny =
or

Verleibuysfunkliou
=
fu ( XII ) Normal
liner
ally .
.

⇒ she Folie 24
Dichte: N(0, 1), N(4, 1) und N(4, 4)

0.4 Erwartunpswert evgibt


p Wo symmetnepunkte

N(0, 1) N(4, 1)
a
overtaking liegt

I Variant
0.3

4 rechts
Um nach

( blue )
# Ver Schober
→ rot
0.2

Variant
0.1 N(4, ON
4) gropere
flasher=

−2 2 4 6 8 10

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 25 / 32
Eigenschaften der N(µ, σ 2 )−Dichte

f hat ein globales Maximum bei x = µ mit f (µ) = √1 .


σ 2π
f ist symmetrisch zu µ, d.h. f (µ − x) = f (µ + x).
f (x) > 0 für alle x ∈ R
limx→∞ f (x) = 0 = limx→−∞ f (x).
f hat Wendepunkte bei x = µ + σ und x = µ − σ.

'
AM
n
to I *
' r

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 26 / 32
Normalverteilung: Affine Transformation

00.0
. σ. ) und ist Y. = O
Ist X ∼ N(µ, 2
O , so gilt:
a + bX

.
Y. ∼ N(a + bµ, b2 σ. 2 ) .

Standardisierung:
M 02=1

X- − µ.
f
∼ N(0, 1) .
.
σ

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 27 / 32
Sew
N(µ, σ 2 ): Wahrscheinlichkeiten für Intervalle wichh.ge
Folie !
. σ.2 ) und a,
Sei X ∼ N(µ, . Dann gilt:
. b. ∈ R, a. ≤ b.

b. − µ a. − .µ
! " ! "
. =Φ
P(a. ≤ X ≤ b) . . .
−Φ .
-σ σ.
=
Fcb ) -

Fcat
Speziell gilt:

. −µ .
! "
b
.
- =Φ
P(X ≤ b)

a. − µ.
! "
. =
P(X ≥ a) 1 − .Φ .

Gegenwikeit Zu tea

.
Bemerkung: Die „≤“-Zeichen können auch beliebig durch
.
„<“-Zeichen ersetzt werden.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 28 / 32
Kap .
5 I Folie 29

P ( µ
ko Ex
Ept
ko )

=
If 'mf I TICKET -

~ Erm .

Ober Intervale
greaten
Intervale

=
ICH -

I C- 4

=
Elk ) -

In -

Eckl ]
§¥ebe hung a

=
2 Ilk ) -

y Gegenwkeit
N(µ, σ 2 ): Eins-, Zwei-, Drei-Sigma-Bereiche

. σ.2 ). Dann gilt:


Sei X ∼ N(µ,

. + σ)
P(µ. − σ. ≤ X ≤ µ . = 2Φ(1) − 1 = 0.6826 µ ✓

ZI
. − 2σ
P(µ . ≤X ≤µ .
. + 2σ) = 2Φ(2) − 1 = 0.9544
P(µ . ≤X ≤µ
. + 3σ) = 2Φ(3) − 1 = 0.9974 3✓
. − 3σ .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 29 / 32
Beispiel
Das Füllgewicht von 500g-Packungen Kaffee sei normalverteilt
mit Erwartungswert 505g und Standardabweichung 2.5g.
a Wie groß ist die Wahrscheinlichkeit, dass eine Packung
Kaffee weniger als 500g Kaffee enthält?

Ecb
580
PCR ) =

part b) -

#
(50202-505)
OI
505g
=

y
=

or
=

2,5g =
IT ( 2) -

⇒ i
I (2)
} Tas
-

= i -
o .
gatz !
= O .
0228 ✓

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 30 / 32
Beispiel 510 )
PC 500 EXE
b Wie groß ist die Wahrscheinlichkeit, dass eine Packung
Kaffee zwischen 500g und 510g Kaffee enthält?
)=oI(b ) OIL "#
pcaexeb
-

¥os
505
m='s

If ) -

El 5) o e
,
-5

= ICH -

Ith
=
OIG ) -

In -

EKD
0.5772 O 0228
(I )
-

0.9772 O gttz =
.

- -
=

( Beach )
.

=
0.5144 20 -

c Welche Füllmenge wird mit einer Wahrscheinlichkeit von


90% nicht unterschritten?
Xp =p trop PGIX ) -

Xcx )
PC =
or

Up co .
5 : =

-u①
Xo mtor
TQuanh.ie
m
,
=

Vas
I 1,2816
505+2.5 C -

505T 2.5C -
)
585
507€56
=

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 31 / 32
Stetige Verteilungen in Excel
Exponentialverteilung: X ∼ Exp(λ)
fX (x) =EXPON.VERT(x; λ; FALSCH)
FX (x) =EXPON.VERT(x; λ; WAHR)

Normalverteilung: X ∼ N(µ, σ 2 )
fX (x) =NORM.VERT(x; µ; σ; FALSCH)
FX (x) =NORM.VERT(x; µ; σ; WAHR)
QX (p) =NORM.INV(p; µ; σ)

Standardnormalverteilung: X ∼ N(0, 1)
φ(x) =NORM.S.VERT(x; FALSCH)
Φ(x) =NORM.S.VERT(x; WAHR)
up =NORM.S.INV(p)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 5. Spezielle stetige Verteilungen 32 / 32
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 1 / 53
Gemeinsame Verteilungen

Simultane Betrachtung mehrerer Zufallsvariablen:


- -

z.B. Einkommen und Vermögen einer zufällig


ausgewählten Person
z.B. Anzahl Schadensmeldungen und gesamte
Schadenshöhe (in einem Monat) bei einer Versicherung.

Fragen:

Gemeinsame Wahrscheinlichkeiten,
Zusammenhang.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 2 / 53
Gemeinsame Verteilung

Gegeben: .n Zufallsvariablen X1 , . . . , Xn , die sich alle auf


denselben Zufallsvorgang beziehen.

X. i : Ω
. → R, i = 1, . . . , n

Ergebnis des Zufallsvorgangs: ω. ∈ Ω .


Werte der Zufallsvariablen: X. 1 (ω), .
. . . . , X. n (ω)
Es interessieren Wahrscheinlichkeiten wie z.B.

P( X. 1 ≤ 10, 4 ≤ X. 2 ≤ 8, X. 3 > 0) ,

d.h. sogenannte gemeinsame Wahrscheinlichkeiten.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 3 / 53
Gemeinsame Verteilungsfunktion
Yeh ) Beidesmussgelleu !
PLXEX ,Yey)=P({xex3yµa{
Wir betrachten zunächst lediglich zwei Zufallsvariablen.
Definition (Gemeinsame Verteilungsfunktion)
Die Funktion FXY : R2 → [0, 1] mit

FXY (x, .
. y) ①
! ≤ .x, Y
= P(X f ≤ y)
. yykwtsdreibweise "
= P {ω. |O . ≤ x. und O
X (ω) Y (ω). ≤ .y }

heißt gemeinsame Verteilungsfunktion von O O. Statt


X und Y
. y)
FXY (x, . .y).
. schreibt man auch kurz F (x,
Zufullsvah
'

able liefet
( 3,4 )

F¥]

die link
llekmalskarb
Fxycz ,y , ( 3,4
)liegt
Wkn von
→ wlkeitkbiueaes 4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 4 / 53
Wahrscheinlichkeiten von Rechtecken
Mit Hilfe der Verteilungsfunktion lassen sich
Wahrscheinlichkeiten für Rechtecke berechnen:

P(a. 1 < O
X ≤ b. 1 , a. 2 <O
Y ≤ b. 2 ) = F (b
i
. 1 , b2 ) − F (a. 1 , b2 )
−F (b1 , a. 2 ) + F (a. 1 , a. 2 )
> blue bleibtiibnig
Y
( an ,bz )
b2 ( bn
,b2)

a2 C bniaz )
Can 92 )
,
+ +

X
+ t
a1 b1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 5 / 53
Randverteilungen
Die Verteilungsfunktionen von X. bzw. Y bezeichnet man als
Randverteilungen. Die Randverteilungen lassen sich aus der
gemeinsamen Verteilung berechnen:

i.: :O
FX (x) = FXY (x, ∞) = lim0
:
y→∞ FXY (x, y)

FY (y) = FXY (∞, y) = limx→∞ FXY (x, y)


Dies gilt auch bei mehr als zwei Zufallsvariablen. So ist z.B.
FX (x) = lim FXYZ (x, y, z)

y→∞
z→∞
Meta :
wean a Variable
gegen

P( YE ) PCXEH when dich ist sie Weilheim nicht

y
geht
XEX
,

, and kann Acht


Mehr relevant au
per
werden
yelussen

Fxyctiy ) Y→ Fx ( X )
⇒ Raudueleilang

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 6 / 53
Gemeinsame diskrete Verteilung

Zwei Zufallsvariablen X. , Y. heißen gemeinsam diskret verteilt,


wenn es endlich (oder abzählbar unendlich) viele Punkte
x1 , x2 , . . . und y1 , y2 , . . . gibt, so dass gilt:
##
P(X = xj , Y = yk ) = 1

Off
j k

Kurzschreibweise:

jk := P(X = xOj , Y = ykO)


pO

Die Wahrscheinlichkeiten p
Ojk heißen gemeinsame
Wahrscheinlichkeiten.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 7 / 53
Gemeinsame diskrete Verteilung

Interessiert man sich nur für die Wahrscheinlichkeiten einer


Zufallsvariable, so spricht man von Randwahrscheinlichkeiten:
# #

O O
P(X = xj ) = pjk bzw. P(Y = yk ) = pjk
k j

Berechnung beliebiger Wahrscheinlichkeiten durch


Aufsummierung der gemeinsamen Wahrscheinlichkeiten.
Für jede Menge B ⊂ R2 gilt
# #
P (X. , Y. ) ∈ B =
$ %
P(X = xj , Y = yk ) = pjk
.(j,k):(x. j ,y. k )∈B . . . j ,y.k )∈B
(j,k):(x

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 8 / 53
Beispiel: Ausfälle zweier Bauteile
Eine Maschine bestehe aus zwei störanfälligen Bauteilen B1 und B2 .
X : Anzahl der Ausfälle pro Tag von B1 ,
Y : Anzahl der Ausfälle pro Tag von B2 .
Gemeinsame Verteilung:


§
Koaligenttabelle
Whiten
pjk Y =0 1 2 Σ
Sind nicht
0 0.30 0.14 0.02
.

stouasn.sn
X= 1 0.18 0.10 0.02 ?÷
ooo ftp.fxism
lhablsiingiy 2 0.12 .
0.06 •.
0.06 ,
.
You einander 0.3 0.1
Σ 0.6 7

Bestimmen Sie die Randwahrscheinlichkeiten sowie P(X ≥ Y )!


PCXZY ) =
Somme gelbe Feeder =

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 9 / 53
Gemeinsame stetige Verteilung

Zwei Zufallsvariablen X. , Y. heißen gemeinsam stetig verteilt,


wenn es eine Funktion fXY : R2 → R gibt, so dass
& y & x
. y)
FXY (x, . = f.XY. (s,
- t)
. dt. ds. . y. ∈ R.
für alle x,
−∞ −∞

Die Funktion fXY heißt gemeinsame Dichte von X . und Y. . Es gilt


fast überall:
∂. 2
fXY (x,
. y)
. =
. . .y) .
FXY (x,
.∂x∂y

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 10 / 53
Gemeinsame Dichte: Eigenschaften

Die gemeinsame Dichte zweier Zufallsvariablen X. und Y.


besitzt die folgenden Eigenschaften:
1 fXY
. (x,
. y)
. ≥ 0 für alle x, . y. ∈ R,
& ∞& ∞
2 . . (x,
fXY . y)
. dx. dy. = 1.
−∞ −∞

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 11 / 53
Beispiel: Bivariate Dichte

0.2

0.15

0.1
–4
0.05
–2

0
0 y
4
2 2
0
x –2
–4 4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 12 / 53
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 13 / 53
Stochastische Unabhängigkeit von Zufallsvariablen
Zwei Zufallsvariablen X. und Y. heißen stochastisch
unabhängig, wenn

: :::
FXY (x, y) = FX (x) · FY (y) für alle x, y ∈ R.

Bei gemeinsam stetig verteilten Zufallsvariablen ist dies


äquivalent zu

fXY (x, y) = fX (x) · fY (y) für alle x, y ∈ R.

Bei gemeinsam diskret verteilten Zufallsvariablen ist dies


äquivalent zu

für alle j, k.
P(X = xj , Y = yk ) = P(X = xj ) · P(Y = yk )
O

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 14 / 53
Beispiel: Ausfall zweier Bauteile (Fortsetzung)

Wären die Randverteilungen des Beispiels von Folie 9 gegeben,


erhält man bei stoch. Unabhängigkeit von X und Y : =3 PCANB)
PCA ) PCB)
= .

Y =0 1
. 2 Σ
0 0.276 0.138 0.046 0.46
X= 1 0.180 0.090 0.030 0.30
.2 0.144 0.072 0.024 0.24
Σ 0.6 0.3 0.1

P( f- 2,4=7 )= 0.072

= 0.24 0.3

=pcx=DPCy=D✓
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 15 / 53
Stochastische Unabhängigkeit von Zufallsvariablen

Die Zufallsvariablen X1 , . . . , Xn heißen stochastisch unabhängig,


wenn

FX1 ...Xn (x1 , . . . , xn ) = FX10


(x1 ) · · · · · FXn (x
On
) für alle x1 , . . . , xn ∈ R.

Bei gemeinsam stetig verteilten Zufallsvariablen ist dies äquivalent


zu

fX1 ...Xn (x1 , . . . , xn ) = fX1 (x1 ) · · · · · fXn (xn ) für alle x1 , . . . , xn ∈ R.

Bei gemeinsam diskret verteilten Zufallsvariablen ist dies ebenfalls


äquivalent dazu, dass sich die gemeinsamen Wahrscheinlichkeiten
als Produkt der Einzelwahrscheinlichkeiten schreiben lassen.
P( f- t 4=2 t =3 ) =
PLED pay =D PC Z =p
.

, ,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 16 / 53
Kapital 6 Folie 13

A B Stochasksh
,
unabhiingig

⇐ PC An B) =
PCA ) .

PCB )

X Y Sto chastises
try
,
wnabhiingig
⇒ { XH } , HEY }

pkXEx3n{ Yey } )
thy

⇒ Pcxexn Hey ) RED


Petey) thy
=
.


Fxycxiy )
=
TECH .

Fycy) thy
Stochastische Unabhängigkeit transformierter ZVen

ii.
Es seien X. und Y. gemeinsam verteilte Zufallsvariablen. Ferner
. reelle Funktionen. Dann gilt:
seien g. und h

X , Y sind stoch. unabhängig


=⇒ g(X- ), .h(Y
. ) sind stochastisch unabhängig

Beispiel: X , Y seien stochastisch unabhängig.


Dann sind auch X. 2 und −Y. 3 stochastisch unabhängig oder
z.B. auch eX und sin(Y ).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 17 / 53
Stochastische Unabhängigkeit von Zufallsvariablen
Seien X1 , . . . , Xn Zufallsvariablen. Gilt
.

X1 , . . . , Xn sind stochastisch unabhängig,


X1 , . . . , Xn haben jeweils dieselbe Verteilungsfunktion F ,

#n=Fxz=( . .
.

) = Fin = F

so sagt man: „X1 , . . . , Xn sind unabhängig identisch nach F verteilt.“


Man schreibt dafür:
iid
X1 , . . . , Xn ∼ F
XniXriX3indNCOi4l@XngX2iXziidnExpC27Fxnzi.stnlXng.gtn
Dabei steht das „iid“ für „independent and identically distributed“.
iid
Sind X1 , . . . , Xn ∼ F , so gilt )
=
#n C H .

Earl C is Fxncxn ,

#
.
.

Stochasfi FX1 ...Xn (x1 , . . . xn ) = F (x1 ) · . . . · F (xn )

Uhabhiingig

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 18 / 53
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 19 / 53
Kovarianz
Die Kovarianz Cov [X , Y ] zweier Zufallsvariablen X und Y ist

i
definiert durch
! "
Cov [X , Y ] = E (X − µX )(Y − µY )

Für gemeinsam diskret verteilte Zufallsvariablen ist


##
Cov [X , Y ] = (xj − µX )(yk − µY )P(X = xj , Y = yk ) ,
j k

für gemeinsam stetig verteilte Zufallsvariablen ist


$ ∞ $ ∞
Cov [X , Y ] = (x − µX )(y − µY )fXY (x, y) dx dy. .
−∞ −∞

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 20 / 53
Kovarianz
Zur Berechnung der Kovarianz ist es meistens günstiger die
folgende alternative Formel zu verwenden:

Cov [X , Y ] = E[XY ] − E[X ]E[Y ] . ⇐ > Etty )

=
EID t
EEP
( Ix y]
ou =
O
, t Love tip

Etxy ] Eexip =o
-

⇐ Etty ] - EID -

EI
'D

Zwei Zufallsvariablen X und Y heißen unkorreliert, wenn gilt

Cov [X , Y ] = 0 .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 21 / 53
Beispiel: Ausfälle zweier Bauteile
Bestimmen Sie die Kovarianz im Beispiel „Ausfälle zweier Bauteile“!

TY = 0 1 2 Σ
'D

Eis
⇒ 0 0.30 0.14 0.02 0.46
.

X= 1 0.18 0.10 0.02 0.30

EIX
0.5-(0.752-0.5)
2 0.12 0.06 0.06 0.24
=
0.11
=

Σ 0.60 0.30 0.10 1.00

( OU It Y] EIXYI
-
EID
EEP
,
=

EI = ( O .

0.46 )t( A
0.37+(2-0.24)=0.78

EI =
I O .

O .
6) t ft .

o .

3) t ( 2. on ) =
0.5

] O O
EIXY 0.3 t O -20.02
=

y 0.14 to
.
.

.
.
.

t 1.0 .

0.78 t At .
O .tt 1.2 .

0.02

+ 0.5
012+11.006+2.201
2. O
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 22 / 53
Beispiel: Ausfälle zweier Bauteile (Forsetzung)
E[X ] = 0.78

E[Y ] = 0.5

E[XY ] = 0.5

Cov [X , Y ] = 0.11

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 23 / 53
Kovarianz: Eigenschaften
Varianz und Kovarianz:
Cov [X. , X. ] = V [X.]
Symmetrie:
Cov [X. ,.Y ] = Cov [Y. , X. ]
Affine Transformation:
. + .bX. , c. + .dY. ] = bd
Cov [a . , Y. ]
. . Cov [X

Wertebereich:
. ] ≤ Cov [X . ] ≤ V [X . ]
% % % %
− V [X. ] V [Y . ,Y . ] V [Y
Hinreichende Bedingung:
X ' ,Y
. , Y. stoch. unabhängig =⇒ Cov [X . ]=0

Die umgekehrte Richtung gilt jedoch i. Allg. nicht.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 24 / 53
Streudiagramm: n = 500 Punkte, Cov [X , Y ] = 1

3
txt
-7
dy
2
Pxy = IT ⇒

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 25 / 53
Streudiagramm: n = 500 Punkte, Cov [X , Y ] = 1

4 If dy -1,2

3 Pry =

, ,z =
O . 6544

−4 −3 −2 −1 1 2 3 4
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 25 / 53
Streudiagramm: n = 500 Punkte, Cov [X , Y ] = 1

6
jx-dy-zpxy-zzt-o.rs
4

−8 −6 −4 −2 2 4 6
−2

−4

−6

−8

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 25 / 53
Streudiagramm: n = 500 Punkte, Cov [X , Y ] = 1
to
Jx try
=
=

30 0.1
Pxy= Foro
=

20

10

−40 −30 −20 −10 10 20 30


−10

−20

−30

−40

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 25 / 53
Korrelationskoeffizient

. ] zweier Zufallsvariablen X.
Der Korrelationskoeffizient Corr [X. , Y
und Y ist definiert durch

Cov [X . , Y. ]
ρXY = Corr [X. , Y
. ]= % .
V [X. ] V [Y. ]
%

Maß für den linearen Zusammenhang zwischen X und Y .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 26 / 53
Beispiel: Ausfälle zweier Bauteile
Bestimmen Sie den Korrelationskoeffizienten!

Y =0 1 2 Σ
0 0.30 0.14 0.02 0.46
X= 1 0.18 0.10 0.02 0.30
2 0.12 0.06 0.06 0.24
Σ 0.60 0.30 0.10 1.00

Auf Folie 23 bereits berechnet:


E[X ] = 0.78, E[Y ] = 0.5, Cov [X , Y ] = 0.11

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 27 / 53
Beispiel: Ausfälle zweier Bauteile (Fortsetzung)

E[X 2 ] = O
? 0.46+120.3+22 .

0.24

= 0 t O .

3T 4 .

O .
24 = 1,26

E[Y 2 ] = 22
'
Oh .

0.6 t y .

0.3 t .

on

O 0.3 0.4 0.7


=

= t t

0.6084

V [X ] = EITI - 0.6084=0.6516
fEIX )
m

]
!
1,26 -

0.25

V [Y ] =
m
! 0.45
0.7 -

LEIYD

0.11

ρxy = 0.6516 .

O .
45
=
O .
2031

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 28 / 53
Korrelationskoeffizient: Eigenschaften
Der Korrelationskoeffizient ist normiert, d.h. es gilt

−1 ≤ ρXY ≤ 1 .

Der Korrelationskoeffizient ist die normierte Kovarianz.


Extremfälle:
ρXY = +1
ρXY = −1
⇐⇒
⇐⇒
Y = a00
+ bX
Y = a + bX O
mit a, b ∈ R, b > 0
mit a, b ∈ R, b < 0

Der Korrelationskoeffizient misst den linearen Zusammenhang


zwischen X und Y .

O
Ist ρXY = ±1, so besteht ein exakter linearer Zusammenhang.
Ist ρXY = 0, so besteht kein linearer Zusammenhang.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 29 / 53
Streudiagramm: n = 500 Punkte, ρXY = 1

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = 0.8

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = 0.4

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = 00

Tjoem
3
?
:÷::÷m ,
2

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = −0.4

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = −0.8

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Streudiagramm: n = 500 Punkte, ρXY = −1
O
De Korneluliohskoetcitieut
3 hah oiler
Verahshaulicht ,
Chi

Wet avseinandt alle Skeupunhk


2 im koordinateh System ist

−4 −3 −2 −1 1 2 3
−1

−2

−3

−4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 30 / 53
Korrelationskoeffizient: Eigenschaften
Der Korrelationskoeffizient ist (bis auf das Vorzeichen) invariant
gegenüber affin-linearen Transformationen, d.h. es gilt
I atb X]
V
&
ρXY , falls bd > 0, = Ibl .

FIH
ρa+bX ,c+dY =
−ρXY , falls bd < 0.

Satz (Unabhängigkeit und Unkorreliertheit)


Es gilt
E
X , Y stochastisch unabhängig =⇒ ρXY = 0 ,

d.h. stochastisch unabhängige Zufallsvariablen sind unkorreliert.

Die Umkehrung des Satzes gilt i.Allg. nicht, d.h. unkorrelierte


Zufallsvariablen müssen nicht stochastisch unabhängig sein!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 31 / 53
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 32 / 53
Summen von Zufallsvariablen

Satz (Erwartungswert einer Summe von Zufallsvariablen)


Seien X1 , . . . , Xn Zufallsvariablen und a1 , . . . , an reelle Zahlen.
Dann ist ' n ( n ↳
E I2tt3y ]
a. i E[X.i ] .
# #
= 2 ItE t E a.i X. i =
3 EI 'D .

i=1 i=1
T
Siete oben
Speziell gilt (für a1 = · · · = an = 1):
-
E[X1 + X2 + · · · + Xn ] = E[X1 ] + E[X2 ] + · · · + E[Xn ]

Der Erwartungswert einer Summe ist die Summe der


Erwartungswerte.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 33 / 53
Beispiel: Rendite
Über die prozentualen Jahresrenditen R.A , R. B zweier Aktien A.
und B sei folgendes bekannt:
µA. = E[RA- ] = 10 µB. = E[R.B ] = 15
σA. = V [R. A ] = 6 σB = V [R.B ] = 12
% %

0%7:*
ρ.AB = Corr [R.A , R.B ] = −0.5 .

Wie hoch ist die erwartete Gesamtrendite eines Portefeuilles


aus A und B, wenn ein Anteil von 80% des zur Verfügung
stehenden Kapitals in A und der Rest in B angelegt wird?
Gesautoeudite Rb E Ia RAI (t a) RB ]
=
t -

EIRA ] (A ]
=
a t
a) EIRB
.

a = 0.8 Laut
=
0.8 10 to 2 .

15 =

Aufgabenangabe
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 34 / 53
Varianz einer Summe von Zufallsvariablen
V [X + Y ] =

= V [X ] + 2Cov [X , Y ] + V [Y ]

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 35 / 53
Summen von Zufallsvariablen
Satz (Varianz einer Summe von Zufallsvariablen)
Seien X1 , . . . , Xn Zufallsvariablen und a1 , . . . , an reelle Zahlen.
Dann ist
' n ( n n #
n
a.i X. i = a. i V [X. i ] + 200
2
a. i aj Cov [Xi0,O
# # #
V Xj ]
i=1 i=1 i=1 j=i+1
de nach sten
iiugt
an

Stelle nach ①
be

Speziell gilt (für a1 = · · · = an = 1):


an

zcihlen

' n ( n n #
n
# # #
V Xi = V [X. i ] + 2 Cov [X. i , X.j ]

or
i=1 i=1 i=1 j=i+1

fir
Für n = 2 gilt: Sum me der Koran nian ten

Zu falls Variables
alle
Paa re ( i →
j) von

V [X + Y ] = V [X ] + V [Y ] + 2Cov [X , Y ]

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 36 / 53
Beispiel: Rendite (Fortsetzung)
a Wie hoch ist die Standardabweichung der Gesamtrendite
eines Portefeuilles aus A und B, wenn ein Anteil von 80%
des zur Verfügung stehenden Kapitals in .A und der Rest in
.B angelegt wird?
U I Ro ] = U I a .

Rat (A -

a) R B ]
2
=
at VIRAT t
( A a) -

VERB ] t 2 a It a) - .

( or IRA RB ]
,
'

= of .
of t C ta ) .

OB t 2 a
G -

a) PA , B .

Of
.

OB
2
=
al .
62 t
-

a) .

12 t Za (A -
a ) f -
o .
5) .

6 .

12

= I . . . ]

= 252 a
? -

360 a t 144

fi a
=
08
VI ] 252 0.82
=
RG 360 O 8 t 144 17128
= .
. =
-
.

Teri =
4 ,
15g
=
Gesamtrendite
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 37 / 53
Beispiel: Rendite (Fortsetzung II)
b Welcher Anteil a. muss in Aktie A angelegt werden, damit
die Standardabweichung der Gesamtrendite minimal wird?
0,7143
360
Z a =

252 144
f( a) ] t
VI
a
RG a
-

=f(
RD
=
=

VI 0,7143 ) = 15,4286
'

↳ f (a) =
504 a
-
360 verb =3 .
5279

360
f. (a) O ⇒ 504
= a -
a = o

⇒ a =
360540

0.7743
( ⇒ Fy
=
a =

"
f (a) =
504>0

⇒ Minimum lei a =
0.7143

Risi ko wird minimal Wenn 71.431


,
in
Ahtie A invest ft wird

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 38 / 53
Summen von Zufallsvariablen

Satz (Varianz einer Summe unabhängiger Zufallsvariablen)


Seien X1 , . . . , Xn Zufallsvariablen und a1 , . . . , an reelle Zahlen.
Sind X1 , . . . , Xn stochastisch unabhängig, so gilt
' n ( n
a. i X.i = a.i2 V [Xi ] .
# #
V
i=1 i=1

Speziell (für a1 = · · · = an = 1) gilt in diesem Fall:

V [X1 + X2 + · · · + Xn ] = V [X1 ] + V [X2 ] + · · · + V [Xn ]


- - VU
Sind X1 , . . . , Xn stochastisch unabhängig, so ist die Varianz
einer Summe die Summe der Varianzen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 39 / 53
£ Folie 36 :

VII. ttzttz ] =
V Its ] t V Its ] t VIXD t 2 Cov Itn XD 2 C or Ixz xD +2 C or Itn
,
t
, , xD

FS .

5.42
VIS Xi ) di ZU Iti ]t Xp
aiaj Cov Itis
ai
=

V [ Xnttzt XD =
V [ in ] t V [ XD t
Vets ]

i
-
-
t t C or Itn XD t Cov Ex , b]
, ,

i ⇒ ( OV I Xz ,
XD t Cov Ix . , xD

i =3 t Cov Its ,
t ( Ou Its ,
XD

=3
je j=2 j
da ( ovavriauz
symmetries eh
⇒ couch ,
XD t Cov Etz ,
t , ] = 2 Lov Exa ,
xD

Zu F. 40

E IX -

Y] =
EID -

EIYI X Y
,
unabhiingig

nicht : V Cx -

Y ) =
VIX ] -

VCY ]
Sohdern :
VIA Xtc -

1) Y ] =
i .

vet ] t fat VEY ]

VIX ] VI 'D
=

t
Summen von Zufallsvariablen
Vorsicht ist geboten, wenn die Varianz von X − Y zu berechnen
ist. Es gilt nämlich

V [X − Y ] = V [X ] + V [Y ] − 2Cov [X , Y ]

bzw. im Fall, dass X und Y unabhängig sind

V [X − Y ] = V [X ] + V [Y ] .

und nicht etwa V [X − Y ] = V [X ] − V [Y ]!


Man erhält dies wie folgt:

V [X − Y ] = V [1 · X + (−1) · Y ]
= 12 V [X ] + (−1)2 V [Y ] + 2 · 1 · (−1) · Cov [X , Y ] .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 40 / 53
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 41 / 53
Zufallsvektoren: Erwartungswert

Fasst man n gemeinsam verteilte Zufallsvariablen X1 , . . . , Xn zu


einem Vektor X = [X1 , . . . , Xn ]T zusammen, so heißt X.
(n-dimensionaler) Zufallsvektor.
Der Erwartungswert eines Zufallsvektors ist komponentenweise
definiert: "O
! T
E[X. ] = E[X1 ], . . . , E[Xn ]
Statt E[X
. ] schreibt man auch kurz µX .
O
Der Erwartungswert einer Zufallsmatrix, d.h. einer Matrix von
Zufallsvariablen ist entsprechend definiert.
f- Spaetenvektorfteilenvehtor transpo niet )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 42 / 53
Zufallsvektoren: Kovarianzmatrix
Für einen Zufallsvektor X . heißt die Matrix
⎡ ⎤
V [X1 ] Cov [X1 , X2 ] ... Cov [X1 , Xn ]
⎢Cov [X2 , X1 ] V [X2 ] ... Cov [X2 , Xn ]⎥ ( OV Itu , th ]
Cov [X ] = ⎢ .. .. .. ..
⎢ ⎥
VIX ]
.
=

. . .
⎥ n
⎣ ⎦
⇒ CoV Variant
Cov [Xn , X1 ] Cov [Xn , X2 ] ... V [Xn ] UM sich Sdbst

①X .
Kovarianzmatrix von X . Statt Cov [X ] schreibt man kürzer Σ
Bemerkungen:
Auf der Diagonalen der Kovarianzmatrix stehen die Varianzen
der Zufallsvariablen.
Für einen eindimensionalen Zufallsvektor ist Cov [X ] = V [X ].
Für die Kovarianzmatrix gilt:
Cov [X. ] = E[(X. − µ.X )(X. − µ.X )T ] = E[XX . ] − µ. X µ.X .
T T

Sind die Zufallsvariablen X1 , . . . , Xn stochastisch unabhängig, so


ist Cov [X ] eine Diagonalmatrix. ( cenleovrehert=
Vanauken Alle , O )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 43 / 53
Kovarianzmatrix bei linearer Transformation


Ist A. eine m O
× n-Matrix und X. ein n-dimensionaler
. . ein m-dimensionaler Zufallsvektor
Zufallsvektor, so ist .Y = AX

Y=€
und es gelten die folgenden Aussagen:silent A
W
muss nor Matrix

. ] = E[AX A-
kuo.IS#aYk4Yriwwtzensmxn-- him

1 E[Y . . ] = AE[X . ], Mtn

- ] = Cov [AX
. . ] = .ACov [X . .
T
2 Cov [Y . ]A

Wählt man als Matrix A. einen Zeilenvektor a. = [a1 , . . . , an ] mit


. = aX
a1 , . . . , an ∈ R, so ist Y . . eine reelle Zufallsvariable,
fi A- Ears ]
an
her ⇒

✓ [ Saiki ]=V[ At ] n
↳ AX
Y. = .aX. =
= anxntaztzt . . .
t anxn

a. i X.i .
)
= ( OV FAX ] Sail =

i=1
=
A Cov It ] .

AT EC Eaiti ]=EIAX]= A EID


= Sai EIX ]
Da für einen eindimensionalen Zufallsvektor Cov [Y ] = V [Y ]
gilt, erhält man damit die Ergebnisse der Folien 33, 36 und 39
als Spezialfälle von obigem Resultat.
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 6. Gemeinsame Verteilungen 44 / 53
Beispiel

Seien X1 , X2 Zufallsvariablen mit V [X. 1 ] = 4, V [X-2 ] = 2 und


Cov [X1 , X2 ] = 1. Dann ist X. = [X1 , X2 ]T ein Zufallsvektor mit
Kovarianzmatrix
4 1
* +
Cov [X. ] = .
1 2
Mit a
. = [2, 3] erhält man

. ] = .aCov [X .T

son
V [2X1 + 3X2 ] = Cov [aX . ]a
ni
4 1 2
To
11
To
* +* + * +
⇒ = [2, 3] = [2, 3] = 46
1 2 3 8

Dasselbe Ergebnis erhält man mit der Formel von Folie 36.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 45 / 53
Überblick

6 Gemeinsame Verteilungen

6.1. Gemeinsame Verteilungen von Zufallsvariablen

6.2. Stochastische Unabhängigkeit von Zufallsvariablen

6.3. Kovarianz und Korrelationskoeffizient

6.4. Summen von Zufallsvariablen

6.5. Zufallsvektoren

6.6. Reproduktionseigenschaft spezieller Verteilungen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 46 / 53
Summen binomialverteilter Zufallsvariablen
Ein Bernoulli-Versuch wird zunächst n1 -mal durchgeführt dann noch
einmal n. 2 -mal. Die einzelnen Versuchsdurchführungen seien
stochastisch unabhängig, die Erfolgswahrscheinlichkeit sei jeweils .π.

X. 1 =
X.2 =
no
"
Erfolge bei den ersten n1 Versuchen
Erfolge bei den folgenden n2 Versuchen∼ B(n2 , π),
∼ B(n1 , π),
:
X1 + X2 = Erfolge bei allen n1 + n2 Versuchen .
∼ B(n1 + n2 , π).

Folgerung
Yo
X1 ∼ B(n1 , π), X2 ∼ B(n2 , π), X1 , X2 stoch. unabhängig
=⇒
O
X1 + X2 ∼ B(n1 + n2 , π)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 47 / 53
Summen binomialverteilter Zufallsvariablen
Allgemeiner gilt das Ergebnis auch für .n Zufallsvariablen:
Satz (Summen binomialverteilter Zufallsvariablen)
Sind Reproductions
. i = 1, . . . , n, und sind
Xi ∼ B(ni , π), eigen shaft
1


repro dozier
t sich fdbst
2 X1 , . . . , Xn stochastisch unabhängig,
lend bleibt daher !
dann ist die Summe der Xi wieder binomialverteilt: gleich

n
, n -
) )
Xi ∼ B ni , .π
i=1 i=1

Bemerkungen:
.π muss bei allen n. Verteilungen gleich sein,
Die n. i dürfen sich unterscheiden.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 48 / 53
Summen binomialverteilter Zufallsvariablen
i dentists
bnabhinyig
Folgerung:
p our BO Verlet t

OB(1, π)
n
X.i ∼ B(n, π)
iid
.
)
X1 , . . . , Xn ∼ =⇒ X= .
i=1

Hieraus folgen Erwartungswert und Varianz einer B(n, .π)-Verteilung:


IT
n M

E[X. i ] = nπ. ,
)
E[X ] =
i=1
n
V [X.i ] = nπ(1
)
V [X ] = . . .
− π)
-
i=1 IT G- It

„Wenn man etwas Theorie beherrscht, werden die Sachen einfacher!“

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 49 / 53
Summen Poisson-verteilter Zufallsvariablen
Ein entsprechendes Ergebnis gilt auch für Poisson-verteilte
Zufallsvariablen:
Satz (Summen Poisson-verteilter Zufallsvariablen)
Sind
1 Xi ∼ Po(µ. i ), i = 1, . . . , n, und sind Reproductions eighkhaft
2 X1 , . . . , Xn stochastisch unabhängig,
dann ist die Summe der Xi wieder Poisson-verteilt:
n
, n -
X.i ∼ Po
) )
µ. i
i=1 i=1

Bemerkung:
Die µ. i dürfen sich unterscheiden.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 50 / 53
Beispiel Eiti
Eine Maschine besteht aus vier verschiedenen Bauteilen. Die
Anzahl der Ausfälle jedes Bauteils (pro Jahr) sei jeweils
Poisson-verteilt mit Parameter µ = 2. Die Ausfälle der
einzelnen Bauteile seien stochastisch unabhängig.
Wie groß ist die Wahrscheinlichkeit, dass in einem Jahr
weniger als fünfmal ein Bauteil ausfällt?
=3 PLXE 5) =
PCXE 4)

€ tired Polizia -4
.

= Xn , .gl/4iindPo( 8)
⇒ pCX=o)tL . .
.

)tRX=4 )
= 0.0003T 0.002ft 0.010ft 0.0286 +0.0573
=
0.0996

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 51 / 53
Summen normalverteilter Zufallsvariablen
Satz (Summen normalverteilter Zufallsvariablen)
Sind
The
1 = 0,
a1 , . . . , an ∈ R, wobei mindestens ein ai ̸ productions eigenschaft

2 X.i ∼ N(µ.i , σ.i2 ), i = 1, . . . , n, und sind


3 X1 , . . . , Xn stochastisch unabhängig,
dann ist die Summe der Xi wieder normalverteilt: O
n
, n n
-
a. i X. i ∼ N a. i µi., 2 2
) ) )
a.i σ.i
i=1 i=1 i=1

Bemerkung: Auch die Summe abhängiger normalverteilter


Zufallsvariablen ist unter schwachen zusätzlichen Bedingung wieder
normalverteilt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 52 / 53
.

Reproduktionseigenschaft
Ist die Summe von unabhängigen Zufallsvariablen eines bestimmten
. verteilt, so sagt man, dass
Verteilungstyps wieder nach diesem Typ
für diesen Verteilungstyp die Reproduktionseigenschaft gilt. Die
Reproduktionseigenschaft besitzen also u.a. die

Binomialverteilung (bei identischem π), X Bch )


, IT
-

Poisson-Verteilung, X - Poul
Normalverteilung. X -
Nlr , 04

Die meisten anderen Verteilungen besitzen die Reproduktions-


eigenschaft nicht. So gibt es insbesondere keine Reproduktions-
eigenschaft für die
hypergeometrische Verteilung, X -
Hln ,
MN )

⑦ geometrische Verteilung,
Rechteckverteilung,
GCH
Xv Rca , p)
Exponentialvertielung. X -
Exp CX

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 6. Gemeinsame Verteilungen 53 / 53
Überblick

7 Grenzwertsätze

7.1. Schwaches Gesetz der großen Zahlen

7.2. Zentraler Grenzwertsatz

7.3. Approximation von Binomial- und Poissonverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 1 / 41
Arithmetisches Mittel

Seien X1 , X2 , . . .O
iid
∼ F und sei µ. = E[Xi ] und σ. 2 = V [Xi ] < ∞.
Die Zufallsvariable
n
1!
Xn = Xi
n
i=1

heißt arithmetisches Mittel der Zufallsvariablen X1 , . . . , Xn .

0n ist selbst wieder eine Zufallsvariable.


Achtung: X
Es gilt
he how O
σ. 2
-
ggu
.
.

E[X n ] = .µ und V [X n ] = . ⇒ Variant bieler Summand en


n o
geht gegen
Sclloankt harm ,
lis
Wenig
Heine
Strewing
( Zufiillifkeit Vesdwihdet )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 2 / 41
Schwaches Gesetz der großen Zahlen

Tschebyscheff-Ungleichung für X
. n:
02
"# ti . n]
V [X
P #X n − E[X n ]# < .ϵ ≥ 1 −
# $
ϵ2
σ2
Einsetzen von E[X n ] = µ und V [X n ] = n :

G
σ. 2 n→∞
P #X n − .µ# < .ϵ ≥ 1 − 2 1
"# # $
−−−→

w
h -30=0 =) A -0=1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 3 / 41
Schwaches Gesetz der großen Zahlen

Satz (Schwaches Gesetz der großen Zahlen)

O
° F und ist µ = E[X ] und σ 2 = V [X ] < ∞, so
iid
Sind X1 , X2 , . . . ∼ i i
gilt
lim P #X n − µ# < ϵ = 1 e
"# # $

:
n→∞

bzw.
lim P #X n − µ# ≥ .ϵ = 0 .
"# # $
Gegenwuhrscheinlilhheit n→∞

. um mehr als einen


Die Wahrscheinlichkeit, dass X. n sich von µ
kleinen Wert .ϵ unterscheidet geht mit wachsendem .n gegen
Null!
Man sagt auch: X n konvergiert stochastisch gegen µ.
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 4 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Arithmetisches Mittel in Abhängigkeit von n


1.0
0.8 konvergiert gegen
0

0.6
0.4
0.2

−0.2 100 200 300 400 500 600 700 800 900 1000

−0.4
−0.6
−0.8
−1.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 5 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Arithmetisches Mittel in Abhängigkeit von n


1.0
0.8
0.6
konvergiert gegen
0

0.4
0.2

−0.2 100 200 300 400 500 600 700 800 900 1000

−0.4
−0.6
−0.8
−1.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 6 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Arithmetisches Mittel in Abhängigkeit von n


1.0
0.8
0.6 konvergiert gegen
0

0.4
0.2

−0.2 100 200 300 400 500 600 700 800 900 1000

−0.4
−0.6
−0.8
−1.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 7 / 41
Relative Häufigkeit und Wahrscheinlichkeit
Xn ,
t ,
. .
.
BU , IT

Wir betrachten eine Bernoulli-Versuchsreihe mit unabhängigen


Wiederholungen. Bei jeder Wiederholung trete das Ereignis A mit
Wahrscheinlichkeit π ein („Erfolg“).
%
1 , falls .A bei der i-ten Wiederholung eintritt,
X. i =
0 sonst.
&n
Dann ist i=1 Xi die Anzahl der Erfolge bei den ersten n Versuchen
und

Anzahl der Erfolge bei den ersten n Versuchen


Hn = X n =
.
n

. bei den ersten n.


die relative Häufigkeit des Eintretens von A
Versuchen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 8 / 41
7
Kapital Great werk


Xu =
he .

€ Xi ,
Erwartuugswert des awh .
Mitte

XD EIF EI Xi ] eines
je
EI
Erwartuuyswert den
= .
=

Zehren Summon den


ein
J
=L EL € Xi ] o

=L .

?EELXD3r
= 1h .
h .

re
=
re

vcxt-VCE.E.li ]

#ATvc xD
Konstantin Fahtor aus

Variant Zieheh ⇒ immer im Quadrat !


or
m
= #
is .

VIXD

=
ht .

h .

or =
Relative Häufigkeit und Wahrscheinlichkeit

X. ,
Xz ,
.
. .
n
Built )

. konvergieren die
Intuitive Erwartung: Mit steigendem n
.
relativen Häufigkeiten gegen π.
Es ist E[X- i ] = π. und V [Xi ] = π(1
. . < ∞.
− π)
Aus dem schwachen Gesetz der großen Zahlen folgt:

O
lim P (|Hn − .π| ≥ .ϵ) = 0 .
n→∞

EC XD IT
µ
-

= -

or = VEX D= ITU -
IT )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 9 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Anteil der Würfe mit Augenzahl 6


1.0
0.9
Korver eben falls % (
0.8 gift gegen ons )
0.7
=) World 66 Wwf
1-6 i. d. R .

jeder
0.6
ist eine 6
0.5
0.4
0.3
0.2

0.1

0 100 200 300 400 500 600 700 800 900 1000

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 10 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Anteil der Würfe mit Augenzahl 6


1.0
0.9
Korver eben falls % (
0.8 gift gegen ons )
0.7 =) World ble Wwf
A 6 i. d. R .

jeder
0.6 ist eine 6

0.5
0.4
0.3
0.2

0.1

0 100 200 300 400 500 600 700 800 900 1000

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 11 / 41
Beispiel: Schwaches Gesetz der großen Zahlen

Anteil der Würfe mit Augenzahl 6


1.0
0.9
0.8
Korver eben falls % (
0.7 gift gegen 0,5 )
0.6 =) World 1-6 i. d. R .

jeder 66 Wwf
0.5 ist eine 6

0.4
0.3
0.2

0.1

0 100 200 300 400 500 600 700 800 900 1000

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 12 / 41
Überblick

7 Grenzwertsätze

7.1. Schwaches Gesetz der großen Zahlen

7.2. Zentraler Grenzwertsatz

7.3. Approximation von Binomial- und Poissonverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 13 / 41
Verteilung einer Summe von Zufallsvariablen
iid
Seien X1 , X2 , . . . ∼ F und es sei .µ = E[Xi ] und σ.2 = V [Xi ] < ∞.
n
Frage: Was ist über die Verteilung von S.n = Xi bekannt?
!
i=1

Erwartungswert und Varianz:

n
" $ " n $
X. i = nσ.2
# #
E X.i = nµ. und V
i=1 i=1

Die exakte Verteilung ist im Fall der Binomial-, Poisson- und


Normalverteilung bekannt.
Jetzt: Approximative Resultate

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 14 / 41
Verteilung von Sn und X n bei Normalverteilung

Satz
iid
Sind X1 , X2 , . . . ∼ N(µ, σ 2 ), so gilt

iii.
n
∼ N(nµ, nσ 2 )
#
Sn = Xi
i=1
n
1# % 2
&
Xn = Xi ∼ N µ, σn
n
i=1

Obiges Resultat gilt auch approximativ!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 15 / 41
Standardisierung von Sn und X n
Kane Kander
EI€hXi ] hot
'
-
hee VC Xi ]
.
-
-
no -

lmstahdardisietr

Betrachte die standardisierte Summe:

Summer
n
#
Xi − nµ.

=
X n − µ.
Inh
i=1
U.n = √ = ' .
nσ. 2 σ. 2 .

- n

Bemerkung: Un ist ebenfalls die Standardisierung des


arithmetischen Mittels.
Es gilt:
E[Un ] = 0 und V [Un ] = 1 .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 16 / 41
Zentraler Grenzwertsatz (ZGWS)

Satz (Zentraler Grenzwertsatz)


Voraussetzungen:
0
iid
X1 , X2 , . . . ∼ F ,
. 2 = V [Xi ] < ∞.
.µ = E[Xi ] und 0 < σ
Dann gilt Kann duh Normal
Fufu ) ←
Vvkeung

#
Hett werden
M
Vrleibuysfat lim P(Un ≤ u) = Φ(u) für alle u ∈ R.
der Stand
n→∞
.

Function Un

Bemerkung: Der ZGWS gilt auch unter wesentlich


allgemeineren Voraussetzungen. Sowohl die Unabhängigkeit
als auch die identische Verteilung sind nicht notwendig für die
Gültigkeit des ZGWS!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 17 / 41
Zentraler Grenzwertsatz (ZGWS)

Interpretation: Ist n hinreichend „groß“, so ist die standardisierte


Summe Un in guter Näherung standardnormalverteilt. Man schreibt

appr
Un ∼ N(0, 1) . -

Entsprechend gilt für „große“ n:

n
appr
N(nµ, nσ 2 )
#
Sn = Xi ∼
i=1
n
1# appr
% 2
&
Xn = Xi ∼ N µ, σn
n
i=1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 18 / 41
Beispiel: Kartoffeln
Das Gewicht eines Beutels Kartoffeln (in kg) sei
R(9.75, 10.75)−verteilt. Die abgefüllten Beutel sollen mit einem
Kleintransporter befördert werden.
Wie groß ist die Wahrscheinlichkeit, dass bei einer Beladung mit 97
Beuteln (bzw. 98 Beuteln) die zulässige Nutzlast von 1000kg
überschritten wird? 75+10.25
9.

-2

E-
10.25 re
)

Its
= =

I Vor arbeit

5710.25
n = 97: '

E- IT } !
Xu Rca , p ) HI⇒ a

RC 9. 25.10.75 )
=
Xu -

OIL ) =
t OIC
Approximation might ( 2,022 )
= A -

OI
X -
N ( him n .

o
'
) A-
, =
0.9783


'
mitu , o
eingesetzt 0.0217
=

X NN ( 97 .

In )
,
= X -
NL 954.25 , IE )
PCX >
tooo ) =
1- PCXE tooo )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 19 / 41
Beispiel: Kartoffeln (Fortsetzung)
n = 98: A IAOIG ,
5746
)
X - Rca
,

Fr R ( 9.75 to
(
,
.

)
1
O 0582
= -

µ=atzI=
to .
25 .

02--4215=12 =
0.5418 ✓
Approximation might
X~rlh.mn .

04
Mit h=g8

757=1-(1-0.9918)
PCX
X~rctoo4.5.LI )
>
10007
=) PCXE 1000 )
1-

I ( )
= 1- OI ( boozing
A
ELITE )
=

OIL
?
= A- -
1,5746

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 20 / 41
ZGWS: Konvergenzgeschwindigkeit

Der ZGWS sagt nichts über die Geschwindigkeit der


Konvergenz aus.
Ab welchem Wert ist also n. hinreichend „groß“?
Dies hängt davon ab, wie ähnlich die Verteilung F bereits der
Normalverteilung ist. Die Konvergenz ist schnell, wenn die
Verteilung F

symmetrisch ist und


nur wenig Wahrscheinlichkeitsmasse auf den Flanken hat.

Weit verbreitete Faustregel: n ≥ 40


Aber: in einigen Fällen zu restriktiv, in einigen Fällen zu locker.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 21 / 41
ZGWS: Konvergenzgeschwindigkeit

Die folgenden Abbildungen zeigen die Dichte von U.n für zwei
Verteilungen F (R(0, 1)- und Exp(1)-Vert.) und verschiedene
Werte von .n.
Zur besseren Übersicht ist jeweils auch die Dichte der
N(0, 1)−Verteilung eingezeichnet.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 22 / 41
ZGWS (Xi ∼ R(0, 1), n = 2)
Dink der
Dreiechsverleibmy

y
0.4

Nerve
Dichter
-

0.3 ( on )

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 23 / 41
ZGWS (Xi ∼ R(0, 1), n = 5)


an
0.4

0.3 Icom

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 24 / 41
ZGWS (Xi ∼ R(0, 1), n = 10)

0.4

0.3
0
0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 25 / 41
ZGWS (Xi ∼ R(0, 1), n = 20) 0


him Mit

0.4 Approximation
immer besse
den h
Steiger
0.3

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 26 / 41
ZGWS (Xi ∼ Exp(1), n = 10)
-
immer reehtsschief
Nco D
,

Exp 0.4
y I

reinstate 0.3
dominant

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 27 / 41
ZGWS (Xi ∼ Exp(1), n = 20)

0.4

0.3

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 28 / 41
ZGWS (Xi ∼ Exp(1), n = 50)

0.4

0.3

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 29 / 41
ZGWS (Xi ∼ Exp(1), n = 100)

Maximum immeryoch
0.4
Weil links hiihert
he ,

as

Sie jedoh
0.3

0.2

0.1

−3 −2 −1 1 2 3

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 30 / 41
Überblick

7 Grenzwertsätze

7.1. Schwaches Gesetz der großen Zahlen

7.2. Zentraler Grenzwertsatz

7.3. Approximation von Binomial- und Poissonverteilung

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 31 / 41
Approximation: B(n, π) durch N(nπ, nπ(1 − π))
iid
.
!n
. Dann ist Sn = i=1 Xi ∼ B(n, π).
Seien X1 , X2 , . . . ∼ B(1, π).
Es ist
E[Sn ] = Gnπ. und V [Sn ] = O nπ(1
. − π)
. . Terra ht

Für hinreichend große n gilt also nach dem ZGWS

n apptotimalr
# appr

( )
Sn = Xi ∼ N nπ,
. nπ(1
. − π)
. .
i=1

Interpretation: Für hinreichend große n kann die


Verteilungsfunktion der B(n, π)−Verteilung durch die
Verteilungsfunktion der N(nπ, nπ(1 − π))−Verteilung
approximiert werden.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 32 / 41
Approximation: B(n, π) durch N(nπ, nπ(1 − π))

. und n hinreichend groß:


Also gilt für X ∼ B(n, π)
* ,
.
b − nπ
P(X ≤ b) ≈ Φ + .
nπ(1
. .
− π)

Für .b ganzzahlig erhält man in der Regel eine bessere

:
Approximation durch Verwendung einer Stetigkeitskorrektur:
-
dishrek C 8)
* .
, Wenn
Verleilung
b. + 0.5 − nπ. durch
Sktige Verte lung ( N
.

. ≈Φ +
P(X ≤ b) . gpprotiert bird

nπ(1 − π)

Faustregel für eine gute Approximation: nπ(1 − π) > 9

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 33 / 41
Approximation: B(n, π) durch N(nπ, nπ(1 − π))

Sei X ∼ B(nπ)
. und n hinreichend groß. Weitere
Approximationsformeln:
Slehjbeitshorrehturenthaekn
* , , *
b. + 0.5 − nπ. a. − 0.5 − nπ.
P(a. ≤ X ≤ b)
' ≈Φ + −Φ +
.
nπ(1
. − π)
. nπ(1
. − π) i

* ,
a. − 0.5 − nπ.
P(X ≥ a) . ≈ 1 −Φ +

O
nπ(1
. − π).

* , * ,
-x + 0.5 − nπ x. − 0.5 − nπ.
.
P(X = x) ≈ Φ + −Φ +
Einlelwkiit
nπ(1
. − π)
. nπ(1. − π)
.

Awm class ( Sleigh )


X~BLh.IT
It
) forming ,
tenth .
anwenden

P (172×25) =P 8 EXE 24 )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 34 / 41
ZGWS: B(n = 50, π = 0.1)
htt ( AH
0.18 g)
=
50 .

0.1 ( O .

0.16 = 4 , 5 a 9 !
App rot hoch nicht
0.14 .

optimal

⇒ Abee Fcushgee nicht leseihgt


0.12
0.10
0.08
0.06
0.04
0.02

Problem 0 Plz :
exe
2'D 4 6
4,5)
8 10 12 14
besser PH 5 EXE
Io ( ? )
:
,

Approx
a OI ( 4) -

C
Stetigkeitskorrekturlmit
Formel

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 35 / 41
ZGWS: B(n = 50, π = 0.4)
Approximation
0.12
deutlih
lesser !
0.10

0.08

0.06

0.04

0.02

6 8 10 12 14 16 18 20 22 24 26 28 30 32 34

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 36 / 41
Beispiel: Überbuchung
Bei einer Fluglinie weiß man, dass im Mittel 8% der Personen, die
einen bestimmten Flug buchen, nicht zum Abflug erscheinen. Für
einen 400-sitzigen Jet werden daher 420 Reservierungen
vorgenommen.
Berechnen Sie unter geeigneten Annahmen (Unabhängigkeit!) die
Wahrscheinlichkeit dafür, dass alle zum Abflug erscheinenden
I ) Personen einen Platz erhalten? I )X~rCmoY

⇒ h= 420 1111001 .
-

81--921=0.92 ) = X~N( 386.4 , 30.912 )

pcxthoo )
pcxe4od=oI(btnI)
Approximation might
HIT ( 1- IT ) >
9 ? =oI(4ooto5-38
3¥08 )

.

420-0.92-0.8=30.91239

=
OIL 2.54 )
X~N( µ , 04 wobei :

µ=
h.IT
I
0.9945 ✓
ol =
h.IT .

G- IT)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 37 / 41
Approximation: Po(µ) durch N(µ, µ)
Ist X ∼ Po(µ),
. so lässt sich X ebenfalls als Summe
!n iid
.
X = i=1 X.i mit X1 , . . . , Xn ∼ Po(µ/n) schreiben.

i
Nach dem ZGWS gilt dann

n
# appr ( )
X= Xi ∼ N µ, µ- .
.

i=1

Unter Berücksichtigung einer Stetigkeitskorrektur erhält man


* , * ,
b + 0.5 − µ. a − 0.5 − .µ
P(a ≤ X ≤ b) ≈ Φ √ −Φ √ .
.
µ .µ

Faustregel für eine gute Approximation: µ > 9

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 38 / 41
ZGWS: Po(µ = 5)
Fav sheget ist nicht er
fit !
0.18
0.16
0.14
0.12
0.10
.

0.08
0.06
0.04
0.02

0 2 4 6 8 10 12 14

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 39 / 41
ZGWS: Po(µ = 20)
µ
> 9 ✓ Favstegel efi "

0.10

0.08

0.06

0.04

0.02

4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 40 / 41
Approximationen diskreter Verteilungen

H(n, N, M)

M n
π= ,
N N
≤ 0.05

π ≤ 0.1, n ≥ 50, µ = nπ ≤ 9
B(n, π) Po(µ)

µ = nπ ,
σ 2 = nπ(1 − π) > 9
σ2 = µ > 9

N(µ, σ 2 )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 7. Grenzwertsätze 41 / 41
Überblick

8 Grundbegriffe der schließenden Statistik

8.1. Grundbegriffe

8.2. Stichprobenfunktionen (Statistiken)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 1 / 25
Hal Varian (Chefökonom bei Google) über Statistik
I keep saying the sexy job in the next ten years will be statisticians.
People think I’m joking, but who would’ve guessed that computer
engineers would’ve been the sexy job of the 1990s?
The ability to take data - to be able to understand it, to process it, to
extract value from it, to visualize it, to communicate it’s going to be a
hugely important skill in the next decades, not only at the professional
level but even at the educational level for elementary school kids, for
high school kids, for college kids. Because now we really do have
essentially free and ubiquitous data. So the complimentary scarce
factor is the ability to understand that data and extract value from it.
I think statisticians are part of it, but it’s just a part. You also want to
be able to visualize the data, communicate the data, and utilize it
effectively. But I do think those skills – of being able to access,
understand, and communicate the insights you get from data analysis
– are going to be extremely important. Managers need to be able to
access and understand the data themselves.
Hal Varian, The McKinsey Quarterly, January 2009

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 2 / 25
Schließende Statistik

Beschreibende Statistik

Aufbereitung und Darstellung von Daten


Charakterisierung durch geeignete Kenngrößen

Schließende Statistik

Einbeziehung der Wahrscheinlichkeitsrechnung


Daten sind Ergebnisse eines Zufallsvorgangs
Annahmen über die in Frage kommenden W-Verteilungen
Schlüsse aus den beobachteten Daten auf die Verteilung
Schätzen von Parametern der Verteilung, Testen von
Hypothesen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 3 / 25
Schließende Statistik

Das Ziel der schließenden Statistik ist es, auf der


Grundlage einer Stichprobe Aussagen über die
unbekannte Verteilung eines Merkmals in einer
Grundgesamtheit zu treffen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 4 / 25
Beispiel: Abfüllanlage

Die Einstellung einer Flaschenabfüllanlage mit Sollwert 1000 ml soll


überprüft werden.

Tatsächliche Abfüllmenge ist Realisation einer Zufallsvariablen


Annahme: Abfüllmenge ist normalverteilt
Messung der Füllmenge mehrerer Flaschen der laufenden
Produktion
Schätzwerte für die mittlere Füllmenge sowie für die Streuung
der Füllmengen (Präzision)
Überprüfung der Hypothese, dass die mittlere Füllmenge dem
Sollwert entspricht

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 5 / 25
Beispiel: Produktion

Der Ausschussanteil bei der Produktion von Sicherungen ist zu


überprüfen.

Eine produzierte Sicherung ist mit einer gewissen


Wahrscheinlichkeit .π defekt
π entspricht dem Ausschussanteil der Produktion
Überprüfung mehrere Sicherungen der laufenden Produktion
Schätzwert für den unbekannten Ausschussanteil. π
Überprüfung der Hypothese, dass der Ausschussanteil
höchstens 5% beträgt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 6 / 25
Beispiel: Wahlprognose

Der unbekannte Stimmenanteil der SPD bei der nächsten


Bundestagswahl ist zu untersuchen.

Der Anteil der SPD-Wähler unter allen Wahlberechtigten sei π.


Ein zufällig ausgewählter Wahlberechtigter wählt mit Ws. π die
SPD
Befragung mehrerer zufällig ausgewählter Wahlberechtigter
Schätzwert für den unbekannten Stimmenanteil π.
Angabe eines Intervalls für den Stimmenanteil (Angabe der
Präzision der Schätzung)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 7 / 25
Statistisches Schließen

Betrachtet wird ein Merkmal in einer Grundgesamtheit


Grundgesamtheit ! Ergebnismenge .Ω
Merkmal ! Zufallsvariable X
Beobachtung des Merkmals ! Realisation .x der ZV X
Verteilungsannahme über das Merkmal in der GG, z.B.
X ∼ N(µ, σ 2 ), X ∼ B(1, π) ( Normally Bernabei )
Entnahme einer Stichprobe
Schluss von der Stichprobe auf die Grundgesamtheit

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 8 / 25
Grundgesamtheit und Merkmal

Grundgesamtheit: Menge von statistischen Einheiten, die


Träger eines Merkmals sind und über die etwas ausgesagt
werden soll. Wahebeecutigte

m
Grundgesamtheit kann endlich oder unendlich sein, konkret
oder hypothetisch. } Abf anlage Wie
ill Fla Kohnen abgef.int
: well ? seen werden

-
Merkmal: Prinzipiell beobachtbare und durch eine Zahl
beschreibbare
• Eigenschaft statistischer Einheiten.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 9 / 25
Verteilungsannahme

Auch: Stochastisches Modell der Datenentstehung


Annahme: Unbekannte Verteilung gehört zu einer bestimmten
Menge von Wahrscheinlichkeitsverteilungen
Oft: Verteilung bekannt bis auf einen oder mehrere unbekannte
Parameter

Abfüllanlage: F = {N(µ, σ 2 ) | µ ∈ R, σ 2 > 0}, kurz: X ∼ N(µ, σ 2 )
Produktion, Prognose: F = {B(1, π) | 0 < π < 1}, kurz: X ∼ B(1, π)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 10 / 25
Stichproben

Stichprobe: Auswahl aus einer größeren Grundgesamtheit


Das zu untersuchende Merkmal X wird n-mal beobachtet. n
heißt Stichprobenumfang
Jede Beobachtung des Merkmals X wird als Zufallsvariable
betrachtet, da das Ergebnis der Beobachtung a priori
unbekannt ist.
Eine Stichprobe besteht also aus n. Zufallsvariablen X1 , . . . , Xn .
Die Zufallsvariablen X1 , . . . , Xn heißen Stichprobenvariablen.
A posteriori, also nach Beobachtung der Stichprobe erhält man
die Realisierungen x1 , . . . , xn der Stichprobenvariablen.
X. , Ks X (
>
groin
. .

"
Nah der zu
bang
chain }
175 ,,
Xn= ,
. . .

, 185 , ,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 11 / 25
Zufallsstichproben

Sei X . eine Zufallsvariable (interessierendes Merkmal) und


X1 , . . . , Xn Zufallsvariablen mit gemeinsamer Verteilung.

X1 , . . . , Xn heißen Zufallsstichprobe aus X , wenn alle X.i


dieselbe Verteilung wie X besitzen. ( je de felber When wird Mit 't
get gon
)
n heißt Stichprobenumfang.
Die konkreten Werte x1 , . . . , xn der Zufallsvariablen
X1 , . . . , Xn heißen Realisierung oder Wert der Stichprobe.
X1 , . . . , Xn heißen einfache Zufallsstichprobe aus X , wenn
X1 , . . . , Xn stochastisch unabhängig sind, d.h.
iid
X1 , . . . , Xn ∼ X .
ti ) Mit brick leger = > ein faire Zufallssh.ch probe

lil ohne Unitel egos =) Kein ein fade Zufaeessiich probe


( )
hngeahnthiiffoinehnht

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik


.
Universität zu Köln
WS 2018/19 8. Grundbegriffe der schließenden Statistik 12 / 25
Fragestellungen

Z B X -
BHT ) Wahl prog nose

Punktschätzung: Schätzung eines (oder mehrerer)


unbekannter Parameter durch einen Schätzwert. ⇒ IT =
?

Intervallschätzung: Schätzung eines (oder mehrerer)


unbekannter Parameter durch ein Intervall von
Schätzwerten. ITE [ ] ? = > a ,
b

Hypothesentest: Prüfung, ob eine begründete Vermutung


über den Wert eines unbekannten Parameters zutrifft oder
nicht. Talkin Frager ⇒ Slim X-

lehriigt
mind tf ? haunted . o .

IT 20.1

Odd :

ITE O .
'
?

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 13 / 25
Überblick

8 Grundbegriffe der schließenden Statistik

8.1. Grundbegriffe

8.2. Stichprobenfunktionen (Statistiken)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 14 / 25
Stichprobenfunktionen (Statistiken)
.

Viele statistische Verfahren beruhen auf Funktionen der


Stichprobe, d.h. die Stichprobe wird durch eine Funktion zu
einer Kennzahl zusammengefasst:
.
"
zZExi( amine )
Zufalkban .

ables T. = g(X1 , . . . , Xn ) .

Hier ist g eine reellwertige Funktion von n Variablen. T ist somit


auch wieder eine Zufallsvariable. Eine solche Funktion einer
Stichprobe wird als Stichprobenfunktion oder auch Statistik
bezeichnet.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 15 / 25
Spezielle Statistiken
Stichprobenmittel
- 1!
n
X= Xi
tinhorn
n
girl
.

i=1

Stichprobenvarianz

n n
1! 1! 2 2
S2 = (Xi − X )2 = Xi − X
n n
i=1 i=1

Korrigierte Stichprobenvarianz

n
1 ! n
S ∗2 = (Xi − X )2 = S2
n−1 n−1
i=1

( In Erin )
In ( -

IT
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 8. Grundbegriffe der schließenden Statistik 16 / 25
Spezielle Statistiken

Sei X1 , . . . , Xn eine Zufallsstichprobe aus einer B(1, π)-Verteilung


Stichprobenanteilswert
Stent fir
.

n
geschiittten
Wut
1! iid
π̂ = . X= Xi , falls X1 , . . . , Xn ∼ B(1, π).
n
w
i=1
Ankit der Xi mi t Xi = A ( Eigen shaft
liegt von

. ist der Anteil der Einheiten mit der interessierenden Eigenschaft in


π̂
der Stichprobe.
f
In diesem Fall gilt ferner

IE 2
'

S 2 = X − X = π̂(1 − π̂) .
' '
s = ti -
I

¥ ✓
I E ICA #I
D= ith
= -

= -
-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 17 / 25
Spezielle Statistiken in Excel
Gegeben sei die Realisation x1 , x2 , . . . , xn einer einfachen Stichprobe.
Excel stellt die folgenden Statistiken zur Verfügung.

Stichprobenmittel X =MITTELWERT(x1 ;x2 ;. . . )


Stichprobenstandardab- SX =STABW.N(x1 ;x2 ;. . . )
weichung
Korrigierte Stichproben- SX∗ =STABW.S(x1 ;x2 ;. . . )
standardabweichung
Stichprobenvarianz SX2 =VAR.P(x1 ;x2 ;. . . )
Korrigierte Stichproben- SX∗2 =VAR.S(x1 ;x2 ;. . . )
varianz

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 18 / 25
Verteilung des Stichprobenmittels

Fall 1: Sei X ∼ N(µ, σ 2 ) und sei X1 , . . . , Xn eine einfache


Stichprobe aus X . Dann gilt Standard isierk

Version

m
σ2 X − µ√
" #
X ∼ N µ, und n ∼ N(0, 1) .
n σ
Folie 15 Kap 7 ⇒ Grenz wet sitter

Fall 2: Sei X beliebig verteilt mit E[X ] = µ und V [X ] = σ 2 , sei


X1 , . . . , Xn eine einfache Stichprobe aus X und sei n „groß“
(Faustregel n ≥ 40). Dann gilt

. σ2 X − µ √ appr
" #
appr .
X ∼ N µ, und n ∼ N(0, 1) .
n σ

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 19 / 25
Die t-Statistik und ihre Verteilung

Sei X ∼ N(µ, σ 2 ) und sei X1 , . . . , Xn eine einfache Stichprobe aus X .


Dann bezeichnet man die Statistik
Wean nicht behaaat

{
o
X − µ√
and duh S
't
eat et n ~
then
S∗

als t-Statistik. Ihre Verteilung heißt (Studentsche) t-Verteilung mit


n − 1 Freiheitsgraden.
Besitzt eine Zufallsvariable Z eine t-Verteilung mit n − 1 Freiheits-
graden, so schreibt man kurz: Z ∼ tn−1 .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 20 / 25
Die t-Statistik und ihre Verteilung

Für die Verteilung der t-Statistik gilt also:


/
Satz (Verteilung der t-Statistik) K .
.

,XndN( oh )
,
µ
.

Sei X ∼ N(µ, σ 2 ) und sei X1 , . . . , Xn eine einfache Stichprobe aus X .


Dann gilt
X − µ√ X − µ √. I
n−1= n ∼ tn−1 .
S. S.∗

⇐4=E(

'
y '

5=121 Xi -

E ) SA =
na E ( Xi -
E )

⇐ =L ( Xi -
El
'
ki -
IT
I
\
( 45*1
'
hs =
h - : h ( h .

n )

=s¥1r⇒¥=¥n

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 21 / 25
Eigenschaften der t-Verteilung

Besitzt Z eine t-Verteilung mit ν Freiheitsgraden, Z ∼ tν , so gilt:


t
4=1

Verkilung
-

TZ = R.
Eiihaisgrau 7 fa%"¥EIYs
I
E[Z ] =①
0, falls ν ≥ 2. Für ν = 1 hat Z keinen Erwartungswert.
V [Z ] =
① falls ν ≥ 3. Für ν ≤ 2 hat Z keine Varianz.
ν−2 ,
ν

Für ν → ∞ konvergiert die tν -Verteilung gegen die


N(0, 1)-Verteilung. vet ] i

Das p-Quantil einer tν -Verteilung wird mit tν,p. bezeichnet.


Tabelle der wichtigsten Quantile: Formelsammlung, Tab. B.5, S. 87.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 22 / 25
t-Verteilung in Excel

t-Verteilung in Excel: X ∼ tν

fX (x) =T.VERT(x; ν; FALSCH)

FX (x) =T.VERT(x; ν; WAHR) .

1 − FX (x) =T.VERT.RE(x; ν) recht s von t

P(|X | > x), x ≥ 0 =T.VERT.2S(x; ν) Zwei Sei ti


g
C -

tea e
txt

tν;α =T.INV(α; ν)
tν;1−α/2 =T.INV.2S(α; ν)

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 23 / 25
Dichte der tν -Verteilung, ν = 1, 3, 10

N ( on )
0.4 ✓
Mit when menden 4=10
" -3

Freiheit grader @ hour .


die t Velie
0.3
ng gegen
-
-

,
Chi Standard normal
verkilung Non ) ht

0.2
.

0.1

−4 −3 −2 −1 1 2 3 4

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 24 / 25
Verteilung des Stichprobenanteilswerts .

Satz (Verteilung des Stichprobenanteilswerts)


. Dann gilt
Sei X1 , . . . , Xn eine einfache Stichprobe aus B(1, π).
n
. .
!
nπ̂. = Xi ∼ B(n, π)
i=1
Echt ]= ~
Insbesondere gilt ⇒
ELF ] -
- ECZ.n.it ]=ZE[ hi IT ] -_
E. hit =
IT .
ITH )
. − π) ]=h
Vch .
IT . -
it

π(1
E[π̂] . =
. = .π und V [π̂] .
n
€070
Für große n (Faustregel nπ(1 − π) > 9) gilt
" . #
π(1 − π)
.
.π̂ appr .
∼ N π, .
n

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 8. Grundbegriffe der schließenden Statistik 25 / 25
Überblick

9 Punktschätzung

9.1. Grundbegriffe und Eigenschaften von Schätzern

9.2. Spezielle Punktschätzer

9.3. Maximum-Likelihood-Schätzer

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 1 / 27
Punktschätzung
Problem:

Verteilung von X sei ganz oder teilweise unbekannt.


θ. sei ein unbekannter Parameter der Verteilung (z.B. µ, σ 2
oder π). ( kantele Zahl )

θ ist durch einen Schätzwert zu schätzen.


Die Schätzung geschieht aufgrund einer Stichprobe
X1 , . . . , Xn .
θ wird durch eine Stichprobenfunktion θ̂n (X1 , . . . , Xn ), kurz
θ̂.n oder θ̂,
. geschätzt. θ̂ heißt Schätzer für θ. (θ̂ ist eine
Zufallsvariable!)
Die Realisierung der Stichprobe ergibt einen konkreten
Schätzwert θ̂(x1 , . . . , xn ). (θ̂(x1 , . . . , xn ) ist eine reelle Zahl!)
Schinke
trthealisieunge Zahler

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 2 / 27
Erwartungstreue

Was ist ein guter Schätzer?


Da ein Schätzer eine Zufallsvariable ist, wird man nicht erwarten
können, immer richtig zu schätzen. Allerdings sollte man im Schnitt
richtig schätzen!
Forderung: Ist θ̂ ein Schätzer für θ, so ist eine wünschenswerte
Eigenschaft:
E[θ̂] = θ .

Ein Schätzer mit dieser Eigenschaft heißt erwartungstreu oder


unverzerrt. Die Größe
b(θ̂) = E[θ̂] − θ } Different eatenzwischenWest Erwartuyswert
and dem

heißt Verzerrung oder Bias des Schätzers. E er war


tungsten ⇒
b ( E) = O

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 3 / 27
Asymptotische Erwartungstreue = Minimal
an den
auf
Sahai
ordering
Her

Geht die Verzerrung des Schätzers mit steigendem


Stichprobenumfang gegen Null,

↳ lim E[θ̂.n ] − θ. = 0 ,
n→∞ o
so heißt der Schätzer asymptotisch erwartungstreu oder
asymptotisch unverzerrt.
Von zwei erwartungstreuen Schätzern wird man i.a. denjenigen
bevorzugen, der die kleinere Varianz aufweist.
Ferner sollte die Varianz des Schätzers mit steigendem Macht die

Stichprobenumfang gegen Null gehen, } Schcitzung


priiziser
↳ lim V [θ̂. n ] = 0 , O
n→∞

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 4 / 27
Konsistenz
Ein Schätzer heißt konsistent, wenn er mit steigendem Stichproben-
umfang stochastisch gegen den wahren Wert θ konvergiert, d.h.,
wenn für jedes ϵ > 0 gilt: im
Betray
M class die
Abweiheng
. < .ϵ = 1 , gwrket
! " ,

lim P |θ̂.n − θ| Zum E C x ) Kleiner als E


n→∞ ist Sole =1 Seiu
,

Vgl. hierzu das Schwache Gesetz der großen Zahlen.

Satz (Hinreichendes Kriterium für Konsistenz)


Ist ein Schätzer θ̂
1 asymptotisch erwartungstreu und
2 gilt limn→∞ O
O V [θ̂n. ] = 0,
so ist θ̂ ein konsistenter Schätzer.
I
Umgekehrt ist jeder konsistente Schätzer asymptotisch unverzerrt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 5 / 27
Mittlerer quadratische Fehler 2

ECKat ) =VCx ] CECH al


-
-

Vacianznhrschieswy
-

Eine weitere wichtige Größe zur Beurteilung der Güte eines


Schätzers ist der mittlere quadratische Fehler (engl. mean
squared error): vge# ④ ⑥$ .

MSE(θ̂) = E (θ̂ − θ)2 . VCE Itc ECE =


] -

OT
-
(
Schott feller quadrant b ( o )

Satz
Für den mittleren quadratischen Fehler eines Schätzers gilt:
"
"

viewing
.

banyan
MSE(θ̂) = V [θ̂] + [b(θ̂)]2 .

Im Fall unverzerrter Schätzer ist der MSE also gleich der


Varianz des Schätzers!
=) da bc 0-12=0 USE =)
leiclisichliytberterung
Wd Valiant des Sahcitzevs
da Kevin Voter
rung
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 9. Punktschätzung 6 / 27
Überblick

9 Punktschätzung

9.1. Grundbegriffe und Eigenschaften von Schätzern

9.2. Spezielle Punktschätzer

9.3. Maximum-Likelihood-Schätzer

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 7 / 27
Schätzung des Erwartungswertes

O
Sei X1 , . . . , Xn eine einfache Stichprobe aus X. mit E[X ] = µ
und V [X ] = σO2 .
Zur Schätzung des Erwartungswertes verwendet man das
Stichprobenmittel:
n
1%
X = Xi .
n
i=1

Es gilt
σ2 h- o

E[X ] = µ und V [X ] = .
n
Somit ist das Stichprobenmittel ein erwartungstreuer und
O
konsistenter Schätzer für µ.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 8 / 27
Beispiel: Abfüllanlage
O
X = Füllmenge der Abfüllanlage
Gesucht ist eine Punktschätzung für die mittlere Füllmenge
µ = E[X ] der Abfüllanlage.
Eine Stichprobe vom Umfang n = 10 ergab die folgenden
Füllmengen:
999.0 1001.1 997.9 996.1 996.1
1002.1 997.4 998.0 1000.1 999.6

€! Fo .

( 999 t to on .
n t C .
. . ) ) =
E -

99
kgatafzwuertf.ir

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 9 / 27
Schätzung einer Wahrscheinlichkeit

Sei X1 , . . . , Xn eine einfache Stichprobe aus X mit X ∼ B(1, π).


Zur Schätzung von π verwendet man den
Stichprobenanteilswert:

n
1%
π̂. = X = Xi .
n
i=1

Es gilt
.
π(1 .
− π)
. = π.
E[π̂] und V [π̂]
. = .
n
Somit ist der Stichprobenanteilswert ein erwartungstreuer und
konsistenter Schätzer für π.
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 10 / 27
Schätzung einer Wahrscheinlichkeit

Ziehen der Stichprobe aus einer endlichen GG vom Umfang N,


in der M Einheiten eine Eigenschaft A aufweisen. Der
unbekannte Anteilswert π = M/N ist zu schätzen.
Ziehen mit Zurücklegen liefert einfache Stichprobe. baden

Ziehen ohne Zurücklegen liefert lediglich eine


Sinhvoller
} - Nen ein

Schiitto
Zufallsstichprobe (keine einfache). Die Varianz von π̂. ist dann

.
I
π(1
. − π) N −n
Effi ] =
IT . =
V [π̂] · . an
n N −1

π̂. ist auch in diesem Fall erwartungstreu und konsistent.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 11 / 27
Beispiel: Wahlprognose
Sei .π der unbekannte Stimmenanteil der SPD bei der nächsten
Bundestagswahl.
Gesucht ist eine Punktschätzung für .π.
Eine Befragung von 100 zufällig ausgewählten Wahlberech-
tigten ergab, dass 28 dieser Personen beabsichtigen, bei der
nächsten Bundestagswahl die SPD zu wählen.


rn
of } te
I =

¥o = o ⇒ YIKES ain't
any

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 12 / 27
Schätzung der Varianz
Sei X1 , . . . , Xn eine einfache Stichprobe aus X mit E[X ] = µ0 und
V [X ] = σo2 .
Zur Schätzung der Varianz verwendet man die Stichprobenvarianz
bzw. die korrigierte Stichprobenvarianz:

O
n n
1% 1 %
S. 2 =O (Xi − X )2 bzw. S.∗2 = (Xi − X )2 .
n n−1
i=1 i=1

Es gilt

O
n−1 2
E[S. 2 ] =
n
σ und O
E[S.∗2 ] = σ 2 .

S 2 ist also nicht erwartungstreu, sondern lediglich asymptotisch


O
erwartungstreu. S ∗2 ist hingegen erwartungstreu.
Beide Schätzer sind konsistent.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 13 / 27
Schätzung der Varianz (Herleitung)
E[S 2 ] = ECE Cri - EI ]
=

I .

E C EEC xii -
E D
T en
In E (

oftri
) ( Entre )
=
.

or -
'

IE Coital
How
-

EH
-

=
02 -

o
'

h=
?
o ( h
n−1
= n
· σ2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 14 / 27
Schätzung der Varianz (Herleitung II)
'

E[S ∗2 ] = ECE .
5) =
In .

EEE ] = .hn#.oz=SEGT=o
If
S
' "
=
ITS C Xi -
IT =
In .

IS ( Xi - IT
S
'
=
Verzennt
=
In .
#
#
S
tungsten
= Gwar

bc 5) =
E [ S2 ] -

or =
h or -

or

h #n
=
.
g- -

I o
-

=
o2 .

=
In '
T
-

o
O 5 veszerrt Zo
-
um '


asymptotic erwartungstreee

= σ2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 15 / 27
Schätzung der Standardabweichung
ECM tech

gilt also nor
fir o
'
nicht
fir to = o L Standard abw "
"

!
Sei X1 , . . . , Xn eine einfache Stichprobe aus X mit E[X ] = µ
und V [X ] = σ 2 .
0
Zur Schätzung der Standardabweichung σ verwendet man
sowohl S als auch S ∗ .
Beide Schätzer sind nicht erwartungstreu sondern lediglich
asymptotisch erwartungstreu.
Beide Schätzer sind konsistent.
*. ] for

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 16 / 27
Beispiel: Abfüllanlage

X = Füllmenge der Abfüllanlage


2
& für die Varianz σ = V [X ] und
Gesucht ist eine Punktschätzung
die Standardabweichung σ = V [X ] der Abfüllanlage.

I =
998.74

It
2

; =
9574852 .
38

I ET
s*tiit ✓kf¥h
In E ( Xi I (955-998.74)
'

> S tf ) =
3,6504
.

=
.

=
=
-

ziewn Kwak
s*I =

In

worse
F .

3,6504 = 4. of ,

Sx 1,9106 kohwete Schatz


=

}
Wente
Sx
't
2.
fir
= Omo
o

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 17 / 27
Beispiel: Wahlprognose
Sei .π der unbekannte Stimmenanteil der SPD bei der nächsten
Bundestagswahl.
Eine Befragung von 100 zufällig ausgewählten Wahlberech-
tigten ergab, dass 28 dieser Personen beabsichtigen, bei der
nächsten Bundestagswahl die SPD zu wählen.
Gesucht ist eine Punktschätzung für die Standardabweichung
der Punktschätzung π̂.
.

h = 100 IT = 0.28

⇒ VCI J

=

tT(f =
0.28 ( A

To
-
0.28 )
=
0,002016
Schcitzuny
to die

Variant

the
Y:
'T÷ia amgtvooorono ugugozsewunpra.ae
③ Abweihung Von

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 18 / 27
Überblick

9 Punktschätzung

9.1. Grundbegriffe und Eigenschaften von Schätzern

9.2. Spezielle Punktschätzer

9.3. Maximum-Likelihood-Schätzer

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 19 / 27
Konstruktion von Schätzern

Die obigen Schätzer sind zwar plausibel, fallen jedoch in


gewisser Weise vom Himmel.
Welche allgemeinen Methoden gibt es, um bei einem
gegebenem Schätzproblem einen geeigneten Schätzer zu
finden?

Momentenmethode
Maximum-Likelihood-Methode
Methode der kleinsten Quadrate

Im folgenden: Kurze Einführung in die wichtigste der drei


Methoden, die Maximum-Likelihood-Methode.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 20 / 27
Maximum-Likelihood-Methode

Beispiel (Produktion von Sicherungen): Eine produzierte

:
Sicherung sei mit Wahrscheinlichkeit π defekt. Das Merkmal in
der GG ist also B(1, π)-verteilt.
Bei einer Stichprobe vom Umfang n = 10 werden k = 2 defekte
Sicherungen festgestellt.
Frage: Wie wahrscheinlich ist dieses Ergebnis?
Sei X die Anzahl defekter Sicherungen in der Stichprobe,
X ∼ B(10, π). Die gesuchte Wahrscheinlichkeit ist
' (
10 2
P(X = 2) = π (1 − π)8 .
2
W ke 't
abhcing
.

g
von ⑤

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 21 / 27
Maximum-Likelihood-Methode

Beispiel (Produktion von Sicherungen): Die gesuchte


Wahrscheinlichkeit hängt (natürlich!) von dem unbekannten
Parameter ab.

π 0.05 0.10 0.15 0.20 0.25 0.30 0.35

O
P(X = 2) 0.0746 0.1937 0.2759 0.3020 0.2816 0.2335 0.1757

Für z.B. π = 0.05 oder π = 0.35 ist das beobachtete Stichproben-


ergebnis relativ unwahrscheinlich!
Frage: Für welches π hat das beobachtete Ergebnis die größte
Wahrscheinlichkeit?

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 22 / 27
)10*
ML-Methode: Plot von 2 π 2 (1 − π)8

0.3

n
beobachkles Eye Suis
ist am wahrsdeinlichslen ,

Wenn IT "
=
20.1 . =
0,2

0.2 ⇒ Der Wert fir den die

Stichprobenwlkeit am

yr Bien ist

0.1

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 23 / 27
Maximum-Likelihood-Methode

Beispiel (Produktion von Sicherungen):


In diesem Beispiel besitzt das beobachtete Stichproben-
ergebnis für π = 0.2 die größte Wahrscheinlichkeit!
Also ist π̂ML = 0.2 (in gewisser Weise) die plausibelste
Schätzung für das unbekannte π.
Das ist das allgemeine Vorgehen der Maximum-Likelihood-
Methode.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 24 / 27
Maximum-Likelihood-Methode

Verteilungsannahme: Verteilung von X ist bekannt bis auf


einen unbekannten Parameter θ. Die Wahrscheinlichkeits-
funktion bzw. Dichte von X sei fθ .
X1 , . . . , Xn sei eine einfache Stichprobe aus X , x1 , . . . , xn deren
konkrete Realisierung.
Bilde die sogenannte Likelihoodfunktion:

. = fθ. (x.1 ) · . . . · fθ. (xn. ) .


L(θ)

Dasjenige θ,. für das die Likelihoodfunktion maximal wird, ist der
Maximum-Likelihood-Schätzer, kurz ML-Schätzer, θ̂ O für θ.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 25 / 27
Einige ML-Schätzer

Verteilungsannahme Parameter ML-Schätzer

X ∼ B(1, π) π π̂ML = π̂ = XO
X ∼ Po(µ) µ O
µ̂ML = X
X ∼ Exp(λ) λ O
λ̂ML = 1/X
X ∼ N(µ, σ 2 ) µ O
µ̂ML = X

83
X ∼ N(µ, σ 2 ) σ2 2 = S2
σ̂ML
X ∼ N(µ, σ 2 ) σ σ̂ML = S

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 26 / 27
Eigenschaften von ML-Schätzern

ML-Schätzer besitzen schöne Eigenschaften. Unter gewissen


schwachen Annahmen sind ML-Schätzer:

asymptotisch erwartungstreu,
konsistent,
asymptotisch normalverteilt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 9. Punktschätzung 27 / 27
Überblick

10 Intervallschätzung

10.1. Grundbegriffe der Intervallschätzung

10.2. Spezielle Intervallschätzer

10.3. Mindeststichprobenumfang

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 1 / 24
Intervallschätzung

Problem:

Verteilung von X sei ganz oder teilweise unbekannt.

:
θ sei ein unbekannter Parameter der Verteilung (z.B. µ, σ 2
oder π).
θ ist durch ein Intervall reeller Zahlen zu schätzen.
Die Schätzung geschieht aufgrund einer Stichprobe
X1 , . . . , Xnb.
.θ wird durch zwei Stichprobenfunktionen

θ̂.u (X1 , . . . , Xn ) und θ̂.o (X1 , . . . , Xn )

kurz θ̂.u und θ̂o. geschätzt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 2 / 24
Intervallschätzung

Das zufällige Intervall


"
lrnbekahnte
θ̂.u (X1 , . . . , Xn ), θ̂o. (X1 , . . . , Xn )
!
Parameter

m
heißt Intervallschätzer oder Konfidenzintervall (KI) für θ.
Die Realisierung der Stichprobe ergibt ein konkretes
Konfidenzintervall Obere
where

Greuze Greuze "


θ̂.u (x1 , . . . , xn ), θ̂.o (x1 , . . . , xn )
!

Realising , d. h .

die
eigentlieen Wente

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 3 / 24

ZV mehr

Konfidenzniveau E. B PC 66 of ctu →

I ill
Wlkeit

, wenn Fin Intervale


" " " " " " " t

Ff
" " "

Sei [θ̂u. , θ̂o. ] ein Intervallschätzer für θ. Gilt

ok I
?:
✓ "

# $
P θ̂.u (X1 , . . . , Xn ) ≤ θ. ≤ θ̂.o (X1 , . . . , Xn ) = 1 − α , bei den Grenon

liegen Soll

fein
=

so heißt [θ̂. u , θ̂o. ] Konfidenzintervall zum Konfidenzniveau 1 − α. Id R


y
.

Votrggebuh
Das Konfidenzniveau bezieht sich auf das Verfahren, nicht auf
ein konkretes Konfidenzintervall!
Bei gegebenem Konfidenzniveau 1 − α soll ein
Konfidenzintervall möglichst klein sein.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 4 / 24
Überblick

10 Intervallschätzung

10.1. Grundbegriffe der Intervallschätzung

10.2. Spezielle Intervallschätzer

10.3. Mindeststichprobenumfang

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 5 / 24
KI für µ einer Normalverteilung, σ 2 bekannt

X ∼ N(µ, σ.2 ), X1 , . . . , Xn einfache Stichprobe aus X ,


σ 2. bekannt.

Konfidenzintervall für µ zum Konfidenzniveau 1 − α


% &
σ σ
X. −
O u1− O
α √ , X. +
O u1− √
O
α
2 n 2 n

F =
Punhtschiitzefii M =
Mithepuhht des Intervals

Standard des Runkles


abweichung chitters
=

Quant
4- E =
geeignet gewiihlks
't

=)
kofidenzhiveau
gropers
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 10. Intervallschätzung 6 / 24
C
.

A
qui valent
uniforming
unten )

µ
Herleitung: KI für µ einer Normalverteilung
PC -

on
-

E)
= Eh .
-

E) -

ICKE ) Inner .
I

.EE#rnE4
/

Symmetric .

bedingung 1−α
.

Th ~ NC 0.1 )

is
Wlheit dass
,

F-F.fi Zwischen
Wenn o deck
denlnkrvalegren.im S 't
ersetzt
liegt r a L
-

- -

F¥- in - th .
a

⇒ danh arch

Verleilung cinders

−u1− α2 u1− α2
u
ez
= .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 7 / 24
durch Aqui
=
valen zum for = bleibt immer = A -
a

mung
Herleitung: KI für µ einer Normalverteilung
X − µ√
PC −u1− α ≤ n ≤ u1− α2 ) IE
2 σ

⇐ PL
In E- u Eun En )
-

on € E
-

X
I
-
-
s

⇒ PC

I
ur
Iz
- -
-

Enn E e Eth I
-

y
-
-

I .

fr )
PC EFF I Ft F-

Z Us
un µ E E )
-
-

⇐ PCF
EE
em
Ft
un E
- -

un
E # ) A
-

=
-2
-
⑦ (u) -
Elo )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 8 / 24
Beispiel: Abfüllanlage
X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 = 22 )
Gesucht ist ein Konfidenzintervall für die mittlere Füllmenge
µ = E[X ] zum Konfidenzniveau 95%. ⇒ y 2=1 -
-

O .
95 =
2=74--0.05
Us V1

998.74
-

0.025=00.975
= -

Eine Stichprobe vom Umfang n = 10 ergab die folgenden W


Tabuk
Füllmengen: S .

85
1196

999.0 1001.1 997.9 996.1 996.1


1002.1 997.4 998.0 1000.1 999.6

&
to Xi ⇒I

997.5
gtgf
=

Fa ] .

YTIftaeremksfgo.ay-n.gs#o,eue9so.74tn.s6
[
Kofindenzintrvall
=
ggg ,
,

⇒ Wike 't
,
class disses Interval
Kouf .

intervale der wahren Parameter


ehthcitt , ist 951

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 9 / 24
KI für µ einer beliebigen Verteilung, σ 2 bekannt

X1 , . . . , Xn einfache Stichprobe aus X , E[X ] = µ, V [X ] = σ 20 O


σ 2 bekannt.
O
n hinreichend groß (Faustregel: n ≥ 40).

Approx. Konfidenzintervall für µ zum Konfidenzniveau 1 − α


% &
n σ σ
F X − u α √ , X + u
1− 2
n
α √
1− 2
n

Bemerkung: Es handelt sich lediglich um ein approximatives


Konfidenzintervall, d.h. die Überdeckungswahrscheinlichkeit für
µ ist nur ungefähr 1 − α.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 10 / 24
KI für µ einer beliebigen Verteilung, σ 2 bekannt

0 V [X ] = σ0 2
X1 , . . . , Xn einfache Stichprobe aus X , E[X ] = µ,
σ.2 bekannt.

Tschebyscheff-Konfidenzintervall für µ
σ.
% &
σ.
X−√ , X+√
nα. nα.
⇐ It
E3 :c:
Bemerkung: Das tatsächliche Konfidenzniveau des
Tschebyscheff-KI ist mindestens 1 − α, d.h. }i. d. R Sehr briles Interval ,

lemures Wenn nicht anders Sinnvoller


ist
'
σ.
(
σ.
P X−√ ≤ µ. ≤ X + √ ≥ 1− α.
nα. nα.

In der Regel ist dieses KI größer als das approximative KI!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 11 / 24
the by F
scheff
fir

PC IF -

u KE ) Zi -
E
T
=P ( I

E I e) 21
me
a -


-
-

1-2
mind .

grop
02
= &
h

E-
.
⇒ e

⇐ > E =

→ PCI -

Es gu
a
Era ) z a - a
} feat
III.
Beispiel: Abfüllanlage

X. = Füllmenge der Abfüllanlage


Wir nehmen wieder σ = 2 an, gehen aber nicht mehr davon
aus, dass die Füllmenge normalverteilt ist!
Gesucht ist ein Konfidenzintervall für die mittlere Füllmenge
µ = E[X ] zum Konfidenzniveau 95%. Forme Ft : on
.

A = I -
O 95 = O 05 h = to

I
} Invent
.
.

{I
2
so "

!
.

ggo.ae , ±
O .
05 .

10

Kl :[ 995.9ns
; noon .

5684 ) ( Intervale
groper
IS Normal vote
lung )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 12 / 24
KI für µ einer Normalverteilung, σ 2 unbekannt
X ∼ N(µ, σ.2 ), X1 , . . . , Xn einfache Stichprobe aus X ,
σ 2 unbekannt.

Konfidenzintervall für µ zum Konfidenzniveau 1 − α


S.∗
! "
S. ∗
X. − tn−1,1− α2 √ , X. + tn−1,1− α2. √
. .n n.

Merkregel: Ersetze σ. durch den Schätzer S. ∗ und die Quantile


der NV durch die der t-Verteilung.
Alternative Darstellung des Konfidenzintervalls:

S.
! "
S.
X − tn−1,1− α2 √ , X + tn−1,1− α2 √
n−1 n−1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 13 / 24
Beispiel: Abfüllanlage

X. = Füllmenge der Abfüllanlage, X ∼ N(µ, σ. 2 )


Jetzt sei σ.2 unbekannt!
Gesucht ist ein Konfidenzintervall für die mittlere Füllmenge
µ = E[X ] zum Konfidenzniveau 95%. \

I =
998.74
=) o
'
ist arsed aunt
h = 10

S )
tho
9=1-2--1-905
[ I
=
orgs
th I It y
-

1-
n
, fun
q
-

, , -

998.74 -
n
,
A -

OIL .

o
=
998.74 I
tg ,
o gzs 2,0^90
Siete
. .

212622€07
S 8 't
Tubule .

= 998.79 t 1,9408

KI I 9942992 ; 1000,1808 ]

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 14 / 24
KI für µ einer beliebigen Verteilung, σ 2 unbekannt

X1 , . . . , Xn einfache Stichprobe aus X , E[X ] = µ, V [X ] = σ 2


σ 2 unbekannt.
n hinreichend groß (Faustregel: n ≥ 40).

Approx. Konfidenzintervall für µ zum Konfidenzniveau 1 − α

~n5
! "
S∗ S∗
X − u1− α2 √ , X + u1− α2 √
n n
d
'

Merkregel: Ersetze σ durch den Schätzer S∗.


In Hi -

El

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 15 / 24
Konfidenzintervalle für µ

σ 2 bekannt σ 2 unbekannt

88
σ S∗
X normalverteilt θ̂u,o = X ∓ u1− α2 √ θ̂u,o = X ∓ tn−1,1− α2 √
n n

X beliebig vert., σ S∗
θ̂u,o = X ∓ u1− α2 √ θ̂u,o = X ∓ u1− α2 √
n ≥ 40 n n


X beliebig vert., 1 σ
θ̂u,o = X ∓ √ √
n < 40 α n

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 16 / 24
Approximatives KI für π

X ∼ B(1, π), X1 , . . . , Xn einfache Stichprobe aus X.


n hinreichend groß (Faustregel: nπ̂(1 − π̂) > 9).

Approx. Konfidenzintervall für π zum Konfidenzniveau 1 − α


# $ $ %
π̂(1 − π̂) π̂(1 − π̂)
π̂ − u1− α2 , π̂ + u1− α2
n n

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 17 / 24
Beispiel: Wahlprognose

,[
Sei π. der unbekannte Stimmenanteil der SPD bei der nächsten
Bundestagswahl.
Eine Befragung von 100 zufällig ausgewählten Wahlberechtigten
ergab, dass 28 dieser Personen beabsichtigen, bei der nächsten
Bundestagswahl die SPD zu wählen.
Gesucht ist ein Konfidenzintervall für den Stimmenanteil π der SPD
zum Konfidenzniveau 1 − α = 0.95.
hit ( A fi ) yoo g. 0,72
-

20,16 g ✓ Fa Shego
=
.

o
= > .

bf t
h =
too IT =
My = A -
2=0,95

µ 28
=)
=

L =
Oc 05

[ 0.2814 -
o .us
.

)
Tabelle
£9,6

.

[ UO.gr ¥167 ]
=
0.28 I
'S
.

=
C 0,28 I 0,08804 ] ✓
honkie :

[ 0,1920 ; O .
3680 ]

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 18 / 24
Überblick

10 Intervallschätzung

10.1. Grundbegriffe der Intervallschätzung

10.2. Spezielle Intervallschätzer

10.3. Mindeststichprobenumfang

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 19 / 24
Länge eines Konfidenzintervalls

Die Länge eines Konfidenzintervalls nimmt ab bei

abnehmendem Konfidenzniveau, Nivea kleine ,


dam aber
Parameter
arch W' kit

fin gehauen geringer


I zunehmendem Stichprobenumfang,
Mehr
( information u
abnehmender Streuung der GG (bei KIs für µ).
ggeseu
↳ Kaun nicht Veinlet werden
ist
gegebeu ,

Bei vorgegebenem Konfidenzniveau ist eine Verkleinerung des


Konfidenzintervalls nur möglich, wenn der Stichprobenumfang
erhöht wird!
Wie groß muss der Stichprobenumfang mindestens sein, damit
das KI eine vorgegebene Länge nicht überschreitet?

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 20 / 24
Mindeststichprobenumfang
.
Die vorgegebene Länge des Konfidenzintervalls sei 2b.

KI für µ. einer Normalverteilung, σ.2 bekannt:


TIME ⇒ 2
u1− α σ.
2
2
nmin = .
b2

KI für µ. einer beliebigen Verteilung, .σ 2 bekannt:


I
& 2
u1− 2'
ασ
nmin = max 40, 2
.
kindest map L
=
b2 Oben

y
Fasttegilfiir approx .

Falls σ 2. unbekannt, ersetze σ.2 durch eine geeignete


Schätzung! ( S 't ) I. ZECK IT -

-
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 21 / 24
Beispiel: Abfüllanlage
X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 = 22 )
Gesucht ist ein Konfidenzintervall für die mittlere Füllmenge µ = E[X ]
zum Konfidenzniveau 95%. A -
L =
0,95

⇐ 7 & = 0105

Wie groß muss der Stichprobenumfang mindestens sein, damit das


gesuchte Konfidenzintervall eine Länge von höchstens 1ml hat?
Trainee
O IIE
!
Forme
.
,

:
ui -

E.
a
bores
yep
4962.2
'


=

b-
o . -5

61,47
.

Ab h 261 ,
a. h .
hi 62

dann Garate ,
das KI hoicks lens

1 me

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 22 / 24
Mindeststichprobenumfang
KI für eine unbekannte Wahrscheinlichkeit π: Brute des KI E⑤

Fausta gel -
) 2
u.1− ∗ (1 − π.∗ )
..
& '
απ
.

> 9
9
TT
n . # Ch -

I 2
⇒ h >

tail
nmin = max , .
π. ∗ (1 − π.∗ ) b.2
on
Faushegel er t

Hierbei ist π.∗ eine geeignete Schätzung für π,


. die unabhängig
von der zu erhebenden Stichprobe gewonnen wurde.

1¥ eine borsch ttunf

emir vcnab
Aus

entuommeuen Stich probe

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 10. Intervallschätzung 23 / 24
Beispiel: Wahlprognose
Sei π der unbekannte Stimmenanteil der SPD bei der nächsten
Bundestagswahl. gewoaune
Stich probe
Krab
f)
Eine Befragung von 100 zufällig ausgewählten Wahlberechtigten 't

ergab einen Schätzwert von 28%. IT = 0.20

In einer zweiten Befragung in einer Woche soll ein Konfidenz-


intervall zum Konfidenzniveau 95% bestimmt werden, das eine Länge
von höchstens 2 Prozentpunkten hat. Wie viele Personen müssen
mindestens befragt werden? 425-0102 ✓
I
1- 4=0195
⇐ I b =
0,01
⇒ a
I .
Formed :

g
=
4416928 Ifaf ban baden
0,270,72
Werther Curfew

&
2. Forme

Uo¥If
: -
496
Formel
42 THA 'T
I IT
(
-

Un
-

0,28 0,72 )
oozts 774416656
.

0,20lb
.

= .
=
2
b
0,042 0.01

27745
Also-
h

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik . Universität zu Köln


WS 2018/19 10. Intervallschätzung 24 / 24
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 1 / 58
Parametertests
Problem:

Verteilung von X. ist bekannt bis auf einen (oder mehrere)


unbekannten Parameter θ. (z.B. µ, σ 2 oder π).
Es sollen bestimmte Annahmen (Hypothesen) über θ überprüft
werden.
Die Überprüfung geschieht aufgrund einer Stichprobe
X1 , . . . , Xn .
Aus der Stichprobe wird eine Statistik die sogenannte Testgröße

T (X1 , . . . , Xn )

oder kurz T. berechnet.


Liegt die konkrete Realisation T (x1 , . . . , xn ) in einem kritischen
Bereich wird die zu überprüfende Hypothese abgelehnt.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 2 / 58
Beispiel: Abfüllanlage

X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 = 22 )


Eine Verbraucherschutzorganisation möchte die Hypothese
überprüfen, dass die mittlere Füllmenge µ = E[X ] mindestens
gleich dem Normwert 1000ml ist.
Eine Stichprobe vom Umfang n = 10 ergab einen
Stichprobenmittelwert x = 998.74.
Frage: Kann diese Abweichung nach unten noch auf den Zufall
zurückgeführt werden (zufällige Abweichung) oder wird die
Normmenge 1000ml systematisch unterschritten (signifikante
Abweichung)?

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 3 / 58
Beispiel: Abfüllanlage
Nahe liegend ist die folgende Entscheidungsregel zur
Überprüfung der Hypothese „µ ≥ 1000“:

Lehne die Hypothese „µ ≥ 1000“ ab, wenn X < o


k ist.

Hierbei heißt k kritischer Wert. k muss noch geeignet bestimmt


werden.
Frage: Wie groß ist die Wahrscheinlichkeit, dass die


Normdlverleill
F- on
go
I
Hypothese abgelehnt wird? Wfm ) ,

!
22
Antwort: Hängt von dem unbekannten µ ab! Da X ∼ N µ, 10
"
-
ist, gilt $ EEE rn )
.

#
k − µ√
. =Φ
P(X < k) 10 .
2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 4 / 58
Beispiel: Abfüllanlage OI ( x )
=p
⇐ F-
up

¥
Forderung: Wenn die Hypothese „µ ≥ 1000“ zutrifft, sollte sie
höchstens mit einer Wahrscheinlichkeit von 5% abgelehnt
werden:
# $
k − 1000 √
P(X < k) = Φ 10 = 0.05
2 or h

k − 1000 √
⇐⇒ 10 = u0.05
1,644g
2
-

2
⇐⇒ k = 1000 + u0.05 √ = 998.96
10
Mk
Da der Stichprobenmittelwert x = 998.74 kleiner als 998.96 ist,
würde man die Hypothese „µ ≥ 1000“ ablehnen.
w i
Kei f dass Fell ( These abgelehut )
abe wird Un recht
ang
, u

lie gt bi mat 5 t .

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 5 / 58
Testproblem, Hypothesen

θ = unbekannter Parameter
Θ = Parameterraum = Menge aller möglichen
Parameterwerte
Θ0 , Θ1 zwei disjunkte Teilmengen des Parameterraumes
Testproblem: H.0 : θ ∈ Θ0 O
gegen H1. : θ ∈ Θ1 .
H. 0 heißt Nullhypothese, H1 Gegenhypothese oder
Alternative.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 6 / 58
Beispiel: Abfüllanlage

Im Beispiel Abfüllanlage ist:

θ = µ Erwartungswert der Füllmenge,

:O
Θ = R (auch wenn µ < 0 im Beispiel wenig sinnvoll ist),
Θ0 = [1000, ∞[,
Θ1 =] − ∞, 1000[,

Ot
Fcihftlei tooo an

i.
Nullhypothese H0 : µ ∈ [1000, ∞[,

(
Gegenhypothese H.1 : µ. ∈] − ∞, 1000[. Zgendetbei tooo

Eine einfachere Schreibweise für die Hypothesen ist

H0 : µ ≥ 1000 o bzw. H.1 : µ. < 1000

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 7 / 58
Gängige Hypothesenpaare

Zweiseitiges Testproblem:
iif
¥
H0 : θ = θ0 gegen H1 : θ ̸
= θ0

Einseitige Testprobleme:

lil H0 : θ ≤ θ0 gegen H1 : θ > θ0


lil H0 : θ ≥ θ0 gegen H1 : θ < θ0

lil if
lil
¥ tie
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 11. Hypothesentests 8 / 58
Test

Ein Test ist ein statistisches Verfahren, um in Abhängigkeit von


der Stichprobe zu überprüfen, ob H.0 zugunsten von H.1
abgelehnt werden kann oder nicht.
Ein Test für ein bestimmtes Problem wird definiert durch

eine Prüf- oder Testgröße T (X1 , . . . , Xn ) und


eine Menge K ⊂ R den sogenannten kritischen Bereich.

Entscheidungsregel:

T (X1 , . . . , Xn ) ∈ K =⇒ H0 wird abgelehnt,


T (X1 , . . . , Xn ) ∈
/K =⇒ H0 wird nicht abgelehnt.
=/ Best
aligning
de rule hypotheses
=) heine Hinweise ,
class dies e
angehommeh
heine
Ablehhuuy !

ledighih
wird ,

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 9 / 58
Beispiel: Abfüllanlage

Testproblem: No No
M ~

H.0 : µ ≥ 1000 gegen H1. : µ < 1000


% &' ( % &' (
Nullhypothese Gegenhypothese

Testgröße: T. (X1 , . . . , Xn ) = X.
Aktueller Wert der Testgröße: x = 998.74 -

Kritischer Bereich: { t | t < 998.96 }


Entscheidungsregel: H.0 wird abgelehnt, wenn x < 998.96
Testentscheidung: H. 0 wird abgelehnt zugunsten von H.1

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 10 / 58
Konak To desecrate beko armen :

Fehler 1. und 2. Art


Aage Hagler
Beispiee
.

Hinrich obwohl nicht Schul


Ho Schut
dig Feller A Art
tung dig
}
:
:
.

Schuld
Hn nicht Schue
dig fewer 2 Art
Freispruch obwohe
ig
:
:
.

( So Schlimm )
gaut
nicht

Bei einem Test können zwei Arten von Fehlern auftreten:

Testentscheidung
' H0 ablehnen H0 nicht ablehnen
L / ⑥
n

H0 richtig Fehler 1. Art kein Fehler


H0 falsch kein Fehler Fehler 2. Art

Fehler 1. Art: H0 ablehnen, obwohl H0 richtig ist.


Fehler 2. Art: H0 nicht ablehnen, obwohl H0 falsch ist.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 11 / 58
Fehler 1. und 2. Art

Die maximale Wahrscheinlichkeit für einen Fehler 1. Art wird mit


α. bezeichnet. α heißt auch Signifikanzniveau oder Niveau des Tests.
Ist die Nullhypothese einelementig, H0 : θ = θ0 , so ist α. gegeben
durch
α. = P T. (X1 , . . . , Xn ) ∈ K. ∥ θO
) *
0

Dies gilt auch bei Nullhypothesen der Form H0 : θ ≤ θ0 oder


H0 : θ ≥ θ0 .
Der kritische Bereich eines Tests wird i.a. so festgelegt, dass das
Niveau α des Tests vorgegeben wird. Einen solchen Test mit
vorgegebener Fehlerwahrscheinlichkeit α nennt man Signifikanztest.
Die maximale Wahrscheinlichkeit für einen Fehler 2. Art wird mit β.
bezeichnet. B Kann hou nicht troll int burden

A
p
a
=) off ist = -

( nicht immer )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 12 / 58
Beschreibung von Tests

Allgemeines Vorgehen bei Signifikanztest:


ggt ibuprofen
Formulierung der Verteilungsannahme
.

1
µ ⇒ dart Test
werden ?
2 Formulierung von Null- und Gegenhypothese Uugewehdet

3 Vorgabe des Signifikanzniveaus α


4 Berechnung des konkreten Werts der Testgröße
5 Prüfung, ob die Testgröße im kritischen Bereich liegt
6 Formulierung der Testentscheidung

Wir beschreiben Tests tabellarisch durch Angabe der


Verteilungsannahme, der Hypothese, der Testgröße und des
kritischen Bereichs.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 13 / 58
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 14 / 58
Tests für µ, wenn σ 2 bekannt ist (Gauß-Tests)

iid
Verteilungsannahme X1 , . . . , Xn ∼ N(µ, σ 2 ) , σ 2 bekannt
Nullhypothese H 0 : µ = µ0 H 0 : µ ≤ µ0 H 0 : µ ≥ µ0
Gegenhypothese H1 : µ ̸
= µ0 H1 : µ > µ0 H1 : µ < µ0
Falls ist
Stan di since f- Mo ,

Test Be X − µ0 √ ist F-
Efron neon ,

Teststatistik gu T = n
σ Daan
=) ist die Test gripe
Verte .lt
Standard normal
-
-

H0 ablehnen, wenn |T | > u1− α2 T > u1−α T < −u1−α


2
Seliger Test

Wenn X nicht normalverteilt ist, aber n hinreichend groß ist, gelten


÷ ein Sei
tiger
Test

obige Tests approximativ; Faustregel: n ≥ 40.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 15 / 58
Bei

To
Abf
Spiel Haulage
:

Ho ab lehnen wenn
Un

Fa
-

, -
a

⇐ F- no in a .

on -
a
I

g-
.


I -

no
c -

on - a
.
I
thro
⇐ s
Ecmo -

un -

a
.

In

F- Ho falls
htscheiduugsregel ablehheh
:
:
,

Test
in
erle
Un gripe
-

Standard
< -
a

standard
I L
Mo
.

Un y En nicht Test
isirk
grope
-

the .

Fun
=
-
a
¥iN
Kritischer Bereich: Illustration

?
Falls retro ÷E?E ÷÷÷
.
:

fo
X
-

Munro .nl

×-s in - mom

α α
2 2

−u1− α2 u1− α2

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 16 / 58
Beispiel: Abfüllanlage
X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 = 20
2
)
Eine Verbraucherschutzorganisation möchte die Hypothese
überprüfen, dass die mittlere Füllmenge µ = E[X ] mindestens gleich
dem Normwert 1000ml ist.
Eine Stichprobe vom Umfang n = 10 ergab einen Stichproben-
mittelwert x = 998.74.
Führen Sie einen geeigneten Test zum Niveau α = 0.05 durch.
Art des Tests: Gaup -
Test

Hypothesen: Ho :

µ
21000 th :p
Lt 000 :
-

Mo
T
990.74
No
1000

T=F- Jf
-

Teststatistik: ggzz
.

=
-
n
.
,
=

kritischer Bereich: Tc -
Un -
a = -

Uo .gg
= -

1,644g
&
T ist Kleiner

Testentscheidung: Ho wird
abgelehut
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 17 / 58
Tests für µ, wenn σ 2 unbekannt ist (t-Tests)
Sit -

a
Inno
iid
Verteilungsannahme X1 , . . . , Xn ∼ N(µ, σ 2 ) , σ 2 unbekannt
Nullhypothese H 0 : µ = µ0 H 0 : µ ≤ µ0 H 0 : µ ≥ µ0
Gegenhypothese H1 : µ ̸
= µ0 H1 : µ > µ0 H1 : µ < µ0

X − µ0 √ X − µ0 √
n − 1 }t
Statistic
Teststatistik T = n=
-

S ∗ S
H0 ablehnen, wenn |T | > tn−1,1− α2 T > tn−1,1−α T < −tn−1,1−α
Quantile der T
Vetting hit h A Freiheit
graden
-

T~ th falls Ho zutnfft
a
,
.

bun µ
-
Go

Wenn X nicht normalverteilt ist, aber n hinreichend groß ist, gelten


.

obige Tests approximativ; Faustregel: n ≥ 40.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 18 / 58
Beispiel: Abfüllanlage
X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 ), σ 2 unbekannt.
Eine Verbraucherschutzorganisation möchte die Hypothese
überprüfen, dass die mittlere Füllmenge µ = E[X ] mindestens gleich
dem Normwert 1000ml ist.

§
Eine Stichprobe vom Umfang n = 10 ergab einen Stichprobenmittel-
wert x = 998.74 und eine korr. Stichprobenvarianz sX∗2 = 4.0560.
www.ziehenfii
Führen Sie einen geeigneten Test zum Niveau α = 0.05 durch. 't
S
t Test da ol anbekanat
Art des Tests:
-

Ho Hn M ) 1000
Hypothesen: 421000
:

TO
Teststatistik: Fjo in 998.74-10002 Mno 1,9784 -
-
= =
-

. .

. RE

-1,83313mW
-1,8331M
.

kritischer Bereich: Tc -

th -
a
,
A -

a = To -

tgio.gs =

Testentscheidung: Ho ablehnen , da TL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 19 / 58
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests .

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 20 / 58
Gütefunktion

Die Wahrscheinlichkeit die Nullhypothese abzulehnen hängt


(natürlich) vom unbekannten Parameter θ ab. Die Funktion

G : Θ → [0,! 1] , "
θ (→ P T (X1 , . . . , Xn ) ∈ K ∥ θ
- lehnen
Abw
When 't Nell
hypotheses
heißt Gütefunktion des Tests.
,

0
Vcraussettung
center der

Man kann α und β durch die Gütefunktion ausdrücken:


Sup = ma "

Subtile Different Max Max

Zurn vehachliissigm α = sup G(θ) und β = sup [1 − G(θ)]


θ∈Θ0 θ∈Θ1

Die Gütefunktion sollte auf der Nullhypothese klein und auf der
Alternative groß sein!

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 21 / 58
Ant
Feller 1. Art Fewer 2.

Gütefunktion: Illustration
:
:

abwlehuen these nicht ablehheh


. Null hypotheses truelhypo ,

obwohl Sie Zu th
.

fft Sie
obwohl fat Sch ist

=) hochslens a

( also mat 0.05 )


1.0
Ideale Gütefunktion
0.9

GCH
P match -

0.8 On

Coco
-0 E

0.7

i.d.RS/ehgeFunahohd-- Ws. f. Fehler 2. Art )


A
0.6
=
-

0.5 Reale Gütefunktion


0.4
Max Got
0.3
① E
Q Hot Fewer

0.2 I .
Art wind

¢ begreuzt
durch X

0.1 ideal

Ws. f. Fehler 1. Art Gitrfht .

Fc -00 O_0
H1 H0 f I Go

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 22 / 58
Beispiel: Abfüllanlage

X = Füllmenge der Abfüllanlage, X ∼ N(µ, σ 2 = 2.2 )


Eine Verbraucherschutzorganisation möchte die Hypothese
überprüfen, dass die mittlere Füllmenge µ. mindestens gleich dem
Normwert 1000ml ist. Ho µ I tooo :
Hn shoo :
u

Eine Stichprobe vom Umfang n = 10 ergab einen Stichproben-


mittelwert x = 998.74.
.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 23 / 58
Beispiel: Abfüllanlage
a Bestimmen Sie die Gütefunktion des Gauß-Tests (α = 0.05).
Ho :

MI Mo tin :p quo

Hr
Gcn ) =
PC Ho
ablehuenHpTtunkrderbcraussetzuy@ezyzigeFPCF-oI.r
ur on ) Folie a
-
-
a
is

nach ④

uniforming
PCE Fall µ,

Firm
=
-
no
-
Un -
a.

OI
( Fa t
un
no
)
= - -
a. -

÷
allgemeine Gilufunklion
OI Thi Un a
)
tiger Gap
=
Sei tests
-
-

von ein

oI(doozE -
Voss )
=
OIC 100¥ ft 464431
.

.
-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 24 / 58
Beispiel: Abfüllanlage
b Wie groß ist die maximale Wahrscheinlichkeit für einen Fehler 1.
Art? µ= 1000 Set
'

I Len :
o =

gegeben = 1000
TO

)
1000

in
=
µ
un
OI ( MEI a
-

neo
. -

Nebeutahnuug
:
=
IO ( 1000-2-1000 .

Myo .
uo.gg )
T
t OIG 644g)
-

=
OIL Uo )
I
.gs
A 0.9495
= -

) 9=0.0505
OI
=
=
f. 644g 0.0505
=
5,051
=

( Test war beets hit


Significant
hive au

Von 2=0105 Ashmont

c Wie groß ist die Wahrscheinlichkeit für einen Fehler 2. Art, wenn
µ. tatsächlich gleich 999ml ist?
Formel :

y .
GC ggg )
Got
f- A
A Fewer 2. Art
geht gegen
=1 OI
( 100029592 Do ;
Vroom
) beg hiker
-

1- je
an 1000
-

= A -
OIFZ
Do -1,644g ) .
( hier 951 )

=t OIL -

0.0638 ) tofu ) # A -

Itu ) Symmetric
-

OI ( 0.0638 ) Bedingungen
=

2. Feuer
What fir
= O . 523g ✓ } iber 501
fire -
-

yyg

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 25 / 58
Gütefunktionen des einseitigen Gauß-Tests
Bsf
:

X ∼ N(µ.22 ), H0 : µ ≥ 1000 gegen H1 : µ < 1000, α = 0.05, n = 10, 25, 100.


Ilias Orderer
Siete
-

1.0
0.9
0.8 n = 10
0.7 n = 25
0.6 n = 100
0.5
0.4
0.3
0.2
0.1

997 998 999 1000 1001 1002

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 26 / 58
Gütefunktionen des zweiseitigen Gauß-Tests
X ∼ N(µ.22 ), H0 : µ = 1000 gegen H1 : µ ̸
= 1000, α = 0.05, n = 10, 25, 100.
1.0
0.9
n = 10
0.8
n = 25
0.7
n = 100
0.6
0.5
0.4
0.3
0.2
0.1

997 998 999 1001 1002 1003

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 27 / 58
Wahl der Hypothesen

Man kann nur eine der beiden Fehlerwahrscheinlichkeiten


festgelegt)
kontrollieren. ( 51 wird ist
griper
me
i. d. R nicht us
d ⇒ bird
.

α wird vorgegeben. β kann sehr groß werden, oft sogar bis


zu 1 − α.
„H0 ablehnen“ bedeutet „H1 ist bestätigt“, „H1 ist statistisch
gesichert“ oder genauer „H1 ist zum Signifikanzniveau α
statistisch gesichert“.
„H0 nicht ablehnen“ bedeutet lediglich, dass die Daten
nicht im Widerspruch zu H0 stehen, liefert jedoch keine
Bestätigung von H0 . (Freispruch aus Mangel an Beweisen!)
Die zu bestätigende Hypothese muss als Gegenhypothese
Mauser -

Formnlieungen
gewählt werden.
at Price (
pie
) Sie
iiberpriteu Behauptung Hypo these ,
dass ( . .
.

) ⇒ to
Wahlen
2) kiss die
.
sich ⇒

Aikenth
Behauptuagi class C ) Chi halter ? Ho been
centre w
. . .

3) kiss Sihlstalislisch ) Sicker best citizen .


das t . .
) ⇒
alive =

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 28 / 58
Wahl und Interpretation von α

Testentscheidung hängt wesentlich vom Signifikanzniveau


α ab.
Größeres α führt eher zu einer Ablehnung.
Festlegung der Hypothesen und des Signifikanzniveaus
vor Auswertung der Daten! ⇒ heine Interpretation der Ergebhisse
Signifikanzniveau bezieht sich auf das Testverfahren, nicht
auf die konkrete Entscheidung.
Häufigkeitsinterpretation des Signifikanzniveaus.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 29 / 58
Ho hint ab lehnen Ho ab lehnen

p-Wert eines Tests Kleine ④


,
grope @

Wert
=p
.

Greuze

Bei gegebener Realisation t. der Testgröße T bezeichnet man


das kleinste Signifikanzniveau α, bei dem die Nullhypothese
abgelehnt wird, als p-Wert des Tests.
Alternativ kann der p-Wert definiert werden als die
Wahrscheinlichkeit, dass der Wert der Testgröße – bei
Gültigkeit von H0 – mindestens so „extrem“ ausfällt wie der
beobachtete Wert der Teststatistik.
Testentscheidung mit Hilfe des p-Werts:

Ist der p-Wert kleiner als α, so wird H0 abgelehnt.


Ist der p-Wert größer als α, so wird H0 nicht abgelehnt.
kleine Werle →
Ablehnuug
p
-

P Were → heine Ableheumg


grope
-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 30 / 58
Illustration des zweiseitigen p-Werts
Sike FI ③
t hitmen
Wty
M
.
Wert interpreter en

Wert 2 OIL Itt )


p
-
- -

0.4
-

0.3

I Bsp ) ,
da
Ablehnuny
p
Wert also 0.2 p-Wert
groper
-

0.1

. .
.
I * in ,

−3 −2 −1 1 ←
2 3
I
2
-

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 31 / 58
Illustration des einseitigen p-Werts

Ho MZ to Yet
:&
m
0.4
}
:

tuna
.
Westen ( ex 1rem )

⇒ Wert OI It ) 0.3
p
- =

Wert
-

AOI CH
f) p
-
-

0.2 p-Wert
I
" bei
Ho E Mo my
}
pi
:

gro Beer
thin >
, Westen

0.1
.

. r.

−3 −2 f- = k
−1 1 2 3
t

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 32 / 58
Illustration des einseitigen p-Werts

0.4

0.3

0.2 p-Wert

0.1

ix.
−3 −2 −1 1 2 3
t

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 32 / 58
p-Wert beim Gauß-Test

Bezeichnet .t den beobachteten Wert der Testgröße, des


Gauß-Tests, so ist beim zweiseitigen Gauß-Test

p2 (t)
.
= Pµ=µ0 (|T. | ≥ |t|) = 2Φ(−|t|)
. .

und beim einseitigen Gauß-Test


# like Sale

Pµ=µ0 (T ≥ t) = 1 − Φ(t) , falls H0 : µ ≤


① µ0 ,
p1 (t)
. =
Pµ=µ0 (T ≤ t) = Φ(t) , falls H0 : µ①≥ µ0 . retie Sete

Beim t-Test berechnet man den p-Wert entsprechend mit der


Verteilungsfunktion der t-Verteilung.
Glens ( ) ouch bei denn
gilt fir Tests
rot
⇒ app and ere ,

die Testy rope center Ho Mon ) -

Viki
It ist

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 33 / 58
Beispiel: Abfüllanlage
Art des Tests: Ensinger Gawp
test

Hypothese: Ho µ : -71000 Oder Ho :µ<1000


unser TO

Teststatistik: T= Iff .
R =
998.724-1000 .

=
-

p-Wert: Test

)= OIL 1,9522 )

t.gg#einseitiger6aup-
BC 1,5522
-
-

=
y -

OIG .gg 221

= A - O .
9767
= 0.0233 L L
=
O .
05

Ho
⇒ Bein a = O . 05 wird
abgelehnt

Bei = 0.01 wird



Ho nicht
dbgelehnt
-
wenn a < 0.0233 ,

Z B dunn
. 2=0.0233

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 34 / 58
Fehlinterpretationen des p-Werts

Der p-Wert eines Tests


1 ist nicht die Wahrscheinlichkeit, dass die Nullhypothese
richtig ist,
2 ist nicht die Wahrscheinlichkeit, dass die Gegenhypothese
falsch ist,
3 ist nicht die Wahrscheinlichkeit, dass der beobachtete
Effekt „nur Zufall“ ist,
4 sagt nichts über die Größe oder Bedeutung des
beobachteten Effekts aus.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 35 / 58
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 36 / 58
Zweistichproben-Gauß-Tests

Verteilungs-
O
X1 , . . . , Xn ∼ N(µX , σX2 ), Y1 , . . . , YmO
iid iid
∼N(µY , σY2 )
annahme X1 , . . . , Xn , Y1 , . . . , Ym unabh., σX , σY2 0
2
bekannt
Nullhyp. H 0 : µX = µY H 0 : µX ≤ µY H 0 : µX ≥ µY
Gegenhyp. H 1 : µX ̸
= µY H 1 : µX > µY H 1 : µX < µY

X − Y } Different derllitklw
Teststatistik T = $ 2
σ2
nO }TETtadn
σX
+ OmY raising
enter

H0 abl., wenn |T | > u1− α2 T > u1−α T < −u1−α

Wenn X , Y nicht normalverteilt sind, aber n, m hinreichend groß


sind, gelten obige Tests approximativ; Faustregel: n, m ≥ 40.
O
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 11. Hypothesentests 37 / 58
Beispiel: Geburtsgewicht
Es soll untersucht werden, ob Nikotinkonsum von Frauen während
der Schwangerschaft einen negativen Einfluss auf das Geburts-
gewicht der Kinder besitzt.
Bei 250 Neugeborenen, deren Mütter während der Schwangerschaft
nicht geraucht hatten, ergab sich ein mittleres Geburtsgewicht von
3450g. Bei 200 Frauen, die während der gesamten Schwangerschaft
weiter geraucht hatten, lag das mittlere Geburtsgewicht der Kinder
bei 3200g.
Annahmen: Wir gehen davon aus, dass das Geburtsgewicht
normalverteilt ist und die Standardabweichung sowohl in der Gruppe
der Raucher als auch in der der Nichtraucher 500g beträgt.
Wie Tver kilt wenn a ?
ist ,
µx=hy
)
missa

}
Envy ,
Slichprobea
Sein
grop
!
nicht gleich
I Mm
-

xiyynonanhmiiugig
E- F
Truth
'

⇒ E- TEH.

-

Enter
~
( o , temyy
Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln
WS 2018/19 11. Hypothesentests 38 / 58
Beispiel: Geburtsgewicht
Führen Sie einen geeigneten Test zum Niveau 5% durch.
250
I= 3450 h =

X = Nicht raucher
Test
Art des Tests: Zwei Stich probes Gawp Rancher 200
-

y=
3200 m =

y
=

ox ,
y = 500

Hypothesen: Ho prey
th Mx ) My
:
:

Teststatistik: F-
3450-320-0--235,02=5,2705
=

TE
Todo t


m
T ) Us Uo 1,9446 A T >
k ✓
kritischer Bereich: - a
= .gs
=

Testentscheidung: Ho wird abgelehnt Rancher hinder Wiegers


Abwehr ⇒

significant my Weniger
ist nach
genie
seen

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 39 / 58
Zweistichproben-t-Tests

iid iid
Verteilungs- X1 , . . . , Xn ∼ N(µX , σX2 ), Y1 , . . . , Ym ∼N(µY , σY2 ),
annahme X1 , . . . , Xn , Y1 , . . . , Ym unabhängig, σX2 = σY2 unbekannt
Nullhyp. H0 : µ X = µ Y H0 : µ X ≤ µ Y H0 : µ X ≥ µ Y
Gegenhyp. H1 : µ X =
̸ µY H1 : µ X > µ Y H1 : µ X < µ Y
We sent like Test
! grope
nm(n + m − 2) Different der
X −Y =

Teststatistik T = ·" Helwerte hi

n+m (n − 1)S ∗2 + (m − 1)S ∗2 X Y 317haarising

H0 abl., wenn |T | > tn+m−2,1− α2 T > tn+m−2,1−α T < −tn+m−2,1−α

Wesentlich ist hier die Normalverteilungsannahme und die Annahme


unbekannter, aber gleicher Varianzen.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 40 / 58
Beispiel: Geburtsgewicht
Es soll untersucht werden, ob Nikotinkonsum von Frauen während
der Schwangerschaft einen negativen Einfluss auf das Geburts-
gewicht der Kinder besitzt.
Annahmen: Wir nehmen weiter an, dass das Geburtsgewicht
normalverteilt sei, gehen aber nicht davon aus, dass die Varianzen
bekannt
. sind. Angenommen wird lediglich, dass sich die Varianzen
zwischen den beiden Gruppen nicht unterscheiden.
Die korrigierten Stichprobenstandardabweichungen betrugen
sX∗ = 480g (Nichtraucher) bzw. sY∗ = 470g (Raucher).

I = 3450 h= 250 S # = 250

3200
IT
200 200
Sy*=
= m =

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 41 / 58
Beispiel: Geburtsgewicht I = 3450
3200
n = 250 S # = 250

IT
200 't 200
Sy
= m = =

Führen Sie einen geeigneten Test zum Niveau 5% durch.


t Test
Art des Tests: Zweislichprobeh
-
-

Hypothesen: Ho :µxEMy ode th :

feisty

Teststatistik: F- t .

( "→ S tch -
ysy*

Miso
3450-3200
=
.

(250-7) 4802+(200-1) 4702


.
.

} Tf
01029836 I 5,541
= 223,1053 .

kritischer Bereich: T ) tht m - 2 ,


A -
a =
1-450-2 , o . S5 =

t4y8iOpS5
w
Da u > 40 ,
Komen win die Quantile
lenutzeu
liking
der Standardnormaever
T k
Testentscheidung: >
k =
1,6449
⇒ Ho wird abgelehnt

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 42 / 58
Approximative Zweistichproben-Gauß-Tests

Verteilungs- X1 , . . . , Xn , Y1 , . . . , Ym unabhängig, ZGW :


lei
groper
y Shih probe rot

σX2 , σY2 unbekannt, n, m ≥ 40


app
annahme
.

normal Ver left

Nullhypothese H 0 : µX = µY H 0 : µX ≤ µY H 0 : µX ≥ µY
Gegenhypothese H 1 : µX ̸
= µY H 1 : µ X > µY H 1 : µX < µY

X −Y } Diff . de Mitt elevate

Teststatistik T =$
SX∗2
n +
SY∗2
m
} Air Standardising

H0 ablehnen, wenn |T | > u1− α2 T > u1−α T < −u1−α

Auch bei Vorliegen einer Normalverteilung gelten obige Tests


lediglich approximativ.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 43 / 58
Beispiel: Geburtsgewicht
Es soll untersucht werden, ob Nikotinkonsum von Frauen während
der Schwangerschaft einen negativen Einfluss auf das Geburts-
gewicht der Kinder besitzt.
Annahmen: Wir nehmen nun weder an, dass das Geburtsgewicht
normalverteilt sei, noch dass die Varianzen bekannt seien.
Die korrigierten Stichprobenstandardabweichungen betrugen
sX∗ = 480g (Nichtraucher) bzw. sY∗ = 470g (Raucher).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 44 / 58
Beispiel: Geburtsgewicht
Führen Sie wieder einen geeigneten Test zum Niveau 5% durch.
Zweistichproben Test
Art des Tests: Approximate Gawp
- -

Hypothesen: Ho fix Eley


.

.
Oder
thirty

rn

Teststatistik: F-
±¥±
=

7¥77
0%775=5554

1,6445
V

Wird
T b. Ts
T T > > 055
kritischer Bereich:
=

> Us - a
= Un -
o.o s
=

Testentscheidung: Ho abgelehht ( ⇒
Testegebnis
Standish
gesichert )

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 45 / 58
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 46 / 58
Approximative Tests für eine Wahrscheinlichkeit

Verteilungsannahme
O
iid
X1 , . . . , Xn ∼ B(1, π)
Nullhypothese H0 : π = π 0 H0 : π ≤ π 0 H0 : π ≥ π 0
Gegenhypothese H1 : π ̸
= π0 H1 : π > π 0 H1 : π < π 0
π̂ − π0
Teststatistik T =$
π0 (1−π0 )
n } Standardising

H0 ablehnen, wenn |T | > u1− α2 T > u1−α T < −u1−α

2
-
Test
#
Seitigv Test
ein
Seliger
Diese Tests gelten approximativ für hinreichend großes n.
Faustregel: nπ0 (1 − π0 ) > 9.
P
-
Wet beechnut Sich hier wie lain
Guys
test !

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 47 / 58
Beispiel: Wahlprognose
Sei π
. der unbekannte Stimmenanteil der SPD bei der nächsten

10000.3
(1-0.3)=210 s ✓
Bundestagswahl. . >

Eine Befragung von 1000 zufällig ausgewählten Wahlberechtigten


ergab, dass 285 dieser Personen beabsichtigen, bei der nächsten
Bundestagswahl die SPD zu wählen. =) D=
}o = o ,
285

Überprüfen Sie die Nullhypothese, dass der Stimmenanteil der SPD


mindestens 30% beträgt. Das Signifikanzniveau sei 5%.
W
To 0.3
loahrscbinlichkeit
=

've
Art des Tests: Approximate Tests fire

Hypothesen: Ho : IT ? To th : Toto


IT -
To 0.285
-

0.3 M
1.035
Teststatistik: T=
= -
= -

'

Tooth
to )
o7
-

1000

kritischer Bereich: Tc -
Us - a =
Tc -

V. og -5 =
- 1.6443
{
↳ ist
groper
Testentscheidung: Ho Hanh nicht
abgelehnt werden

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 48 / 58
Tests für den Vergleich zweier Wahrscheinlichkeiten

Verteilungs- X1 , . . . , Xn , Y1 , . . . , Ym unabhängig,
O iid O
iid
annahme X1 , . . . , Xn ∼ B(1, πOX ), Y1 , . . . , Ym ∼ B(1, π0Y )
Nullhypothese H0 : π X = π Y H0 : π X ≤ π Y H0 : π X ≥ π Y
Gegenhypothese H1 : π X ̸
= πY H1 : π X > π Y H1 : π X < π Y

π̂X − π̂Y } Wesen Kile

Teststatistik T =$ Test
grope
π̂X (1−π̂X ) π̂Y (1−π̂Y )
n + m } Standard
isierung

H0 ablehnen, wenn |T | > u1− α2 T > u1−α T < −u1−α

Diese Tests gelten approximativ für hinreichend große n und m.


Faustregel: nπ̂X (1 − π̂X ) > 9, mπ̂Y (1 − π̂Y ) > 9. ⇒ jewels fir bei de W Keiter
'

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 49 / 58
Beispiel: Wahlprognose

ITF = 0.285

Eine Befragung von 1000 zufällig ausgewählten Wahlberechtigten


ergab, dass 285 dieser Personen beabsichtigen, bei der nächsten
Bundestagswahl die SPD zu wählen.
Nach dem ersten Fernsehduell ergab eine Blitzumfrage unter
. 800
Befragten, dass 264 dieser Befragten bei der nächsten Bundes-
tagswahl die SPD wählen würden. Tty Yolo 0.33 = =

Formel :

htt (A -
TTD

(1-0.285)=203.77579
Ix = 1000 0.285
.

Fy
=
800 TV .

0.33 .

( A -
O .
3D =
776,88 >

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 50 / 58
Beispiel: Wahlprognose
Prüfen Sie mit einem geeigneten Test zum Niveau 5%, ob das
Fernsehduell einen Einfluss auf die Wahlentscheidung der
Bevölkerung hatte oder nicht.
Art des Tests: Test fi den
Vergleih
-2 Weier wi keith

Hypothesen: Ho :

Titty Oder Hs :
Tx FIT y

IT X -

FY 0.285-0.33
Teststatistik: T= =

15+0.330-67
'

Ttu-
' O
it ya -
Ey)
t
I
800

-0.0452
.⇒=s
= .

to

.
msn.si?iEiii:e::fs:eae
kritischer Bereich: insure = 2.054 > 1.96 ✓
in

⑥ ②
Testentscheidung: Ho wird abgelehht , ITI 7

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 51 / 58
Überblick

11 Hypothesentests

11.1. Grunbegriffe Hypothesentests

11.2. Test für Erwartungswerte

11.3. Gütefunktion und p-Wert

11.4. Zweistichprobentests für Erwartungswerte

11.5. Tests für Wahrscheinlichkeiten und Anteilswerte

11.6. Hypothesentests in EXCEL

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 52 / 58
Hypothesentests in EXCEL
EXCEL stellt über die sogenannten Analyse-Funktionen die oben
besprochenen Zweistichprobentests für Erwartungswerte zur
Verfügung. Die Analyse-Funktionen erreicht man über den
Tabllenreiter Daten im Abschnitt Analyse unter dem Punkt
Datenanalyse. Ggf. müssen die Analyse-Funktionen zunächst über
den Add-In-Manager installiert werden (Anleitung im Ilias-Kurs). Die
Analyse-Funktionen stellen die folgenden Test zur Verfügung:

Zweistichproben-Test bei bekannten Varianzen


= Zweistichproben-Gauß-Test
Zweistichproben-t-Test: Gleicher Varianzen
= Zweistichproben-t-Test
Zweistichproben-t-Test: Unterschiedl. Varianzen
entspricht dem approximativen Zweistichproben-Gauß-Test,
jedoch werden geeignet korrigierte Quantile der t-Verteilung
verwendet.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 53 / 58
Hypothesentests in EXCEL
Bei den drei Tests werden die benötigten Daten in einem Dialog
eingegeben. Die folgende Abbildung zeigt den Eingabedialog für das
Beispiel „Geburtsgewicht“ (Zweistichproben-Gauß-Test).

Wean arch

Bes chui flung A


in Tabuk
I
market

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 54 / 58
Hypothesentests in EXCEL
Die folgende Abbildung zeigt den Output für das Beispiel
„Geburtsgewicht“ (Zweistichproben-Gauß-Test).

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 55 / 58
Das EXCEL Add-In „Statistik B“

Für Gauß-Test und t-Test gibt es keine Routinen in den


Analyse-Funktionen. Über den Ilias-Kurs kann das Excel Add-In
„Statistik B“ heruntergeladen werden, das die Durchführung von
Gauß-Test und t-Test wie bei den Analyse-Funktionen ermöglicht.
Da es sich um ein Add-In handelt, muss die Datei zunächst aus dem
Internet heruntergeladen und lokal auf dem PC gespeichert werden.
In Excel kann es dann über den Add-In-Manager (ähnlich wie die
Analyse-Funktionen) installiert werden. Danach steht das Add-In auf
dem Tabellenreiter Add-Ins im Abschnitt Menübefehle zur
Verfügung.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 56 / 58
Add-In „Statistik B“: Beispiel „Abfüllanlage“

Eingabedialog zum Beispiel “Abfüllanlage“ beim t-Test.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 57 / 58
Add-In „Statistik B“: Beispiel „Abfüllanlage“
Output zum Beispiel “Abfüllanlage“ beim t-Test.

} Test grope
ein Sei

Wert
tiger
p
-

} 2 -

Seti
yer
p -

Wert

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 11. Hypothesentests 58 / 58
Überblick

12 Lineare Regression

12.1. Einführung

12.2. Multiple lineare Regression

12.3. Methode der kleinsten Quadrate

12.4. Intervallschätzung und Hypothesentests

12.5. Prognose

12.6. Lineare Regression in Excel

12.7. Binäre und kategoriale Regressoren

12.8. Modellierung allgemeinerer Zusammenhänge

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 1 / 79
Regression
Ein Merkmal
.
Y wird auf mehrere andere Merkmale X1 , . . . , Xm
zurückgeführt.
Variation von Y. soll durch die Variation von .X1 , . . . , Xm erklärt werden.
.
.
Regression von Y auf X1 , . . . , Xm :

.
Y heißt abhängige Variable, zu erklärende Variable oder

3¥:
Regressand,
X1o, . . . , Xmo heißen unabhängige Variable, erklärende Variable

t
.

oder Regressoren. werden

O der Regressoren größer als eins, spricht man von


Ist die Anzahl m
Mehrfachregression oder multipler Regression.
.

Gibt es nur einen Regressor, d.h. ist m = 1, so spricht man von


Einfachregression. } be toga auf

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 2 / 79
Regression: Beispiele
Xy
Beispiele aus der Anwendung: Der Einfluss

täglich gerauchter Zigaretten auf die Lebenserwartung,


der Werbehäufigkeit auf den Absatz eines Produktes,
des Bildungsniveaus auf das BIP eines Landes,
von Industrialisierungsgrad und durchschnittlicher
Jahrestemperatur
. auf die Unfallhäufigkeit
.
der Staatsairline,
der relativen Anzahl von Bankern im Aufsichtsrat auf den
Erfolg eines Unternehmens,
der Statistik-A-Note auf die Statistik-B-Note,
der Abiturnote auf die Statistik-A-Note.

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 3 / 79
Beispiel: Werbeaufwand
Ein Unternehmen möchte untersuchen, ob ein erhöhter
Werbeaufwand (X ) in lokalen Tageszeitungen auch zu einem
erhöhten Umsatz (Y ) führt. Zur Durchführung der Untersuchung Zahl
werden in zehn räumlich getrennten Regionen unterschiedlich starke Wbbeafwand

.am#
¥
Werbemaßnahmen durchgeführt. Hierzu werden für bestimmte (in = x
.

den Regionen unterschiedliche) Beträge Anzeigen geschaltet: Khsaa


.

=3 X ist lie eine 10×2 -


Matrix X=
( = Xz

Region i 1 2 3 4 5
Werbeaufwand xi (in 100.000 e) 1 3 6 7 9
Umsatz Yi (in Mio. e) 38 43 45 47 51

Region i 6 7 8 9 10
Werbeaufwand xi (in 100.000 e) 10 14 15 16 20
Umsatz Yi (in Mio. e) 53 55 57 58 57

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 4 / 79
Beispiel: Werbeaufwand
y

55

50

45

40

2 4 6 8 10 12 14 16 18 20

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 5 / 79
Beispiel: Werbeaufwand
y

55

50
Punhk Gegen n.int exeat

liner beaten ( da walrscheinliih


auf
the Eintvssfuhtoreh Verkuilen )
Wei

45 Aber :

Approximation duh eine

Gerads might

40

2 4 6 8 10 12 14 16 18 20

Rainer Dyckerhoff Wahrscheinlichkeitsrechnung und schließende Statistik Universität zu Köln


WS 2018/19 12. Lineare Regression 5 / 79
Beispiel: Werbeaufwand

Berechnung der zusammengefassten Werte:


10
! 10
!
xi = 101 , yi = 504 ,
i=1 i=1

10
! 10
! 10
!
xi2 = 1353 , yi2 = 25824 , xi yi = 5448 .
i=1 i=1 i=1

Daraus erhält man weiter:

x = 10.1 , y = 50.4 ,

}
S x
y
-
-

I I. Hi INy I )
sX2 = 33.29 , sY2 = 42.24 ,
-

sXY = 35.76 .
.

it Sti i
Fi
§