Beruflich Dokumente
Kultur Dokumente
1.2 Motivation
Statistik ist die Wissenschaft zum Umgang mit Daten. Sie ist eine Möglichkeit,
eine systematische Verbindung zwischen Erfahrung und Theorie herzustellen.
Daten unterteilen sich oft in X -Daten (unabhängige Variablen) und y -Daten
(abhängige Beobachtungen)
Untersuchen möchte man dann zumeist den Zusammenhang X → y
Statistik beruht häufig auf Grundlagen der Wahrscheinlichkeitsrechnung
Und warum braucht man in der Informatik jetzt Statistik?
Häufig erzeugt die Informatik selbst Daten, die analysiert werden müssen
Viele Methoden der Informatik sind dazu da, Daten zu analysieren, dabei
werden jedoch häufig andere Ansätze als in der Statistik gewählt
Data Science: Die Kunst, beide Seiten zu kennen und Daten bestmöglich
handhaben zu können
1.3 Übersicht
Univariate Daten Zufallsvariablen und deren Verteilungen
▶ Merkmale und Datentypen Wahrscheinlichkeitstheoretische
▶ Tabellarische und grafische Kennzahlen
Darstellung ▶ Erwartungswert und Varianz
Statistische Kennzahlen ▶ Weitere Kennzahlen
▶ Kennzahlen für die Lage Wichtige
▶ Kennzahlen für die Streuung Wahrscheinlichkeitsverteilungen
▶ Quantile und Boxplots Mehrdimensionale Verteilungen
Bivariate Daten ▶ Bedingte Wahrscheinlichkeiten
▶ Tabellarische und grafische und stochastische Unabhängigkeit
Darstellungen ▶ Mehrdimensionale Zufallsvariablen
▶ Zusammenhangsmaße Markoffketten
▶ Lineare Regression
Schließende Statistik
Wahrscheinlichkeitstheorie
▶ Punktschätzung
▶ Mengentheoretische Grundlagen ▶ Das statistische Testproblem
▶ Wahrscheinlichkeitsmaße und ▶ Spezielle Testprobleme
Wahrscheinlichkeitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 4 / 545
Univariate Daten
2 Univariate Daten 2.1 Merkmale und Datentypen
quantitativ / metrisch
Intervall Differenzen (Breite, Höhe)
gleich / verschieden
Verhältnis Verhältnisse Breite, Höhe
gleich / verschieden
x ∈ WX Merkmalsausprägungen von X
N
P
Absolute Häufigkeit Nj von x(j): Nj = N[x(j)] = di (j), mit di (j) := Ix(ei )=x(j)
i=1
J
P
Damit gilt Nj = N
j=1
Nj
Relative Häufigkeit fj von x(j): fj = N
J
P
Damit gilt fj = 1
j=1
0.10
0.00
CDU/CSU
Grüne
SPD
Linke
FDP
sonstige
CDU/CSU
Grüne
SPD
Linke
FDP
sonstige
X Quantitatives Merkmal
x ∈ WX Merkmalsausprägungen von X
... f9
... f8
0.8
... f7
... f6
0.6
f5
...
FN
f4
0.4
f1+f2+f3
f3
f1+f2
0.2
f2
f1
f1
0.0
10 12 14 16 18
Jörg Rahnenführer x
W’keitsrechnung und mathematische Statistik WiSe 23/24 28 / 545
2.2 Tabellarische und grafische Darstellung von
2 Univariate Daten univariaten Daten
X Quantitatives Merkmal
x ∈ WX Merkmalsausprägungen von X
0.2
0.1
0.0
3 4 5 6 7 8 9
Bearbeitungszeit
0.2
0.1
0.0
3 4 5 6 7 8 9
Bearbeitungszeit
Beispiel
Histogramm
Empirische
Verteilungsfunktion
Balkendiagramm
Farbige Linien
repräsentieren das
Zentrum
Auch auf ordinalen Daten können wir keine Abstände definieren → Modalwert
Allerdings: Information über die Ordnung nicht berücksichtigt
Beispiel: Notenverteilung Altklausur
Urliste x1 , . . . , xN
Geordnete Liste x(1) ≤ x(2) ≤ . . . ≤ x(N)
x(k) = xik
N
d X
(xi − z)2 = 0 (Ableiten: Kettenregel)
dz
i=1
N
X
⇔ 2(z − xi ) = 0 (Ausklammern und Summe aufteilen)
i=1
N
X N
X
⇔2 z −2 xi = 0
i=1 i=1
Beispiel
Simpson’s D
J
fj 2
P
D =1−
j=1
1
0 ≤ D ≤ 1− J f1 = 1 − f2
D = 0 für max[(f1 , . . . , fJ )] = 1
1 1
D =1− J für f1 = . . . = fJ = J
0 ≤ Dz ≤ 1 f1 = 1 − f2
Dz = 0 für max[(f1 , . . . , fJ )] = 1
1
Dz = 1 für f1 = . . . = fJ = J
i xi k x(k)
Simpson’s D ist anwendbar, allerdings
1 x(3) 1 x(1)
wird die Information der
2 x(2) 2 x(1)
Kategorienordnung nicht genutzt.
3 x(1) 3 x(2)
4 x(1) 4 x(3)
5 x(3) 5 x(3)
Geordnete Liste
−−−−−−−−−→
J−1
0 ≤ DL ≤ 4
Werte lassen sich umso besser vorhersagen, je stärker sie sich um das jeweilige
Lagemaß verdichten.
Werte lassen sich umso besser vorhersagen, je stärker sie sich um das jeweilige
Lagemaß verdichten.
N−1 2
Alternativ dx2 = N sx
Standardabweichung: Wurzel aus der Varianz
√
sx := varx
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 69 / 545
3 Statistische Kennzahlen 3.2 Statistische Kennzahlen für die Streuung
J
X
dx2 = fj · (x(j) − x̄)2
j=1
Beweis:
N N
1 X 1 X (x(1) − x̄)2 (x(N) − x̄)2
dx2 = (xi − x̄)2 = (x(i) − x̄)2 = + ... +
N i=1 N i=1 N N
(x(1) − x̄)2 (x(1) − x̄)2 (x(J) − x̄)2 (x(J) − x̄)2
= + ... + +... + + ... +
| N {z N } | N {z N }
N1 =f1 ·N-mal NJ =fJ ·N-mal
J
N N X
= f1 · (x(1) − x̄)2 + . . . + fJ · (x(J) − x̄)2 = fj · (x(j) − x̄)2
N N j=1
N
1 X
= [(xn − b)2 + 2(xn − b)(b − x̄) + (b − x̄)2 ]
N n=1
N N N
1 X 1 X 1 X
= (xn − b)2 + 2(b − x̄) (xn − b) + (b − x̄)2
N n=1 N n=1 N n=1
N N N
!
1 X 2 1 X 1 X
= (xn − b) − 2(x̄ − b) xn − b + (x̄ − b)2
N n=1 N n=1 N n=1
N
1 X
= (xn − b)2 − 2(x̄ − b)2 + (x̄ − b)2
N n=1
N
1 X
= (xn − b)2 − (x̄ − b)2
N n=1
Ein p-Quantil Qp , p ∈ [0, 1], ist eine Zahl, für die 100 · p % der Merkmals-
werte einer Gesamtheit kleiner oder gleich sind und 100 · (1 − p) % größer
oder gleich.
x(⌊np⌋) ≤ Qp ≤ x(⌊np⌋+1) .
Bezeichnung
Anstelle von p-Quantil sagt man auch (1-p)-Fraktil.
Das 0-Quantil und das 1-Quantil entsprechen dem Minimum und dem
Maximum der Daten.
0.25- bzw. 0.75-Quantile heißen auch unteres bzw. oberes Quartil:
Unteres Quartil q4 = 0.25-Quantil; oberes Quartil q 4 = 0.75-Quantil.
Vielfache von 0.1 werden als Dezile bezeichnet (0.1-Dezil, 0.2-Dezil, ...).
Vielfache von 0.01 werden als Perzentile bezeichnet (0.01-Perzentil,
0.67-Perzentil, ...).
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 76 / 545
3 Statistische Kennzahlen 3.3 Quantile und Boxplots
Spannweite (range)
Rx := max(x) − min(x) = x(n) − x(1)
General kann der Mittelwert des p-Quantils und des p-Fraktils als Lagemaß und
die Differenz als Streuungsmaß verwendet werden.
2
eine univariate Verteilung zu beschreiben:
Minimum, 1. Quartil, Median,
q4
1
(Mittelwert), 3. Quartil, Maximum
medx
Aus diesen 5 Zahlen lassen sich viele Lage
0
und Streuungsmaße ablesen:
q4
Medien, Mittelwert der Quantile,
−1
Interquratilsabstand, Spannweite, ...
−2
Gemeinsam werden diese 5 Datenpunkte
gerne als sogenannter Boxplot grafisch Minimum
4
Minimum und Maximum sind sehr
anfällig für Ausreißer in den Daten.
2
Darum: Zeichne die Whisker des
Boxplots nicht bis zum Minimum /
Maximum, sondern lediglich bis
0
q 4 + 1.5qdx bzw. q4 − 1.5qdx , also
auf das jeweilige Quartil ± den
1.5-fachen Interquartilsabstand.
−2
Sämtliche Beobachtungen größer
bzw. kleiner als diese Grenzen werden
−4
als explizite Punkte in den Boxplot
aufgenommen.
0.4
0.2
0.0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
X, Y Merkmale
x ∈ WX , y ∈ WY Merkmalsausprägungen von X
x1 , . . . , xN , y1 , . . . , yN Univariate Urlisten
(x1 , y1 ), . . . , (xN , yN ) Bivariate Urliste
Y P
y (1) y (2) ... y (K )
x(1) N11 N12 ... N1K N1·
K
x(2) N21 N22 ... N2K N2· Nj· =
P
Njk
.. .. .. .. .. k=1
X . . . . .
x(J)
P NJ1 NJ2 ... NJK NJ·
N·1 N·2 ... N·K N
J
P J P
P K
N·k = Njk N= Njk
j=1 j=1 k=1
X N
K X K
X
= dl (j) · rl (k) = Njk
k=1 l=1 k=1
Y P
y (1) y (2) ... y (K )
x(1) f11 f12 ... f1K f1·
K
x(2) f21 f22 ... f2K f2· fj· =
P
fjk
.. .. .. .. .. k=1
X . . . . .
x(J)
P fJ1 fJ2 ... fJK fJ·
f·1 f·2 ... f·K 1
J
P J P
P K
f·k = fjk fjk = 1
j=1 j=1 k=1
Y Bedingte Verteilungen:
P
y (1) y (2) ... y (K ) Verteilung von Y gegeben X :
f11 f12 f1K
x(1) f1· f1· ... f1· 1 fY |X := {fy ;k|j |j = 1, ..., J; k = 1, ..., K }
f21 f22 f2K
x(2) f2· f2· ... f2· 1
.. .. .. .. Verteilung von X gegeben Y :
X . . . .
fJ1 fJ2 fJK fX |Y := {fx;j|k |j = 1, ..., J; k = 1, ..., K }
x(J) fJ· fJ· ... fJ· 1
fjk
J mit fx;j|k := f·k
No
Titanic überlebt? Weitere Merkmale, wie
z.B. Geschlecht und Passagierklasse.
Survived
Der Mosaikplot
Rechteckbreiten entsprechen f·c
Rechteckhöhen entsprechen fs|c
Yes
Rechteckflächen entsprechen
fsc = fs|c · f·c
Wobei: s der Variable Überlebt und c der
Passagierklasse entspricht Class
Zusätzliche Einteilung der Flächen Male Female Male Female Male Female Male Female
nach Geschlecht
No
Es liegen also letztlich 3 Merkmale
vor: Überleben, Passagierklasse und
Geschlecht, die Daten sind also
Survived
nicht bivariat, sondern trivariat
Weitere Unterteilung der
Rechteckbreiten nach fg |sc , d.h. es
liegt eine doppelte Bedingung auf
Yes
zwei Merkmale vor
Weitere Unterteilungen nach
weiteren Merkmalen sind denkbar,
die Interpretierbarkeit ist aber schon Class
Streudiagramm
Darstellung der Punktepaare (xi , yi ) in einem kartesischen Koordinatensystem
10
Bearbeitungszeit
8
6
4
2
8 10 12 14 16 18 20
Anzahl Clicks
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 100 / 545
4 Bivariate Daten 4.1 Tabellarische und grafische Darstellungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 101 / 545
4 Bivariate Daten 4.1 Tabellarische und grafische Darstellungen
Streudiagramm
Darstellung weitere Merkmale über Eigenschafte wie z.B. der Farbe
10
Kai
Miriam
Oliver
Bearbeitungszeit
Tina
8
6
4
Abfrage
Export
Verknüpfung
2
8 10 12 14 16 18 20
Anzahl Clicks
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 102 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Wichtige Unterscheidung
▶ Korrelation bedeutet nicht notwendig Kausalität (Beziehung zwischen Ursache
und Wirkung oder Aktion und Reaktion)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 103 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Es gilt: X −→ Y
X ist Ursache von Y ⇒ X und Y korrelieren ⇓
X ←→ Y
Aber: X −→ Y
X und Y korrelieren ⇏ X ist Ursache von Y ̸⇑ (gilt nicht)
X ←→ Y
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 104 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Verschiedene
Korrelationsquellen
möglich
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 105 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 106 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 107 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 108 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 109 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 110 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 111 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Y
y (1) y (2) ... y (K )
(N11 − v11 )2 (N12 − v12 )2 (N1K − v1K )2
P
x(1) ...
x(2) (N21 − v21 )2 (N22 − v22 )2 ... (N2K − v2K )2
.. .. .. ..
X . . . .
x(J) (NJ1 − vJ1 )2 (NJ2 − vJ2 )2 ... (NJK − vJK )2
χ2
P
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 112 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Die χ2 -Größe erfüllt die Forderung, desto größer zu werden, je größer die
Abweichung der bedingten Verteilung fY |X von der Randverteilung f·Y ist.
J X
K N N 2 J X K
2
X Njk − j·N ·k N X (fjk N − fj· f·k N)2
χ = =
Nj· N·k fj· f·k N
j=1 k=1 j=1 k=1
J X
K J XK Nf 2 fjk − f
2
X N(fjk − fj· f·k )2 X j· fj· ·k
= =
fj· f·k fj· f·k
j=1 k=1 j=1 k=1
K
J X
X Nfj· (fy ;k|j − f·k )2
=
f·k
j=1 k=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 113 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Es gilt: 0 ≤ χ2 ≤ N(min{J, K } − 1)
Beweis:
0 ≤ χ2 klar wegen Nj· > 0, N·k > 0, (Njk − vjk )2 ≥ 0
0 = χ2 , wenn Njk = vjk , d.h. wenn alle bedingten Häufigkeiten den unter
Unabhängigkeit erwarteten Häufigkeiten entsprechen.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 114 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 115 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Es gilt: 0 ≤ χ2 ≤ N(min{J, K } − 1)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 116 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Njk
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 117 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
vjk
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 118 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
(Njk − vjk )2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 119 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 120 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 121 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 122 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Wert von Y lässt sich bei Kenntnis von X umso besser vorhersagen, je mehr ein
hoher Wert von X einen hohen Wert von Y impliziert (positiver Zusammenhang)
bzw. je mehr ein hoher Wert von X einen niedrigen Wert von Y impliziert
(negativer Zusammenhang).
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 123 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
sxy > 0, wenn hohe Werte von X in hohem Maße mit hohen Werten von Y
einhergehen (Positive Korrelation)
sxy < 0, wenn hohe Werte von X in hohem Maße mit niedrigen Werten von Y
einhergehen (Negative Korrelation)
sxy = 0, wenn hohe Werte von X in gleichem Maße mit hohen Werten wie mit
niedrigen Werten von Y einhergehen (Unkorreliertheit)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 124 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 125 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 126 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
N N N N N
= xy − x̄ · ȳ − x̄ · ȳ + x̄ · ȳ = (xy − x̄ · ȳ ) □
N −1 N −1 N −1 N −1 N −1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 127 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
s s
N
P N
P N
P N
P N
P
⇔− (xn − x̄)2 · (yn − ȳ )2 ≤ (xn − x̄)(yn − ȳ ) ≤ (xn − x̄)2 · (yn − ȳ )2
n=1 n=1 n=1 n=1 n=1
s s s s
N N N N N
(xn −x̄)2 (yn −ȳ )2 (xn −x̄)2 (yn −ȳ )2
P P P P P
(xn −x̄)(yn −ȳ )
n=1 n=1 n=1 n=1 n=1
⇔− N−1 N−1
≤ N−1
≤ N−1 N−1
⇔ −sx sy ≤ sxy ≤ sx sy □
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 128 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Das heißt, |rxy | ist genau dann 1, wenn alle xn und yn auf einer Geraden liegen.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 129 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 130 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 131 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 132 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
N PN
X
i=1 I(xi =xn ) −1
R(xn ) := 1 + I(xi <xn ) + , ∀k = 1, ..., k
2
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 133 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 134 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 135 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
N
P
R(xn ) − R(x) R(yn ) − R(y )
sR(X )R(Y )
Sp
rxy = rR(X )R(Y ) = = s n=1
sR(X ) sR(Y ) PN 2 PN 2
R(xn ) − R(x) R(yn ) − R(y )
n=1 n=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 136 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Beweisansatz:
N N N
X X X N(N + 1)
R(xn ) = R(yn ) = n=
n=1 n=1 n=1
2
N N N
X X X N(N + 1)(2N + 1)
und R(xn )2 = R(yn )2 = n2 =
n=1 n=1 n=1
6
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 137 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 138 / 545
4 Bivariate Daten 4.2 Zusammenhangsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 139 / 545
4 Bivariate Daten 4.3 Lineare Regression
Es gilt rxy = 1, genau wenn die Punkte (xi , yi ) auf einer Geraden liegen, und
es gilt rxy = 0, wenn keine lineare Beziehung besteht.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 140 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 141 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 142 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 143 / 545
4 Bivariate Daten 4.3 Lineare Regression
N
∂ X !
Q(c, d) = 2(c + dxn − yn ) = 2Nc + 2dN x̄ − 2N ȳ = 0 ⇔ c + d x̄ − ȳ = 0
∂c n=1
N N N
∂ X X X !
Q(c, d) = 2(c + dxn − yn )xn = 2Nc x̄ + 2d xn2 − 2 xn yn = 0
∂d n=1 n=1 n=1
N
X N
X
⇔ cN x̄ + d xn2 − xn yn = 0
n=1 n=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 144 / 545
4 Bivariate Daten 4.3 Lineare Regression
N
X N
X
(1) c+d x̄ − ȳ = 0 ⇔ c = ȳ − d x̄ (2) cN x̄ + d xn2 − xn yn = 0
n=1 n=1
N
X N
X
(1) in (2) (ȳ − d x̄)N x̄ + d xn2 − xn yn = 0
n=1 n=1
N
X XN
⇔d xn2 − N x̄ 2 = xn yn − N x̄ · ȳ
n=1 n=1
N
P
xn yn − N x̄ · ȳ N
N−1 (xy − x̄ · ȳ ) sxy
⇔ d = n=1 = = (3)
PN
2 2 N
P
1
N
2 − x̄ 2
sx2
xn − N x̄ N−1 N x n
n=1 n=1
sxy
(3) in (1) c = ȳ − x̄
sx2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 145 / 545
4 Bivariate Daten 4.3 Lineare Regression
Beweis (Fortsetzung)
N N
∂ ∂ X X
Q(c, d) = 2Nc + 2dN x̄ − 2N ȳ , Q(c, d) = 2Nc x̄ + 2d xn2 − 2 xn yn
∂c ∂d n=1 n=1
N N
∂2 ∂2 X ∂2 X
Q(c, d) = 2N, Q(c, d) = 2 xn , Q(c, d) = 2 xn2
∂c∂c ∂c∂d n=1
∂d∂d n=1
N
P
2N 2 xn XN
2
X N 2
det N
n=1
N
= 4N x n − 4 x n = 4(N − 1)Nsx2 > 0 □
P P 2
2 xn 2 xn n=1 n=1
n=1 n=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 146 / 545
4 Bivariate Daten 4.3 Lineare Regression
N N N
X X sxy sxy 2 X sy sy 2
ε2n = yn − (ȳ − 2 x̄) − 2 xn = yn − (ȳ − rxy x̄) − rxy xn
n=1 n=1
sx sx n=1
sx sx
N 2
X sy
= (yn − ȳ ) − rxy (xn − x̄)
n=1
sx
N s 2
X sy y
= (yn − ȳ )2 − 2rxy (yn − ȳ )(xn − x̄) + rxy (xn − x̄)2
n=1
sx sx
sy sy 2 2
= (N − 1) · sy2 − 2rxy sxy + rxy sx = (N − 1) · (sy2 − 2rxy
2 2 2 2
sy + rxy sy )
sx sx
= (N − 1) · (sy2 − rxy
2 2
sy ) □
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 147 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 148 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 149 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 150 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 151 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 152 / 545
4 Bivariate Daten 4.3 Lineare Regression
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 153 / 545
Wahrscheinlichkeitstheorie
5 Wahrscheinlichkeitstheorie
5.0 Wahrscheinlichkeitstheorie
Bisher: Empirische Statistik, Beschreibende Statistik
Es liegt bereits ein Datensatz vor, wie lässt sich dieser beschreiben?
Reduktion der Daten auf eine Darstellungsform, die vom menschlichen Auge
und Gehirn erfasst werden kann (ob Tabelle, Grafik oder Maßzahl)
Jetzt: Wahrscheinlichkeitstheorie
Daten haben immer einen Ursprung, einen sogenannten datengenerierenden
Prozess, oder auch, ein Zufallsexperiment (z.B. ein Würfelwurf, das
Arbeitsverhalten, das Userverhalten, ...)
Der Prozess erzeugt zufällige Beobachtungen
Ziel der Wahrscheinlichkeitstheorie: Mathematische Beschreibung dieses
zufälligen Prozesses, um Aussagen über diesen treffen zu können
Anwendungen: Vorhersage von künftigen Realisation des Prozesses, Vergleich
von verschiedenen Prozessen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 155 / 545
5 Wahrscheinlichkeitstheorie
5.0 Wahrscheinlichkeitstheorie
Was ist Zufall? oder, besser: Gibt es Zufall?
Annahme: Wenn sämtliche Parameter eines Prozesses bekannt sind, dann lässt
sich das Ergebnis des Prozesses exakt berechnen.
Zufall
Zufall ist ein Konzept zur Beschreibung von Prozessen, die so kompliziert sind,
dass wir ihren Ausgang nicht beschreiben (vorhersagen) können.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 156 / 545
5 Wahrscheinlichkeitstheorie
5.0 Wahrscheinlichkeitstheorie
Beispiele:
Vorhersage von neuen Beobachtungen:
Fragestellung: Welchen Wert wird die nächste Beobachtung annehmen?
Exakte Vorhersage unmöglich, weil der Prozess zufällig ist. Aber es sind z.B.
Aussagen über Lage und Streuung möglich
Beschreibung eines Prozesses:
Fragestellung: Ist in der Milchtüte tatsächlich exakt 1 Liter Milch?
Die Füllmenge einer Packung ist zufällig (Maschinen arbeiten ungenau).
Keine Packung wird exakt mit 1 Liter befüllt sein (stetiges Merkmal).
Sind die Abweichungen noch im Rahmen, oder zu groß?
Vergleich von zwei Prozessen:
Fragestellung: Wirkt ein Impfstoff?
1. Prozess: Ein Mensch lebt sein Leben, ungeimpft
2. Prozess: Ein Mensch lebt sein Leben, wurde aber geimpft
Ist die Wahrscheinlichkeit zu erkranken unterschiedlich?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 157 / 545
5 Wahrscheinlichkeitstheorie
5.0 Wahrscheinlichkeitstheorie
Fahrplan für die nächsten Wochen:
Zunächst: Definition der mengentheoretischen Grundlagen
→ Siehe Logik-Vorlesung, Mengenoperatoren und logische Operatoren
verhalten sich ähnlich, Rechenregeln sind zumeist übertragbar.
Definition eines Wahrscheinlichkeitsmaßes
→ Ordne einer Menge eine Wahrscheinlichkeit zu
Definition einer Zufallsvariablen und der Verteilung einer Zufallsvariablen
→ Bilde aus dem Raum der Zufallsereignisse in den Raum der reellen Zahlen
ab, welche Zahlen werden mit welcher Wahrscheinlichkeit realisiert?
Definition wichtiger Verteilungen
Bedingte Verteilungen und stochastische Unabhängigkeit
→ Vergleiche empirische Unabhängigkeit (Kapitel 4)
Kennzahlen von Zufallsvariablen: Erwartungswert und Varianz
→ Vergleiche Lage und Streuungsmaße
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 158 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 159 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Ergebnisse ω1 = 1, ω2 = 2, ω3 = 3, ω4 = 4, ω5 = 5, ω6 = 6
Grundraum Ω = {1, 2, 3, 4, 5, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 160 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 161 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
ω∈A
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 162 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
2 ∈ {2, 4, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 163 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
A ∩ B = {ω ∈ Ω|ω ∈ A und ω ∈ B}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 164 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
4 ∈ {2, 4, 6} ∩ {4, 5, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 165 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 166 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 167 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
A ∪ B = {ω ∈ Ω|ω ∈ A und/oder ω ∈ B}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 168 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
2 ∈ {2, 4, 6} ∪ {4, 5, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 169 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 170 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 171 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
A ⊂ B (bzw. A ⊆ B)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 172 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
{5, 6} ⊂ {4, 5, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 173 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
B \ A = {ω ∈ Ω|ω ∈ B und ω ∈
/ A}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 174 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
5 ∈ {4, 5, 6} \ {2, 4, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 175 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Ac = Ω \ A = {ω ∈ Ω|ω ∈
/ A}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 176 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
5 ∈ {2, 4, 6}c
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 177 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
/ A} = B ∩ Ac = B \ (A ∩ B)
B \ A = {ω ∈ Ω|ω ∈ B und ω ∈
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 178 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 179 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 180 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 181 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 182 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 183 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 184 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 185 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 186 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 187 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 188 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 189 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 190 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 191 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 192 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 193 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 194 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 195 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 196 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 197 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 198 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Distributivgesetze
(A∪B)∩C = (A∩C )∪(B ∩C ) Die Schnittmenge einer zwei Mengen A und B
vereinigenden Menge mit einer weiteren Menge
C ist gleich der Vereinigung der beiden aus C
und jeweils einer der beiden Mengen A und B
gebildeten Schnittmengen.
(A∩B)∪C = (A∪C )∩(B ∪C ) Die Vereinigung der Schnittmenge zweier Men-
gen A und B mit einer weiteren Menge C ist
gleich der Schnittmenge der beiden aus C und
jeweils einer der beiden Mengen A und B gebil-
deten Vereinigungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 199 / 545
5 Wahrscheinlichkeitstheorie 5.1 Mengentheoretische Grundlagen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 200 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 201 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 202 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 203 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
{1, 2}, {1, 3}, {1, 4}, {1, 5}, {1, 6}, {2, 3}, {2, 4}, {2, 5}, {2, 6}, {3, 4}, {3, 5}, {3, 6},
{4, 5}, {4, 6}, {5, 6},
{1, 2, 3}, {1, 2, 4}, {1, 2, 5}, {1, 2, 6}, {1, 3, 4}, {1, 3, 5}, {1, 3, 6}, {1, 4, 5}, {1, 4, 6}, {1, 5, 6},
{2, 3, 4}, {2, 3, 5}, {2, 3, 6}, {2, 4, 5}, {2, 4, 6}, {2, 5, 6}, {3, 4, 5}, {3, 4, 6}, {3, 5, 6}, {4, 5, 6},
{1, 2, 3, 4}, {1, 2, 3, 5}, {1, 2, 3, 6}, {1, 2, 4, 5}, {1, 2, 4, 6}, {1, 2, 5, 6}, {1, 3, 4, 5}, {1, 3, 4, 6}
{1, 3, 5, 6}, {1, 4, 5, 6}, {2, 3, 4, 5}, {2, 3, 4, 6}, {2, 3, 5, 6}, {2, 4, 5, 6}, {3, 4, 5, 6},
{1, 2, 3, 4, 5}, {1, 2, 3, 4, 6}, {1, 2, 3, 5, 6}, {1, 2, 4, 5, 6}, {1, 3, 4, 5, 6}, {2, 3, 4, 5, 6},
{1, 2, 3, 4, 5, 6}
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 204 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 205 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
∞
S P∞
(i) P Ai = P(Ai ) für alle paarweise disjunkten Ereignisse Ai ∈ A
i=1 i=1
Beweis:
∞
[ ∞
[ ∞
[
P Ai = P(A1 ∪ Ai ) = P(A1 ) + P Ai
3.
i=1 i=2 i=2
∞
[ ∞
X
= P(A1 ) + P(A2 ) + P Ai = ... = P(Ai )
3.
i=3 i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 206 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 207 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Beweis:
A ∪ B = [A \ (A ∩ B)] ∪ [B \ (A ∩ B)] ∪ [A ∩ B]
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 208 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
A ∪ B = [A \ (A ∩ B)] ∪ [B \ (A ∩ B)] ∪ [A ∩ B]
⇒ P([A ∪ B]) = P([A \ (A ∩ B)] ∪ [B \ (A ∩ B)] ∪ [A ∩ B])
= P([A \ (A ∩ B)]) + P([B \ (A ∩ B)]) + P(A ∩ B)
(i)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 209 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
(iv) Poincaré-Sylvesterformel
N
S N
(−1)m+1
P P
P AN = P(An1 ∩ . . . ∩ Anm )
n=1 m=1 1≤n1 <...<nm ≤N
Am Beispiel N = 2:
P(A1 ∪ A2 ) = (−1)1+1 · P(A1 ) + (−1)1+1 · P(A2 ) + (−1)2+1 · P(A1 ∩ A2 )
= P(A1 ) + P(A2 ) − P(A1 ∩ A2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 210 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
(iv) Poincaré-Sylvesterformel
N
S N
(−1)m+1
P P
P An = P(An1 ∩ . . . ∩ Anm )
n=1 m=1 1≤n1 <...<nm ≤N
Für N = 3:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 211 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
(iv) Poincaré-Sylvesterformel
N
S N
(−1)m+1
P P
P AN = P(An1 ∩ . . . ∩ Anm )
n=1 m=1 1≤n1 <...<nm ≤N
Für N = 3 : P(A1 ∪ A2 ∪ A3 ) =
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 212 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 213 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
(vi) P(∅) = 0
Beweis:
P(∅) = P(Ωc ) = 1 − P(Ω) = 0 □
(v )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 214 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 215 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Laplace-Raum
Treten die Elemente von endlichem Ω = {ω1 , . . . , ω|Ω| } aus einem diskreten
Wahrscheinlichkeitsraum (Ω, A, P) alle mit der selben Wahrscheinlichkeit auf, d.h.
gilt P({ωi }) = 1/|Ω| für i = 1, . . . , |Ω|, so wird (Ω, A, P) auch Laplace-Raum
genannt und die Wahrscheinlichkeit für ein Ereignis A ∈ A kann durch
P(A) = |A|/|Ω| angegeben werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 216 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Ereignisse
1 Bearbeiter männlich
A1 = {e1 , e2 , e5 , e10 , e11 , e12 }
2 Gestellte Aufgabe Export
A2 = {e1 , e3 , e5 , e6 , e8 , e9 }
3 Verwendete Version 2.0
A3 = {e5 , e11 , e12 }
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 217 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
ω ∈ {e1 , . . . , e12 } = Ω
P({ei }) = 1/12, i = 1, . . . , 12
A1 = {e1 , e2 , e5 , e10 , e11 , e12 }
A2 = {e1 , e3 , e5 , e6 , e8 , e9 }
A3 = {e5 , e11 , e12 }
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 218 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 219 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 220 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 221 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
ω ∈ {e1 , . . . , e12 } = Ω W’keit für eine Bearbeitung, die Aufgabe Export hatte
P({ei }) = 1/12, i = 1, . . . , 12 und/oder von einem Mann und /oder mit Version 2.0 durch-
geführt wurde
A1 = {e1 , e2 , e5 , e10 , e11 , e12 }
A2 = {e1 , e3 , e5 , e6 , e8 , e9 } P(A1 ∪ A2 ∪ A3 )
A3 = {e5 , e11 , e12 }
= P(A1 ) + P(A2 ) + P(A3 ) − P(A1 ∩ A2 ) − P(A1 ∩ A3 )
P(A1 ) = 1/2 −P(A2 ∩ A3 ) + P(A1 ∩ A2 ∩ A3 )
P(A2 ) = 1/2 = 1/2 + 1/2 + 1/4 − P({e1 , e5 }) − P({e5 , e11 , e12 })
P(A3 ) = 1/4 −P({e5 }) + P({e5 })
= 15/12 − 2/12 − 3/12 − 1/12 + 1/12 = 10/12 = 5/6
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 222 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
ω ∈ {e1 , . . . , e12 } = Ω W’keit für eine Bearbeitung, die weder Aufgabe Export hatte
P({ei }) = 1/12, i = 1, . . . , 12 noch von einem Mann noch mit Version 2.0 durchgeführt
wurde
A1 = {e1 , e2 , e5 , e10 , e11 , e12 }
A2 = {e1 , e3 , e5 , e6 , e8 , e9 } Mit (v): P([A1 ∪ A2 ∪ A3 ]c ) = 1 − P(A1 ∪ A2 ∪ A3 )
A3 = {e5 , e11 , e12 } = 1 − 5/6 = 1/6
P(A1 ) = 1/2 Mit de Morgan: P([A1 ∪ A2 ∪ A3 ]c ) = P(Ac1 ∩ Ac2 ∩ Ac3 )
P(A2 ) = 1/2 = P({e3 , e4 , e6 , e7 , e8 , e9 } ∩ {e2 , e4 , e7 , e10 , e11 , e12 }
P(A3 ) = 1/4 ∩{e1 , e2 , e3 , e4 , e6 , e7 , e8 , e9 , e10 })
= P({e4 , e7 }) = 2/12 = 1/6
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 223 / 545
5.2 Wahrscheinlichkeitsmaße, Wahrscheinlich-
5 Wahrscheinlichkeitstheorie keitsräume
ω ∈ {e1 , . . . , e12 } = Ω W’keit für eine Bearbeitung, die mit Version 2.0 von einer Frau
P({ei }) = 1/12, i = 1, . . . , 12 durchgeführt wurde
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 224 / 545
Zufallsvariablen und deren
Verteilung
6 Zufallsvariablen und deren Verteilung 6.1 Zufallsvariablen
6.1 Zufallsvariablen
Erinnerung
Zufallsexperiment Datenerhebungsprozess mit nicht vorhersagbarem Ausgang
Fahrplan
ω ist ein beliebiges Ergebnis, z.B. die oben liegende Seite des Würfels, die
gesamte Spur einer Mausaktivität
Mit beliebigen Ergebnissen lässt sich schlecht rechnen, definiere darum
Abbildung von Ω in den Raum der reellen Zahlen
Häufig sehr intuitiv, erscheint daher oft überflüssig, formal aber notwendig
Danach: Definition einer Verteilung auf den reellen Zahlen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 226 / 545
6 Zufallsvariablen und deren Verteilung 6.1 Zufallsvariablen
6.1 Zufallsvariablen
Eine Abbildung, die jedem Ergebnis eines Zufallsexperiments eine reelle Zahl
zuordnet, wird Zufallsvariable genannt. Ein konkreter Wert x = X (ω) heißt
Realisation der Zufallsvariable X .
X :Ω→R ω 7→ X (ω)
Beispiel: Würfelwurf
Zufallsvariable Augenzahl. Intuitiv: X1 (ω) = ω
Besser: X1 (ω) = Anzahl der Augen, die beim Würfelwurf oben liegen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 227 / 545
6 Zufallsvariablen und deren Verteilung 6.1 Zufallsvariablen
6.1 Zufallsvariablen
Eine Abbildung, die jedem Ergebnis eines Zufallsexperiments eine reelle Zahl
zuordnet, wird Zufallsvariable genannt. Ein konkreter Wert x = X (ω) heißt
Realisation der Zufallsvariable X .
X :Ω→R ω 7→ X (ω)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 228 / 545
6 Zufallsvariablen und deren Verteilung 6.1 Zufallsvariablen
6.1 Zufallsvariablen
Eine Abbildung, die jedem Ergebnis eines Zufallsexperiments eine reelle Zahl
zuordnet, wird Zufallsvariable genannt. Ein konkreter Wert x = X (ω) heißt
Realisation der Zufallsvariable X .
X :Ω→R ω 7→ X (ω)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 229 / 545
6 Zufallsvariablen und deren Verteilung 6.1 Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 230 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 231 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 231 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Man summiert also über alle Elementarereignisse auf, die zu einer passenden
Realisierung der Zufallsvariablen führen.
Im stetigen Fall: P X (B) = P(A) = A P(t)dt.
R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 233 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
B = {x1 } = lim({Bx1 \ Bx1 −ϵ }) ⇒ P X (B) = lim[P X (Bx1 ) − P X (Bx1 −ϵ )],
ϵ↓0 ϵ↓0
da Bx1 −ϵ ⊂ Bx1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 234 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
B = {x1 } = lim({Bx1 \ Bx1 −ϵ }) ⇒ P X (B) = lim[P X (Bx1 ) − P X (Bx1 −ϵ )],
ϵ↓0 ϵ↓0
da Bx1 −ϵ ⊂ Bx1
k
S
x1 ̸= . . . ̸= xk : B = {x1 , . . . , xk } = lim({Bxi \ Bxi −ϵ })
i=1 ϵ↓0
k
⇒ P X (B) = lim[P X (Bxi ) − P X (Bxi −ϵ )]
P
i=1 ϵ↓0
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 235 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
x1 < x2 : B = (x1 , x2 ] = Bx2 \ Bx1 ⇒ P X (B) = P X (Bx2 ) − P X (Bx1 ), da
Bx1 ⊂ Bx2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 236 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
x1 < x2 : B = (x1 , x2 ] = Bx2 \ Bx1 ⇒ P X (B) = P X (Bx2 ) − P X (Bx1 ), da
Bx1 ⊂ Bx2
Beliebige weitere Ereignisse lassen sich jetzt durch Schnitte und Vereinigungen aus
den endlichen Mengen und den halboffenen Intervallen konstruieren.
Definiere daher jetzt eine Funktion auf den Mengen Bx , die entsprechend
ausreichend ist, um die gesamte Verteilung P X eindeutig zu definieren.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 237 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
#{xn |xn ≤ x}
=
N
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 238 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
lim F (x) = lim P({ω ∈ Ω|X (ω) ∈ (−∞, x] ∩ R})
x→−∞ x→−∞
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 240 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Beweis:
Setze An = {ω ∈ Ω|X (ω) ∈ (−∞, z + 1/n]}, A0 = Ω
∞
\
⇒A= An = {ω ∈ Ω|X (ω) ∈ (−∞, z]}, An ⊂ An−1 , Acn−1 ⊂ Acn , n = 1, 2, . . .
n=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 241 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
= lim F (x) □
x↓z
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 242 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
⇒ P(a < X ≤ b) = P({ω ∈ Ω|X (ω) ∈ (a, b]}) = P(B \ A) = P(B) − P(A)
A⊆B
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 243 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 244 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 245 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 246 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 247 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 248 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 249 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 250 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 251 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 252 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 253 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 254 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 255 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 256 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 257 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 258 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 259 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 260 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 261 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 262 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 263 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 264 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 265 / 545
6 Zufallsvariablen und deren Verteilung 6.2 Eindimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 266 / 545
Wahrscheinlichkeits-
theoretische Kennzahlen
7 Wahrscheinlichkeitstheoretische Kennzahlen
TX = {x|P(X = x) > 0}
Achtung:
Liegt ein Wahrscheinlichkeitsraum mit Ω abzählbar vor, so muss der Träger jeder
zugehörigen Zufallsvariablen X ebenfalls diskret sein. Liegt hingegen ein
Wahrscheinlichkeitsraum mit Ω überabzählbar vor, sind sowohl Zufallsvariablen
mit diskreten als auch mit stetigen Trägern möglich.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 269 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel 2: Wurf eines fairen, 6-seitigen Würfels, aber fasse Ergebnis 5 und 6 zu
einer 5 zusammen (analog: ersetze die Zahl 6 auf dem Würfel durch die Zahl 5).
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 270 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
N
X 1
x̄ = xn
n=1
N
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 271 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel 1:
Beispiel 2:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 272 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
j=1
das heißt durch die erwartete quadratische Abweichung der Zufallsvariable X von
ihrem eigenen Erwartungswert. Beachte dabei die Parallelität zur empirischen
Varianz eines Beobachtungsvektors x1 , ..., xN :
N
X 1 2
dx2 = (xn − x̄)
n=1
N
p
Die Standardabweichung von X ist definiert durch Var(X ).
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 273 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel 2:
1
Var(X2 ) = E[(X2 − E[X2 ])2 ] = E[(X2 − 3 )2 ]
3
1 1 1
= P(X2 = 1) · (1 − 3 )2 + P(X2 = 2) · (2 − 3 )2 + P(X2 = 3) · (3 − 3 )2
3 3 3
1 2 1 2
+ P(X2 = 4) · (4 − 3 ) + P(X2 = 5) · (5 − 3 )
3 3
1 1 2 1 2 1 2 2 2 2 2 2 20
= ((−2 ) + (−1 ) + (− ) + ( ) ) + (1 ) =
6 3 3 3 3 6 3 9
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 274 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Für h : x 7→ x ergibt sich für E[h(X )] damit der Erwartungswert von X und für
h : x 7→ (x − E[X ])2 die Varianz von X .
Der Wert, der sich für h : x 7→ x k ergibt, wird k-tes Moment von X genannt:
XJ
mk (X ) = E[X k ] = xjk · p(xj ), J ∈ N ∪ {∞}.
j=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 275 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel:
Gegeben sei ein stetiger Wahrscheinlichkeitsraum
( √ (Ω, A, P), eine Zufallsvariable X
3
x, für 0 ≤ x ≤ 1
sowie die Funktion f X (x) = 2
0, sonst
∞ 0 1 ∞
3√
Z Z Z Z
f X (t) dt = 0 dt + t dt + 0 dt
−∞ −∞ 0 2 1
1
3 2 3
=0+ · ·t2 +0
2 3 0
= 0 + (1 − 0) + 0 = 1
Das Integral unter f X ist 1 → f X ist Dichte. Sei jetzt f X Dichte von X .
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 276 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 277 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 278 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
∞ 1
3√
Z Z
E [X ] = t · f X (t) dt = t· t dt
−∞ 0 2
Z 1 1
3 3 3 2 5 3
= t dt =
2 · t 2 =
0 2 2 5 0 5
∞ 1
3√
Z Z
2 3
Var (X ) = (t − E [X ]) · f (t) dt = (t − )2 · t dt
−∞ 0 5 2
1
3√
Z
6 9
= (t 2 − t + ) · t dt
0 5 25 2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 279 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
1
3√
Z
6 9
Var (X ) = (t 2 − t + ) · t dt
0 5 25 2
Z 1 Z 1 Z 1
2 3
√ 6 3√ 9 3√
= t · t dt − t· t dt + · t dt
0 2 0 5 2 0 25 2
Z 1 Z 1 Z 1
3 5 9 3 27 1
= · t 2 dt − · t 2 dt + · t 2 dt
0 2 0 5 0 50
1 1 1
3 2 7 9 2 5 27 2 3
= · ·t2 − · ·t2 + · ·t2
2 7 0 5 5 0 50 3 0
3 18 9
= − + ≈ 0.07
7 25 25
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 280 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Achtung:
E[XY ] = E[X ] · E[Y ] gilt im Allgemeinen nicht!
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 281 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 282 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
= a E[X ] + b
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 283 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
E[aX + b] = a E[X ] + b,
a, b ∈ R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 284 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
E[aX + b] = a E[X ] + b,
a, b ∈ R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 285 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
E[aX + b] = a E[X ] + b,
a, b ∈ R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 286 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beweis:
" n
# " n
# n
X X X
E ai Xi + b = E ai Xi + b = E[ai Xi ] + b
(2) (1)
i=1 i=1 i=1
n
X
= ai E[Xi ] + b □
(2)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 287 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen
existieren, so gelten folgende Eigenschaften:
(A) Var(X ) ≥ 0
(B) Var(aX + b) = a2 Var(X )
Achtung:
Var(X + Y ) = Var(X ) + Var(Y ) gilt im Allgemeinen nicht!
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 288 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen
existieren, so gelten folgende Eigenschaften:
(A) Var(X ) ≥ 0
(B) Var(aX + b) = a2 Var(X )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 289 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen
existieren, so gelten folgende Eigenschaften:
(A) Var(X ) ≥ 0
(B) Var(aX + b) = a2 Var(X )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 290 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen
existieren, so gelten folgende Eigenschaften:
(C) Verschiebungssatz von Steiner:
a ∈ R ⇒ Var(X ) = E[(X − a)2 ] − (E[X ] − a)2 ,
speziell für a = 0 ⇒ Var(X ) = E[X 2 ] − E[X ]2
Beweis:
Var(X ) = E[(X − E[X ])2 ] = E[((X − a) + (a − E[X ]))2 ]
= E[(X − a)2 + 2(a − E[X ])(X − a) + (a − E[X ])2 ]
= E[(X − a)2 ] + 2(a − E[X ])(E[X ] − a) + (a − E[X ])2
= E[(X − a)2 ] − 2(a − E[X ])2 + (a − E[X ])2
= E[(X − a)2 ] − (a − E[X ])2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 291 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
(D) Tschebyscheff-Ungleichung:
Var(X )
P(|X − E[X ]| > ε) ≤ , ε ∈ (0, ∞)
ε2
Beweis:
Z∞ Z
Var(X ) = (t − E[X ])2 fX (t)dt ≥ (t − E[X ])2 fX (t)dt
(t−E[X ])2 fX (t)≥0
−∞ t:(t−E[X ])2 >ε2
Z Z
≥ ε2 fX (t)dt = ε2 fX (t)dt = ε2 P((X − E [X ])2 > ε2 )
t:(t−E[X ])2 >ε2 t:(t−E[X ])2 >ε2
2
= ε · P[(X > E[X ] + ε) ∪ (X < E[X ] − ε)]
(∗)
p p 1
Setze ε := r Var(X ) ⇒ P(|X − E[X ]| > r Var(X )) ≤ 2
r
p p 1
⇔ P(E[X ] − r Var(X ) ≤ X ≤ E[X ] + r Var(X )) ≥ 1 −
r2
Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen
Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig
von der Verteilung von X mindestens 1 − 1/r 2 .
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 293 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel:
1
Sei X stetig verteilte Zufallsvariable mit Dichtefunktion fX (x) = I(x ≥ 1) · x2
R∞ R∞
Allerdings gilt auch: E[X ] = tfX (t)dt = t t12 dt = lim (log(b)) = ∞
−∞ 1 b→∞
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 294 / 545
7 Wahrscheinlichkeitstheoretische Kennzahlen 7.1 Erwartungswert und Varianz
Beispiel:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 295 / 545
7.2 Weitere wahrscheinlichkeitstheoretische
7 Wahrscheinlichkeitstheoretische Kennzahlen Kennzahlen
F (x) ≥ p
Das 0.5-Quantil heißt Median, das 0.25-Quantil unteres Quartil und das
0.75-Quantil oberes Quartil.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 296 / 545
7.2 Weitere wahrscheinlichkeitstheoretische
7 Wahrscheinlichkeitstheoretische Kennzahlen Kennzahlen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 297 / 545
7.2 Weitere wahrscheinlichkeitstheoretische
7 Wahrscheinlichkeitstheoretische Kennzahlen Kennzahlen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 298 / 545
Wichtige Wahrscheinlichkeits-
verteilungen
8 Wichtige Wahrscheinlichkeitsverteilungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 301 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Träger: TX = {a}
Zähldichte: p X (x) = I (a = x)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 302 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
1
X
1·a=a
j=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 303 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
⇒ “ : X ∼ εa ⇒ Var(X ) = 0
”
J
X
⇐ “ : Var(X ) = 0 ⇔ (xj − E[X ])2 · p(xj ) = 0
”
j=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 304 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Besteht der Träger TX nicht nur aus einem, sondern aus 2 Elementen, so sprechen
wir von einem Bernoulli-Experiment. Beispiele: Einfacher Münzwurf, zufälliges
Kippen eines Bits beim Speichern, oder generell: Erfolg gegen Misserfolg.
Binsenweisheit
Es gibt ja nur 2 Möglichkeiten: Gewinnen oder nicht gewinnen. Die
Wahrscheinlichkeit zu gewinnen beträgt also 50%.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 305 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
(
X p x (1 − p)1−x , für x ∈ {0, 1}
⇒ p (x) =
0, sonst
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 306 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
J
P
Erwartungswert: E[X ] = p(xj ) · xj
j=1
1
X
p x (1−p)1−x ·x = (1−p)·0+p ·1 = p
j=0
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 307 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 308 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 309 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Erwartungswert:
" n # n
X X
E [X ] = E Y = E [Y ] = np
i=1 i=1
Var (X ) = np(1 − p)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 311 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Achtung:
Wir haben hier die erste diskrete Verteilung mit abzählbar unendlichem Träger
Tx = {1, 2, 3, ...}.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 313 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Erwartungswert:
∞
X ∞
X
E [X ] = i · (1 − p)i−1 · p = (i + 1) · (1 − p)i · p
i=1 i=0
∞
X ∞
X
= i · (1 − p)i · p + (1 − p)i · p
i=0 i=0
∞
X ∞
X
= (1 − p) i · (1 − p)i−1 · p + (1 − p)i−1 · p
i=0 i=1
= (1 − p)E [X ] + 1
1
E [X ] = (1 − p)E [X ] + 1 ⇔ E [X ] − E [X ] + pE [X ] = 1 ⇔ E [X ] =
p
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 314 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Erwartungswert:
1
E [X ] =
p
1 1
Var (X ) = −
p2 p
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 315 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Als nächstes folgt eine etwas verrückte Verteilungsklasse: Gegeben sei eine Urne
mit r roten und s schwarzen Kugeln. Aus dieser Urne ziehen wir ohne Zurücklegen
n Kugeln. Mit welcher Wahrscheinlichkeit werden dabei genau k rote Kugeln
gezogen?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 316 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Anwendungen:
In einer Grundgesamtheit von r + s Individuen gibt es r gute und s schlechte
Individuen (z.B. Pralinen mit und ohne Nougat-Füllung). Wir ziehen blind n
Individuen und wollen wissen, mit welcher Wahrscheinlichkeit wir wie viele
gute Individuen gezogen haben. Oder, im Umkehrschluss, wie viele Individuen
müssen wir ziehen, um eine gewisse Anzahl guter Kandidaten zu erhalten.
Capture-Recapture: Wähle aus einer Grundgesamtheit zufällig r Individuen,
markiere diese und lege sie wieder zurück. Ziehe jetzt blind n Individuen und
betrachte, wie viele gute (markierte) Individuen gezogen wurden. So kann
z.B. die Größe einer Gesamtpopulation geschätzt werden, ohne alle Individuen
zählen zu müssen.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 317 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Urnenmodell
k = Anzahl rote Kugeln nach n-maligem Ziehen aus einer Urne mit r roten und s
schwarzen Kugeln ohne Zurücklegen
Ω sind alle Möglichkeiten, die n Ziehungen“ auf
”
die r + s Kugeln zu verteilen.
r +s
Davon gibt es |Ω| = n .
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 319 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Wenn jedes Element des Trägers mit gleicher Wahrscheinlichkeit auftreten kann
(Beispiel: Fairer Würfelwurf), dann liegt eine diskrete Gleichverteilung vor.
P({ω ∈ Ω|X (ω) = x1 }) = P({ω ∈ Ω|X (ω) = x2 }) = . . . = P({ω ∈ Ω|X (ω) = xn })
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 320 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
1
Zähldichte: p(x) = n ∀x ∈ TX
Verteilungs-
n
1
P
funktion: F (x) = n I (xi ≤ x)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 321 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
J
P
Erwartungswert: E[X ] = p(xj ) · xj
j=1
n n
X 1 1X
· xj = xj = T X
n n
j=1 j=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 322 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
n
1X 1 n · (n + 1) n+1
j= =
n n 2 2
j=1
Varianz Var(X ) = E [X 2 ] − E [X ]2
n
1X 2 1 n(n + 1)(2n + 1)
E [X 2 ] = j =
n j=1 n 6
(n + 1)(2n + 1) (n + 1)2
E [X 2 ] − E [X ]2 = −
6 4
(4n2 + 6n + 2) − (3n2 + 6n + 3) n2 − 1
= =
12 12
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 323 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 324 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
Dann lässt sich zeigen, dass sich die Wahrscheinlichkeit für das Auftreten von k
Ereignissen innerhalb eines Zeitraums ergibt als:
(
λk
X k!
e −λ für k ∈ {0, 1, 2, ..., ∞}
p (k) = P(X = k) =
0, sonst
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 325 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.1 Diskrete Verteilungen
E [X ] = λ
Var (X ) = λ
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 326 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
2 Die Wahrscheinlichkeit für das Auftreten eines Ereignisses in einem Zeitintervall der
Länge ∆t beträgt λ∆t.
3 Die Wahrscheinlichkeit für das Eintreten eines Ereignisses hängt lediglich von der
Länge von ∆t ab, und nicht von seiner Lage innerhalb des Zeitraums [t0 , t1 ].
Hier betrachten wir jetzt die stetige Verallgemeinerung der diskreten Gleichverteilung:
Die Wahrscheinlichkeit für das Auftreten eines Ereignisses ist stets gleich groß. Nur, dass
wir jetzt nicht endlich viele diskrete Zeitpunkte, sondern stetige Zeitpunkte in einem
Intervall [a, b], a ∈ R, b ∈ R, a < b betrachten.
Aufgrund der Form der Dichte-Funktion wird diese Verteilung häufig auch als
Rechteckverteilung bezeichnet.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 327 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
b 2 − a2 (b − a)(b + a) a+b
= = =
2(b − a) 2(b − a) 2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 330 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
Träger:
TX = [0, ∞)
Verteilungsfunktion:
F X (x) = (1 − e −(λ·x) )∀x ∈ TX
Dichtefunktion:
f X (x) = λe −(λ·x) ∀x ∈ TX
Erwartungswert:
Z∞
1
E [X ] = xλe −λx dx =
λ
0
Varianz:
Z∞ 2
1 1
Var (X ) = x− λe −λx dx = 2
λ λ
0
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 331 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
Im Gegensatz zu den bisherigen Verteilungen lässt sich die Normalverteilung nicht direkt
oder indirekt aus Bernoulli-Experimenten ableiten, sondern stellt zunächst einmal ein rein
theoretisches Konstrukt dar. Ihre Bedeutung wird erst über den folgenden, zentralen Satz
klar:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 332 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 333 / 545
8 Wichtige Wahrscheinlichkeitsverteilungen 8.2 Stetige Verteilungen
Träger:
TX = R
Dichtefunktion:
1 1 x−µ 2
f X (x) = √ e− 2 ( σ )
2πσ 2
Verteilungsfunktion:
Zx
1 1 t−µ 2
F X (x) = √ e − 2 ( σ ) dt
2πσ 2
−∞
Erwartungswert:
E [X ] = µ
Varianz:
Var (X ) = σ 2
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 334 / 545
Mehrdimensionale Wahr-
scheinlichkeitsverteilungen
9 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 336 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel:
Fairer Würfelwurf. Wir suchen PB (A) mit A = Augenzahl größer 3, wenn bereits
bekannt ist, dass Ereignis B: Gewürfelte Augenzahl ist ungerade eingetreten ist.
Ω = {1, 2, 3, 4, 5, 6}, A = {4, 5, 6}, B = {1, 3, 5}
P(A|B) =?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 338 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 339 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 340 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 341 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 342 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 343 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Die Wahrscheinlichkeit
P(A ∩ B)
P(A|B) =
P(B)
heißt bedingte Wahrscheinlichkeit von A gegeben B.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 344 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
3 3 P(B ∩ B|Ω)
P(A|Ω) = , P(B|Ω) = P(B|B) = =1
6 6 P(B|Ω)
1 P(A ∩ B|Ω) 1
P(A ∩ B|Ω) = P(A|B) = =
6 P(B|Ω) 3
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 345 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
6 12 P(A ∩ B|Ω) 5
P(A|Ω) = , P(B|Ω) = P(A|B) = = ≈ 0.417
16 16 P(B|Ω) 12
5
P(A ∩ B|Ω) = = 0.3125
16
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 346 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Bis jetzt: Die Wahrscheinlichkeit dafür, dass Ereignis A eintritt, ändert sich, wenn
der Ausgang des Ereignisses B bekannt ist. Ist das immer so?
Beispiel: Wir würfeln 2 Würfel.
Ereignis A: Würfel 1 zeigt eine 1, Ereignis B: Würfel 2 zeigt eine 1.
1
Ω = {(1, 1), (1, 2), ..., (2, 1), ..., (6, 6)}, |Ω| = 36, P(ω) = 36 , ∀ω ∈ Ω
A = {(1, 1), (1, 2), ..., (1, 6)}, |A| = 6, B = {(1, 1), (2, 1), ..., (6, 1)}, |B| = 6
In diesem Fall gilt also: P(A) = P(A|B), d.h. die Wahrscheinlichkeit für das
Eintreten von A ändert sich nicht, wenn Information B vorliegt. Diese Eigenschaft
zweier Ereignisse wird als stochastische Unabhängigkeit bezeichnet und ist die
Grundlage für viele weitere statistische Methoden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 347 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Daraus folgt, falls außerdem P(B) > 0 bzw. P(A) > 0 gilt:
P(A ∩ B)
P(A) = P(A|B) = ⇔ P(A ∩ B) = P(A) · P(B)
P(B)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 348 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Das Prinzip der stochastischen Unabhängigkeit von zwei Ereignissen lässt sich auf
beliebig viele Ereignisse erweitern, dabei unterscheiden wir 2 Fälle:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 349 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 350 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 351 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 352 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 353 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 354 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 355 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 356 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Bisher:
Gegeben sind zwei Ereignisse, deren Wahrscheinlichkeiten P(A) und P(B)
bekannt sind. Wie hängen diese beiden Ereignisse zusammen, d.h. wie ändert sich
die P(A), wenn die Information über B bekannt ist?
Jetzt:
Teile den Raum Ω in disjunkte Ereignisse B1 , ..., Bk ein:
k
[
Ω= Bi , Bi ∩ Bj = ∅ ∀i, j
i=1
Beispiel:
H. schreibt dieses Semester die Wrums-Klausur mit. Wichtig ist dabei vor allem
die Aufgabe 7. Er möchte vorab abschätzen, mit welcher Wahrscheinlichkeit er
diese richtig löst (Ereignis A). Sie kommt aus einem der 3 Themengebiete:
B1 Einfache Lineare Regression
B2 Erwartungswert berechnen
B3 Bedingte Wahrscheinlichkeiten
H. hat die Themen unterschiedlich gut verstanden. Er schätzt daher, dass er eine
Aufgabe aus Gebiet B1 mit Wahrscheinlichkeit 75% löst, aus B2 mit 60% und aus
B3 mit 45%:
Weiter nimmt H. an, dass die Wahrscheinlichkeit für jedes der Themengebiete
gleich groß ist (P(B1 ) = P(B2 ) = P(B3 )). Wie groß ist P(A)?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 358 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 359 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 360 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 361 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 362 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 363 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel:
Zurück zur Klausuraufgabe von Student H. Zur Erinnerung:
1
Weiter gilt: P(B1 ) = P(B2 ) = P(B3 ) = 3 und Ω = B1 ∪ B2 ∪ B3 .
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 364 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 365 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
P(A|B) lässt sich leicht bestimmen: Wir testen offensichtlich kranke und gesunde
Personen und können in jeder Gruppe die Anzahl der positiven / negativen
Ergebnisse bestimmen.
P(B|A) ist deutlich schwieriger: Ich habe ein positives Ergebnis erhalten und
möchte wissen, mit welcher Wahrscheinlichkeit ich tatsächlich erkrankt bin.
Lässt sich P(B|A) vielleicht auf P(A|B) zurückführen?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 366 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel:
Wir bauen einen (einfachen und ziemlich veralteten) Spamfilter: Betrachte eine
E-Mail als Spam, falls Sie das Wort Maximalgewinn beinhaltet. Alle Spam-Mails
werden automatisch geblockt, alle anderen Mails werden ausgeliefert.
Uns als Nutzer dieses Filters interessiert jetzt die Frage: Wenn wir eine E-Mail
erhalten, mit welcher Wahrscheinlichkeit handelt es sich hierbei um (k)eine Spam
E-Mail?
Alternative Frage: Wie viele der geblockten Mails waren Spam / kein Spam?
Beide Fragen lassen sich nicht direkt beantworten, da wir hier auf die unbekannte
Information: Eine E-Mail ist Spam / kein Spam bedingen müssen.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 367 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel:
Definiere im Spam-Beispiel die folgenden Ereignisse
A: Eine Mail enthält das Wort Maximalgewinn und wird darum von unserem
automatischen Filter als Spam erkannt und darum geblockt
Ac : Eine Mail ohne das Wort Maximalgewinn wird als echte Mail eingestuft
B: Die Mail ist tatsächlich eine Spam-Mail
B c : Die Mail ist keine Spam-Mail
Weiterhin sei aus Voruntersuchungen bekannt:
P(A|B) = 0.95: W’keit, dass Spam-Mail das Wort Maximalgewinn enthält,
P(A|B C ) = 0.02: W’keit, dass Nicht-Spam-Mail das Wort Maximalgewinn enthält,
P(B) = 0.30: W’keit dafür, dass eine Mail tatsächlich Spam ist.
Setzen wir dies ineinander ein, ergibt sich der Satz von Bayes in seiner einfachen
Fassung:
Beispiel: Spam-Filter
Ereignis A: Mail enthält das Wort Maximalgewinn ⇒ Klassifiziere Mail als Spam
Ereignis B: Mail ist Spam
P(A|B) = Sensitivität = W’keit, Spam als solchen zu klassifizieren
P(Ac |B c ) = Spezifität = W’keit, normale Mails nicht als Spam zu klassifizieren
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 370 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel: Spam-Filter
P(A|B) = Sensitivität = W’keit, Spam als solchen zu klassifizieren
P(Ac |B c ) = Spezifität = W’keit, normale Mails nicht als Spam zu klassifizieren
Die 1. Formulierung benötigt P(A) und P(B). Da P(A) oftmals und auch hier
unbekannt ist, verwende die 2. Variante, hier istdie Angabe der sogenannten
Prävalenz P(B) ausreichend. Beachte auch die Umformulierung hier, in der
P(A|B c ) auf die zugehörige Gegenwahrscheinlichkeit zurückgeführt wird.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 371 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel: Spam-Filter
Gegeben:
B : Mail ist Spam B c : Mail ist kein Spam
P(A|B) = Sensitivität =0.95 A : Maximalgewinn 0.95 0.02
in Mail
P(Ac |B c ) = Spezifiztät =0.98
Ac : Maximalgewinn 0.05 0.98
P(B) = Prävalenz =0.3 nicht in Mail
P(A|B) · P(B)
P(B|A) =
P(A|B) · P(B) + (1 − P(Ac |B c )) · (1 − P(B))
0.95 · 0.3 0.285
= = ≈ 0.9532
0.95 · 0.3 + (1 − 0.98) · (1 − 0.3) 0.299
⇒ Unter den gegebenen Annahmen sind 95% der geblockten E-Mails tatsächlich
Spam, während 5% der geblockten E-Mails zu unrecht geblockt werden
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 372 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Beispiel: Spam-Filter
Gegeben:
B : Mail ist Spam B c : Mail ist kein Spam
P(A|B) = Sensitivität =0.95 A : Maximalgewinn 0.95 0.02
in Mail
P(Ac |B c ) = Spezifiztät =0.98
Ac : Maximalgewinn 0.05 0.98
P(B) = Prävalenz =0.3 nicht in Mail
P(Ac |B c ) · P(B c )
P(B c |Ac ) =
P(Ac |B c )· P(B c ) + (1 − P(A|B)) · (1 − P(B c ))
0.98 · 0.7 0.686
= = ≈ 0.9786
0.98 · 0.7 + (1 − 0.95) · 0.3 0.701
⇒ Unter den gegebenen Annahmen sind 98% der nicht-geblockten E-Mails kein
Spam, während 2% Spam sind.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 373 / 545
9 Mehrdimensionale Zufallsvariablen 9.1 Bedingte Wahrscheinlichkeiten
Bei der Herleitung des Satzes von Bayes haben wir den Spielfall des Satzes der
totalen Wahrscheinlichkeit mit den Mengen A ∪ Ac = Ω verwendet. Der Satz von
Bayes lässt sich auch mit der vollständigen Definition des Satzes der totalen
Wahrscheinlichkeit verwenden:
Sk
Sei B1 , ..., Bk eine disjunkte Zerlegung von Ω: Bi = Ω, i ̸= j ⇒ Bi ∩ Bj = ∅.
i=1
n
P
Dann gilt für A ⊂ Ω: P(A) = P(A|Bi ) · P(Bi ).
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 374 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Beweis:
A = {ω ∈ Ω|X (ω) ≤ x, Y (ω) ≤ y } = Ax ∩ Ay mit Ax = {ω ∈ Ω|X (ω) ≤ x}
Ay = {ω ∈ Ω|Y (ω) ≤ y }
F (x, y ) = P(A) = P(Ax ∩ Ay ) = 1 − P(Acx ∪ Acy )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 376 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Beweis:
A = {ω ∈ Ω|X (ω) ≤ x, Y (ω) ≤ y } = Ax ∩ Ay mit Ax = {ω ∈ Ω|X (ω) ≤ x}
Ay = {ω ∈ Ω|Y (ω) ≤ y }
c c
F (x, y ) = P(A) = P(Ax ∩ Ay ) = 1 − P(Ax ∪ Ay )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 377 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Beweis (Fortsetzung):
lim F (x, y ) = F Y (y ) Beweis für lim F (x, y ) = F X (x) analog.
x→∞ y →∞
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 378 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 379 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Z∞ Z∞
f (X ,Y ) (s, t) dt ds = 1
−∞ −∞
X
Die Randdichten f und f Y von X und Y sind definiert durch
Z∞ Z∞
X (X ,Y ) Y
f (x) = f (x, t) dt und f (y ) = f (X ,Y ) (s, y ) ds
−∞ −∞
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 380 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
X X
p (X ,Y ) (s, t) = 1
s∈Tx t∈Ty
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 381 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 382 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 383 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 384 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 385 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 386 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Wir haben hier einen Laplace-Raum vorliegen, in dem jedes Elementarereignis mit
1 1
gleicher Wahrscheinlichkeit |Ω| = 32 auftritt.
Betrachte die beiden Zufallsvariablen:
X Die Anzahl der erfolgreichen Experimente: Wie oft wurde Kopf geworfen?
Y Die Anzahl Experimente bis zum 1. Erfolg: Im wievielten Wurf gab es zum
1. Mal Kopf? Sei weiterhin Y := 6, falls kein Kopf geworfen wurde.
Wir wissen bereits: X ist binomial verteilt, und Y ist (in weiten Teilen)
geometrisch verteilt. Und was die gemeinsame Verteilung?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 387 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
ˆ Y 16 8 4 2 1 1
P
=p 32 32 32 32 32 32
1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 388 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Beispiel: Man spielt einen Abend lang wiederholt Werwölfe von Düsterwald:
Jedem Spieler wird zufällig eine Rolle (Dorfbewohner, Werwolf, weitere
Sonderrolle) zugelost. Mit welcher Wahrscheinlichkeit war man nach n Spielen x1
mal Dorfbewohner, x2 mal Werwolf und hatte x3 eine weitere Sonderrolle?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 389 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Zähldichte:
k
n! Y
p(x1 , . . . , xk ) = I(x ∈ TX ) · k
· pi
Q
xi ! i=1
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 390 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Träger: TX = Rr
Dichtefunktion:
1 1 ⊤
Σ−1 (x−µ)
f (x1 , . . . , xr ) = p e − 2 (x−µ)
(2π)k/2 |Σ|
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 391 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Folgerung:
Die Zufallsvariablen X und Y heißen stochastisch unabhängig, falls
F (X ,Y ) (x, y ) = F X (x) · F Y (y ) für alle x, y ∈ R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 392 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 394 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
2 2 1 1
⇒ p (XY ) (0, 2) = · 0.52 = · =
0! · 2! 1·2 4 4
2 2 1 1
p (XY ) (1, 1) = · 0.52 = · =
1! · 1! 1·1 4 2
2 2 1 1
p (XY ) (2, 0) = · 0.52 = · =
2! · 0! 2·1 4 4
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 395 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
1 1 1 1 1 1
p (XY ) (1, 1) = p (X ) (1) = p Y (1) = p X (1) · p Y (1) = · = ̸= = p (XY ) (1, 1)
2 2 2 2 4 2
1 1 1 1 1 1
p (XY ) (2, 0) = p (X ) (2) = p Y (0) = p X (2) · p Y (0) = · = ̸= = p (XY ) (2, 0)
4 4 4 4 16 4
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 396 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 397 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 398 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 399 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Beweis:
= Var(X ) + Var(Y ) + 2R
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 401 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Cov(X , Y )
Cov(X , Y ) = E[(X − E[X ]) · (Y − E[Y ])] Cor(X , Y ) = p
Var(X ) · Var(Y )
Eigenschaften
(i) Cov(X , Y ) = Cov(Y , X ), Cor(X , Y ) = Cor(Y , X )
(ii) Cov(X , Y ) = E[XY ] − E[X ] E[Y ]
(iii) −1 ≤ Cor(X , Y ) ≤ 1
(iv) Cor(X , Y ) < 0 ⇔ X und Y sind negativ korreliert
Cor(X , Y ) > 0 ⇔ X und Y sind positiv korreliert
Cor(X , Y ) = 0 ⇔ X und Y sind unkorreliert
Beweise der Eigenschaften analog zu den Beweisen der gleichen Eigenschaften für
die empirische Kovarianz und empirische Korrelation.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 402 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Cov(X , Y )
Cov(X , Y ) = E[(X − E[X ]) · (Y − E[Y ])] Cor(X , Y ) = p
Var(X ) · Var(Y )
Eigenschaften
(v) X und Y stoch. unabh. ⇒ X und Y unkorreliert
X und Y unkorreliert ⇏ X und Y stoch. unabh.
(vi) Var(X + Y ) = Var(X ) + Var(Y ) + 2 · Cov(X , Y )
(vii) Cov(aX + b, cY + d) = ac · Cov(X , Y )
(viii) Cov(X , X ) = Var(X )
Beweise der Eigenschaften analog zu den Beweisen der gleichen Eigenschaften für
die empirische Kovarianz und empirische Korrelation.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 403 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Dann gilt:
lim P(|X̄ − µ| > ε) = 0
N→∞
Beweis:
N
# " " N # N N
1 X 1 X 1 X 1 X 1
1. E[X̄ ] = E Xi = E Xi = E[Xi ] = µ = Nµ = µ
N N N N N
i=1 i=1 i=1 i=1
N
1 X N N
1 X 1 X
2. Var(X̄ ) = Var Xi = Var Xi = Var(Xi )
N N2 X1 ,...,XN st.u. N2
i=1 i=1 i=1
N
1 X 1 σ2
= σ2 = Nσ 2 =
N2 N 2 N
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 404 / 545
9 Mehrdimensionale Zufallsvariablen 9.2 Mehrdimensionale Zufallsvariablen
Interpretation:
Wenn wir nur ausreichend viele Realisierungen von Zufallsvariablen nehmen, dann
konvergiert das arithmetische Mittel gegen den Erwartungswert. Dies entspricht
auch unserer Intuition der beiden Größen. Wir können also das arithmetische
Mittel als Schätzer für den Erwartungswert verwenden.
Achtung: Dies gilt nur, wenn die Voraussetzungen erfüllt sind! Die addierten
Zufallsvariablen müssen sowohl der gleichen Verteilung folgen, als auch
gemeinsam stochastisch unabhängig sein.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 405 / 545
Markovketten
10 Markovketten 10.1 Theorie
10.1 Markovketten
Zuletzt:
Interpretation von Datensätzen x1 , . . . , xN als Realisation von N unabhängig
identisch verteilten Zufallsvariablen X1 , . . . , XN ,
d.h. P X (Xi |Xj ) = P X (Xi ) für alle i ̸= j
⇒ Vernachlässigung der Reihenfolge, keine Abhängigkeitsstruktur
Jetzt:
Interpretation von Datensätzen x1 , . . . , xN als Realisationen zum Zeitpunkt
i = 1, . . . , N gemessener Zufallsvariablen X1 , . . . , XN mit stochastischer
Abhängigkeit zwischen Variablen zu aufeinanderfolgenden Zeitpunkten, d.h. i.A.
P X (Xn+1 |Xn ) ̸= P X (Xn+1 ).
⇒ Berücksichtigung der Reihenfolge, Formulierung der Abhängigkeitsstruktur
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 407 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Stochastischer Prozess:
Eine Familie {Xt : t ∈ T } von auf dem Wahrscheinlichkeitsraum {Ω, A, P}
definierten Zufallsvariablen Xt heißt stochastischer Prozess mit
Parameterbereich T .
Die Realisationsmenge I = {Xt (ω)|ω ∈ Ω, t ∈ T } von X wird Zustandsraum des
Prozesses genannt.
Markovkette:
Eine Markovkette ist ein stochastischer Prozess {Xn : n ∈ N ∪ {0}} mit
abzählbarem Zustandsraum I, der die folgende Markov’sche Eigenschaft besitzt:
Für alle n ∈ N ∪ {0} und alle i0 , i1 , . . . , in+1 ∈ I mit
P(X0 = i0 , X1 = i1 , . . . , Xn = in ) > 0 gilt:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 408 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Homogene Markovkette
Eine Markovkette {Xn : n ∈ N ∪ {0}} mit Zustandsraum I heißt homogen oder
auch Markovkette mit stationären Übergangswahrscheinlichkeiten pij , wenn
gilt:
P(Xn+1 = i|Xn = j) = pij , ∀i, j ∈ I und ∀n ∈ N ∪ {0}.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 409 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Homogene Markovkette
Eine Markovkette {Xn : n ∈ N ∪ {0}} mit Zustandsraum I heißt homogen oder
auch Markovkette mit stationären Übergangswahrscheinlichkeiten pij , wenn
gilt:
P(Xn+1 = i|Xn = j) = pij , ∀i, j ∈ I und ∀n ∈ N ∪ {0}.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 410 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Homogene Markovkette
Eine Markovkette {Xn : n ∈ N ∪ {0}} mit Zustandsraum I heißt homogen oder
auch Markovkette mit stationären Übergangswahrscheinlichkeiten pij , wenn
gilt:
P(Xn+1 = i|Xn = j) = pij , ∀i, j ∈ I und ∀n ∈ N ∪ {0}.
Übergangsmatrix
Für eine homogene Markovkette mit endlichem Zustandsraum I = {1, . . . , K }
kann die für jedes Paar (Xn+1 , Xn ) gültige Übergangsmatrix
p11 p12 · · · p1K
p21 p22 · · · p2K
K ×K
Pn,n+1 = (P[Xn+1 = i|Xn = j])i,j∈I = . .. ∈ [0, 1]
.. ..
.. . . .
pK 1 pK 2 ··· pKK
definiert werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 411 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
p11 p12 ··· p1K
p21 p22 ··· p2K
Pn,n+1 = .
.. .. ..
.. . . .
pK 1 pK 2 ··· pKK
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 412 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 413 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
pn;1
Sei nun die Wahrscheinlichkeitsverteilung des pn;2
pn = (P(Xn = i))i∈I = .
Zustands zum Zeitpunkt n gegeben durch
..
pn;K
Nach dem Satz der totalen Wahrscheinlichkeit gilt:
K
X
i = 1, . . . , K ⇒ P(Xn+1 = i) = P(Xn+1 = i|Xn = j) · P(Xn = j)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 414 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
pn;1
Sei nun die Wahrscheinlichkeitsverteilung des pn;2
pn = (P(Xn = i))i∈I = .
Zustands zum Zeitpunkt n gegeben durch
..
pn;K
Nach dem Satz der totalen Wahrscheinlichkeit gilt:
K
X
i = 1, . . . , K ⇒ P(Xn+1 = i) = P(Xn+1 = i|Xn = j) · P(Xn = j)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 415 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
pn;1
Sei nun die Wahrscheinlichkeitsverteilung des pn;2
pn = (P(Xn = i))i∈I = .
Zustands zum Zeitpunkt n gegeben durch
..
pn;K
Nach dem Satz der totalen Wahrscheinlichkeit gilt:
K
X
i = 1, . . . , K ⇒ P(Xn+1 = i) = P(Xn+1 = i|Xn = j) · P(Xn = j)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 416 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
pn;1
Sei nun die Wahrscheinlichkeitsverteilung des pn;2
pn = (P(Xn = i))i∈I = .
Zustands zum Zeitpunkt n gegeben durch
..
pn;K
Nach dem Satz der totalen Wahrscheinlichkeit gilt:
K
X
i = 1, . . . , K ⇒ P(Xn+1 = i) = P(Xn+1 = i|Xn = j) · P(Xn = j)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 417 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Übergangsmatrix
pn;1
Sei nun die Wahrscheinlichkeitsverteilung des pn;2
pn = (P(Xn = i))i∈I = .
Zustands zum Zeitpunkt n gegeben durch
..
pn;K
Nach dem Satz der totalen Wahrscheinlichkeit gilt:
K
X
i = 1, . . . , K ⇒ P(Xn+1 = i) = P(Xn+1 = i|Xn = j) · P(Xn = j)
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 418 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + 1 lässt sich
bestimmen durch
pn+1 = Pn,n+1 pn
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 419 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + 2 lässt sich
bestimmen durch
pn+2 = Pn,n+1 pn+1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 420 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + 2 lässt sich
bestimmen durch
pn+2 = Pn,n+1 (Pn,n+1 pn )
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 421 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + 2 lässt sich
bestimmen durch
2
pn+2 = Pn,n+1 pn
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 422 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + m lässt sich
bestimmen durch
m
pn+m = Pn,n+1 pn
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 423 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Die Wahrscheinlichkeitsverteilung des Zustands zum Zeitpunkt n + m lässt sich
bestimmen durch
m
pn+m = Pn,n+1 pn
Falls pn durch die Linksmultiplikation mit der Übergangsmatrix auf sich selbst
abgebildet wird, falls also
pn+1 = Pn,n+1 pn = pn
gilt, so ist pn ein Eigenvektor von Pn,n+1 zum Eigenwert 1 und es gilt:
pn+m = pn ∀m ≥ 1.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 424 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Irreduzibilität
Eine homogene Markovkette heißt irreduzibel, wenn es für alle (i, j) ein l ∈ N mit
l
(Pn,n+1 )ij > 0 gibt.
Irreduzibilität bedeutet also, dass von jedem Zustand nach endlicher Schrittzahl in
jeden Zustand gelangt werden kann.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 425 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Aperiodizität
Der Zustand j einer Markovkette heißt aperiodisch, wenn es ein l ∈ N gibt, so
dass P(Xn+l = j|Xn = j) > 0 und P(Xn+l+1 = j|Xn = j) > 0.
Eine homogene Markovkette heißt aperiodisch, wenn alle ihre Zustände
aperiodisch sind.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 426 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Satz
Eine homogene Markovkette mit Übergangsmatrix c ist aperiodisch und
irreduzibel, falls es ein l gibt, für das (Pn,n+1 )l ausschließlich positive Einträge hat.
Falls π die invariante Wahrscheinlichkeitsverteilung dieser Markovkette ist, so gilt
für alle pn :
(Pn,n+1 )m pn konvergiert für m → ∞ gegen π
Die Konvergenz wird nicht bewiesen, sondern anhand eines Beispiels aufgezeigt.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 427 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 428 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 429 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 430 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 431 / 545
10 Markovketten 10.1 Theorie
10.1 Markovketten
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 432 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 433 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 434 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 435 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 436 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 437 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 438 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 439 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 440 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 441 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 442 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 443 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 444 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 445 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 446 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 447 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 448 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 449 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 450 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 451 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 452 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 453 / 545
10 Markovketten 10.2 Beispiel Euro-Münze
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 454 / 545
Schließende Statistik
11 Schließende Statistik 11.1 Motivation
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 456 / 545
11 Schließende Statistik 11.1 Motivation
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 457 / 545
11 Schließende Statistik 11.1 Motivation
Punktschätzungen
Schätzung von Verteilungsparameter θ durch
Kennzahl θ̂ = g (x1 , . . . , xN )
Intervallschätzungen
Schätzung eines Intervalls
[θ̂L , θ̂U ] = KI (x1 , . . . , xN ) mit
P( θ ∈ [θ̂L , θ̂U ] ) ≥ 1 − α
Hypothesentests
Entscheidung zwischen H0 : θ ∈ T0 und
H1 : θ ∈ T1 anhand von T ∈ ∆0 oder T ∈ ∆1
mit P(T ∈ ∆1 |θ ∈ T0 ) ≤ α
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 458 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Ziel
Wir haben ein Zufallsexperiment mit dem üblichen Wahrscheinlichkeitsraum
(Ω, A, P), über welches wir Aussagen treffen wollen. Auf dem Zufallsexperiment
haben wir eine Zufallsvariable X definiert, die den uns interessierenden
Sachverhalt beschreibt. Wie ist X verteilt?
Beispiele
Glücksspiel Auf einem Jahrmarkt kaufe ich an einer Losbude 20 Lose,
darunter 5 Gewinne und 15 Nieten. Mit welcher W’keit gewinne ich? Oder:
Wie viele Lose muss ich im Schnitt bis zum nächsten Gewinn kaufen?
HelpDesk Wir bieten einen HelpDesk an, bei dem Fragen zur Vorlesung und
zur Übung gestellt werden können. Der HelpDesk wurde bis jetzt 4 mal
angeboten und dabei jeweils von 4, 2, 3 und 5 Studierenden besucht. Mit
welcher W’keit kommen wie viele Studierende zu einer Sitzung?
Festplatten In meinem Server laufen 10 Festplatten. Die Laufzeiten der
letzten, zu ersetzenden Festplatten betrugen 6, 12, 18, 15 und 32 Monate.
Mit welcher W’keit hält eine Festplatte wie viele Monate?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 459 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Schätzfunktionen und das statistische Schätzproblem
Grundidee:
Wir nehmen an, dass die Zufallsvariable X aus einer bekannten Verteilung
stammt, z.B. einer Bernoulli- oder einer Normalverteilung. Die meisten dieser
Verteilungen besitzen offene Parameter (p bei Bernoulli, µ und σ bei
Normalverteilung, allgemein: θ).
Stichprobe:
Wir führen das Zufallsexperiment N mal aus, d.h. wir betrachten Zufallsvariablen
(X1 , ..., XN ) u.i.v. wie X verteilt und mit zugehörigem Beobachtungsvektor
(x1 , ..., xN ). Wir nutzen die Information aus diesen Beobachtungen, um den
Parameter θ zu schätzen.
Schätzfunktionen:
Eine Punktschätzung für den Parameter θ ist jetzt eine beliebige Funktion g mit
θ̂ = g (X1 , ..., XN )
11.2 Punktschätzung
Schätzfunktionen und das statistische Schätzproblem: Beispiele
In erster Iteration können wir jede beliebige Funktion g als Punktschätzer für θ
verwenden. Beispiele sind:
N
1 X
g (X1 , ..., XN ) = Xi
N
i=1
N
1 X
g (X1 , ..., XN ) = (Xi − X̄ )2
N −1
i=1
g (X1 , ..., XN ) = 5
Offensichtlich sind nicht alle dieser Funktionen in jeder Situation sinnvoll. Wir
brauchen also Eigenschaften, wann ein Punktschätzer ein guter Punktschätzer ist.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 461 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Eigenschaften von Schätzstatistiken: Erwartungstreue
Zunächst könnte man von einer Schätzfunktion erwarten, dass diese zumindest
tendenziell den richtigen Wert liefert.
Eine Schätzstatistik θ̂ wird als erwartungstreu bezeichnet, falls sie erfüllt:
h i
E θ̂ = θ
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 462 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Eigenschaften von Schätzstatistiken: Erwartungstreue
Beispiel 1: Arithmetischen Mittel
Das Arithmetische Mittel ist ein erwartungstreuer Schätzer für den
Erwartungswert einer Zufallsvariablen X :
" N
# N N
1 X 1 X 1 X N
E Xi = E (Xi ) = µ= µ=µ
N N N N
i=1 i=1 i=1
Beispiel 2: Stichprobenvarianz
N
1
Die empirische Varianz sx2 := (xi − x̄)2 ist ein erwartungstreuer Schätzer
P
N−1
i=1
für die Varianz einer Zufallsvariablen X : (ohne Beweis)
" N
#
2 1 X
E [sx ] = E (xi − x̄) = σ 2
2
N −1
i=1
1 1
Dies erklärt den Vorfaktor N−1 , der Schätzer mit dem intuitiveren Vorfaktor N ist
entsprechend nicht erwartungstreu.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 463 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Eigenschaften von Schätzstatistiken: Asymptotische Erwartungstreue
Beispiel 3:
N−1 2
dx2 = N sx ist entsprechend nicht erwartungstreu, hier liegt eine Verzerrung vor:
2 2 2 N −1 2 N −1 2 1
Bias(dx ) = E [dx ] − σ = E sx − σ 2 = σ − σ2 = − σ2
N N N
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 464 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Eigenschaften von Schätzstatistiken: Standarfehler einer Schätzstatistik
Eine Schätzstatistik ist eine Zufallsvariable. Wenn wir neue Realisierungen der N
Zufallsvariablen (X1 , ..., XN ) betrachten, ändert sich auch der realisierte Wert der
Schätzstatistik. Und auch wenn eine Schätzstatistik erwartungstreu ist, so gilt
doch zumindest im stetigen Fall:
P(θ̂ = E [θ̂]) = 0
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 465 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Eigenschaften von Schätzstatistiken: MSE und Konsistenz
Die beiden Eigenschaften Erwartungstreue und Standardfehler lassen sich durch
die mittlere quadratische Abweichung zwischen Schätzstatistik und wahrem
Parameterwert zusammenfassen:
h i h i
MSE (θ̂) = E (θ̂ − θ)2 = E (θ̂ − E [θ̂] + E [θ̂] − θ)2
h i h i h i
= E (θ̂ − E [θ̂])2 + 2E (θ̂ − E [θ̂])(E [θ̂] − θ) + E (E [θ̂] − θ)2
h i
= E (θ̂ − E [θ̂])2 + (E [θ̂] − θ)2 = σθ̂2 + Bias(θ̂)2
11.2 Punktschätzung
Konstruktion von Schätzstatistiken:
Eine Schätzfunktion zu konstruieren ist einfach. Unser Ziel sollte es jedoch sein,
eine gute Schätzfunktion zu konstruieren. Hier gibt es viele verschiedene Ansätze,
die bekanntesten sind:
Maximum Likelihood Schätzung: Nehme als Schätzer den Wert, der mit der
größten Wahrscheinlichkeit die beobachteten Werte erklärt,
Kleinste Quadrate Schätzung: Nehme den Schätzer mit der geringsten
erwarteten quadratischen Abweichung,
Momentenmethode: Ersetze theoretische durch empirische Momente,
Bayes-Schätzung: Verwende den Satz von Bayes.
Wir schauen uns auf den nächsten Folien die Maximum-Likelihood Schätzung ein
wenig genauer an.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 467 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Maximum-Likelihood Schätzung:
Seien (X1 , ..., XN ) u.i.v. wie eine Zufallsvariable X mit Verteilung PθX , die von
einem Parameter θ abhängt.
Die gemeinsame Dichtefunktion von (X1 , ..., XN ) ist gegeben als:
N
(X ,...,XN )
Y
fθ 1 (x1 , ..., xN ) = fθX (xi )
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 468 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Maximum-Likelihood Schätzung: Beispiel: Bernoulli-Verteilung
Sei X ∼ B(1, p) und wir wollen den Parameter p schätzen (d.h. θ = p).
Gemeinsame Dichte
N
Y N
Y
fp(X1 ,...,XN ) (x1 , ..., xN ) = fpX (xi ) = p xi (1 − p)1−xi
i=1 i=1
Likelihood-Funktion
N
Y
L(x1 ,...,xN ) (p) = p xi (1 − p)1−xi
i=1
Zur Bestimmung des Optimums müssen wir jetzt die Ableitung bestimmen und
gleich 0 setzen. Da das Ableiten des Produktes schwierig ist, betrachtet man
stattdessen zumeist die log-Likelihood Funktion logL = log(L). Da der
Logarithmus eine monotone Transformation ist, ändert sich die Stelle des
Optimums nicht, die Rechnung vereinfacht sich zumeist aber deutlich.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 469 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Maximum-Likelihood Schätzung: Beispiel: Bernoulli-Verteilung
log-Likelihood-Funktion
N
Y N
X
logL(x1 ,...,xn ) (p) = log p xi (1 − p)1−xi = xi log p + (1 − xi ) log(1 − p)
i=1 i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 470 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Maximum-Likelihood Schätzung: Beispiel: Bernoulli-Verteilung
Kandidat für ein Maxmum der Likelihood: x̄
Notwendiges Kriterium: Kandidat in die 2. Ableitung einsetzen
N N N
∂ X 1 X 1 X
x i log p + (1 − x i ) log(1 − p) = − x i + (N − xi )
∂2p p2 (1 − p)2
i=1 i=1 i=1
Wir erhalten also das arithmetische Mittel x̄ der N Beobachtungen als sog.
ML-Schätzer für den Parameter p der Bernoulli-Verteilung. Da hier auch
E (X ) = p gilt, entspricht dies mal wieder unserer Intuition, den Erwartungswert
durch das arithmetische Mittel zu schätzen.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 471 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Maximum-Likelihood Schätzung: Beispiel: Exponential-Verteilung
Sei jetzt X ∼ Exp(λ) und wir wollen λ schätzen.
log-Likelihood:
N
Y N
X
logL(X1 ,...,XN ) (λ) = log λe −λxi = log λ − λxi
i=1 i=1
N N N N
∂ X X 1 N X 1 1 X 1
log λ−λxi = −xi = 0 ⇔ = xi ⇔ = xi = x̄ ⇔ λ =
∂λ λ λ λ N x̄
i=1 i=1 i=1 i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 472 / 545
11 Schließende Statistik 11.2 Punktschätzung
11.2 Punktschätzung
Zusammenfassung:
Fragestellung:
In einem Zufallsexperiment, wie ist X verteilt?
Lösungsansatz:
Verteilungsannahme (z.B. Exponentialverteilung) und Parameter der Verteilung
mit Schätzfunktion schätzen. Viele mögliche Kandidaten für Schätzfunktionen, wir
wollen idealerweise den Besten haben.
Optimalität von Schätzern:
Wir wollen Schätzer, die (asymptotisch) erwartungstreu sind und kleine Varianz
haben. Als besten (effizienten) Schätzer bezeichnen wir denjenigen
erwartungstreuen Schätzer mit kleinster Varianz.
Konstruktion des Schätzers:
Der effiziente Schätzer ist im allgemeinen unbekannt, es gibt jedoch viele
Verfahren um gute Schätzer zu konstruieren. Wir haben das ML-Verfahren kennen
gelernt. Hier lässt sich zumindest zeigen, dass jeder ML-Schätzer konsistent ist.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 473 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 474 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Die Anzahl Y der gewürfelten 6-en ist ebenfalls eine Zufallsvariable, diese ist
Binomial-verteilt, wenn die Xi u.i.v. sind. Wir kennen hier den Erwartungswert
(E [Y ] = Np) und würden daher 30 6 = 5 6-en erwarten. Wir können auch
ausrechnen, mit welcher Wahrscheinlichkeit 12 mal die 6 gewürfelt wird:
Y Y
Pp= 1 (Y = 12) ≈ 0.0015 Pp= 1 (Y ≥ 12) ≈ 0.002
6 6
Und doch bleibt die Frage im Raum: Wurden wir betrogen? Ist der Würfel fair?
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 475 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
H0 : Der Würfel ist fair versus H1 : Der Würfel ist nicht fair
1 1
H0 : p = 6 versus H1 : p ̸= 6
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 476 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
N
X
T = g (X1 , ..., XN ) = Xi
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 478 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 480 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Weiterhin beschränken wir uns auf Tests mit ∆0 = [δl , δr ], wobei entweder
δl = −∞ oder δr = ∞ zulässig ist. Also gilt für den α-Fehler:
!
P(Fehler 1. Art) = P T (δl ≤ T (X1 , ..., XN ) ≤ δr |H0 ) ≤ α
Wir müssen also lediglich die Verteilung der Teststatistik unter der Bedingung,
dass H0 gilt, bestimmen, und können dann die Grenzen δl und δr so bestimmen,
dass der Fehler 1. Art maximal α beträgt.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 481 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Jetzt müssen wir die Verteilung unserer Teststatistik unter H0 bestimmen, und die
Grenzen δl , δr P
so setzen, dass die Wahrscheinlichkeit
P T (δl ≤ T = Xi ≤ δr |H0 : p = 16 ) maximal α beträgt.
Wir wissen bereits, dass T Binomial-verteilt ist, und die Bedingung fordert von
uns lediglich, den Parameter p = 16 zu setzen. Wir können jetzt weiter δl = −∞
setzen, weil wir uns nur dann betrogen fühlen (d.h. uns für H1 entscheiden), wenn
zu viele 6-en fallen. Also: ∆0 = (−∞, δr ] und ∆1 = (δr , ∞). Probiere mehrere δr :
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 482 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Der Test entscheidet hier für die Alternativhypothese H1 und gegen die
Nullhypothese H0 .
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 483 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Wir entscheiden uns daher niemals für H0 , weil wir für diese Entscheidung die
Fehlerwahrscheinlichkeit nicht abschätzen können.
Wir sagen daher lediglich: Die Nullhypothese kann (nicht) abgelehnt werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 484 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
H 0 : p = p0 versus H1 : p ̸= p0
N
P
Sei T (X1 , ..., XN ) = Xi . Der Test:
i=1
(
0 wenn T ∈ {δl , ..., δr }
φ(T ) =
1 wenn T ∈ {0, ..., δl − 1} ∪ {δr + 1, ..., N}
α
mit δl das 2 -Quantil und δr das 1 − α2 -Quantil der B(N, p0 )-Verteilung, d.h.
α α
δl = min P(T ≤ z) ≥ δr = min P(T ≤ z) ≥ 1 −
z∈{0,...,N} 2 z∈{0,...,N} 2
wird als zweiseitiger exakter Binomial-Test zum Niveau α bezeichnet.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 485 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Während der exaktePBinomial-Test unter der Annahme konstruiert ist, dass die
Test-Statistik T = Xi Binomial-verteilt ist, können wir einen entsprechenden
Test auch mit der Statistik ZN konstruieren, von der wir wissen, dass sie (für
große N) standardnormalverteilt ist.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 487 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
H0 : p = p0 versus H1 : p ̸= p0
Der Test (
0 wenn ZN ∈ [u α2 , u1− α2 ]
φ(ZN ) =
1 wenn ZN ∈
/ [u α2 , u1− α2 ]
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 488 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
H0 : θ = θ0 versus H1 : θ ̸= θ0
betrachtet: Wir lehnen H0 ab, wenn die Teststatistik entweder zu groß oder zu
klein ist. Alternativ gibt es auch die einseitigen Hypothesen:
Rechtsseitiger Test: H0 : θ ≤ θ0 versus H1 : θ > θ 0
Linksseitiger Test: H0 : θ ≥ θ0 versus H1 : θ < θ 0
Hier lehnen wir nur ab, wenn die Teststatistik zu klein (groß) ist.
Hier lässt sich die auf H0 bedingte Verteilung nicht mehr direkt angeben, da H0
aus mehr als einem Punkt θ = θ0 besteht. φ ist hier Test zum Niveau α, wenn gilt:
Es lässt sich zeigen, dass dies gilt, wenn P(φ(T ) = 1|θ = θ0 ) ≤ α ist.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 489 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
N
P
mit der Teststatistik T (X1 , ..., XN ) = Xi ist ein Niveau-α Test.
i=1
Die Definition des approximativen einseitigen Binomialtest erfolgt entsprechend
mit der Teststatistik ZN und den Quantilen der Standardnormalverteilung.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 490 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
Im zweiseitigen Fall ergibt sich der p-Wert als pbeid = 2 · min{prechts , plinks }.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 491 / 545
11 Schließende Statistik 11.3 Das statistische Testproblem
d.h. als die W’keit, dass der Test H0 ablehnt gegeben θ. Für θ ∈ H0 ist dies der
α-Fehler, für θ in H1 ist dies 1 minus der β-Fehler.
1.0
1.0
0.8
0.8
0.6
0.6
γ(θ)
γ(θ)
H0 H1
0.4
0.4
H1 H1
0.2
0.2
α = 0.05 α = 0.05
0.0
0.0
H0 H0
θ θ
Der rote Test mit γ(θ0 ) < α schöpft sein Niveau nicht vollständig aus. Er ist
konservativer (H0 wird länger beibehalten) und hat eine schlechtere Güte.
Der lila und der blaue Test sind unverfälscht (γ(θ0 ) = α), die Güte des lila-Tests
ist offensichtlich größer, er hat eine größere Trennschärfe.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 493 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 494 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Betrügt uns unser Milchlieferant und füllt immer ein bisschen zu wenig Milch in
die Flasche? Wir sind paranoid und haben für 10 Flaschen einmal nachgewogen
(Ergebnisse in Millilitern):
989 996 1010 991 1003 1005 998 983 992 972
Modellierung:
Der Abfüllprozess sei das Zufallsexperiment mit zugehörigem
Wahrscheinlichkeitsraum (Ω, A, P). Die Zufallsvariable X mit E [X ] = µ und
Var (X ) = σ 2 gibt an, wie viel Milliliter in eine Flasche abgefüllt werden.
Zur Entscheidung schauen wir uns wie üblich eine Stichprobe (X1 , ..., XN ) u.i.v.
wie X und zugehörige Beobachtungen (x1 , ..., xN ) an und wollen jetzt einen
statistischen Niveau-α-Test konstruieren.
Die Teststatistik:
Da wir auf den Erwartungswert testen wollen, bietet sich das arithmetische Mittel
X̄ als Teststatistik T an.
Die allgemeine Form des Tests:
Einseitiger Fall Zweiseitiger Fall
( (
0 wenn T ≥ δl 0 wenn δl ≤ T ≤ δr
φ(T ) = φ(T ) =
1 wenn T < δl , 1 sonst ,
√ X̄ − µ0
Z= N mit Z ∼ N(0, 1)
σ H0
Als kritische Werte δl und δr ergeben sich daher, wie beim approximativen
Binomialtest, die Quantile der Standardnormal-Verteilung.
Achtung:
Ob die Verteilungsannahme gerechtfertigt ist, sollte (grafisch) überprüft werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 497 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
√ X̄ − µ0
mit der Teststatistik Z (X1 , ..., XN ) = N und uα dem α-Quantil der
σ
Standardnormalverteilung ist ein Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 498 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
H0 : µ = µ0 versus H1 : µ ̸= µ0 .
√ X̄ − µ0
mit der Teststatistik Z (X1 , ..., XN ) = N und uα dem α-Quantil der
σ
Standardnormalverteilung ist ein Niveau-α-Test für das zugehörige Testproblem.
Kritik:
Um den Gauss-Test durchzuführen, muss die wahre Varianz von X bekannt sein,
dies ist in Praxis jedoch in aller Regel nicht der Fall. Die Varianz aus eine
Stichprobe zu schätzen ändert jedoch die Verteilung der Teststatistik.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 499 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Es gilt:
lim Z ∼ N(0, 1)
N→∞
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 500 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
X̄ − µ0 √
mit der Teststatistik Z (X1 , ..., XN ) = und tN−1,α dem α-Quantil der
N
sx
Studentschen t-Verteilung mit N − 1 Freiheitsgraden ist ein Niveau-α-Test für das
zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 502 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
H0 : µ = µ0 versus H1 : µ ̸= µ0 .
X̄ − µ0 √
mit der Teststatistik Z (X1 , ..., XN ) = N
und tN−1,α dem α-Quantil der
sx
Studentschen t-Verteilung mit N − 1 Freiheitsgraden ist ein Niveau-α-Test für das
zugehörige Testproblem.
Für N > 30 können die Quantile der t-Verteilung durch die Quantile der
Standardnormalverteilung ersetzt werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 503 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
989 996 1010 991 1003 1005 998 983 992 972
Es gilt:
√ 993.9 − 1000
x̄ ≈ 993.9, sx ≈ 11, Z= 10 ≈ −1.75
11
Das entsprechende Quantil ist t9,0.05 = −1.83. Die Teststatistik ist größer als der
kritische Wert, also kann der Test zum Niveau α = 5% nicht ablehnen, dass in
den Milchtüten weniger als 1 Liter enthalten ist.
Alternativ beträgt der p-Wert hier 0.108. Wenn wir den Test zum Niveau α = 0.11
ausgeführt hätten, hätten wir ablehnen können. Ein nachträgliches Ändern des
Niveaus, um das gewünschte Testergebnis zu erhalten, ist jedoch nicht erlaubt.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 504 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Es kann gezeigt werden, dass der t-Test unter seinen Voraussetzungen der
beste Test ist, d.h. die größte Güte besitzt.
Die Normalverteilungsannahme ist stets kritisch zu hinterfragen. Auf Grund
des zentralen Grenzwertsatzes konvergiert die Verteilung der Test-Statistik
aber gegen eine Standardnormalverteilung, daher kann der Test bei großem N
(je nach Anwendung, N ≥ 30) in der Regel bedenkenlos eingesetzt werden.
Die Annahmen der unabhängigen und identischen Verteilung sind deutlich
kritischer zu sehen und auch schwerer zu überprüfen. In der Praxis übergeht
man diese Annahmen daher häufig und hofft das Beste.
Falls eine andere Verteilung von X angenommen wird, kann ein
entsprechender Test unter dieser Annahme konstruiert werden.
Es ist auch möglich, Tests ohne die Annahme einer Verteilung zu
konstruieren. Eine sogenannte nicht-parametrische Alternative schauen wir
uns jetzt an.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 505 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Idee:
Wenn der Median der Stichprobe µ0 sein soll, sollten im Erwartungswert gleichviele
Beobachtungen größer und kleiner als µ0 sein. Wenn zu viele Beobachtungen
größer bzw. kleiner als µ0 sind, lehne entsprechende Nullhypothesen ab.
Xi 989 996 1010 991 1003 1005 998 983 992 972
Xi > 1000 - - + - + + - - - -
Wende jetzt einen Binomialtest mit p0 = 0.5 an. Der auf dieser Idee basierende
Test (Vorzeichentest genannt) besitzt eine schlechte Güte, da nur wenig
Information aus den Daten verwendet wird. Wir schauen uns daher direkt die
Erweiterung an, den Wilcoxon-Vorzeichen-Rang-Test.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 506 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 507 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 508 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Gegeben seien Zufallsvariablen (X1 , ..., XN ) u.i.v. wie X mit Median med(X ). Sei
X metrisch skaliert und symmetrisch verteilt mit stetiger Verteilungsfunktion,
sowie
mit der Teststatistik W + wie zuvor definiert und wα+ dem vertafelten α-Quantil
der Verteilung von W + ist ein Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 509 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
1 wenn W ∈ / [w α , w1− α ],
2 2
mit der Teststatistik W + wie zuvor definiert und wα+ dem vertafelten α-Quantil
der Verteilung von W + ist ein Niveau-α-Test für das zugehörige Testproblem.
Für N > 20 können die Quantile der vertafelten
Verteilung durch die Quantile der
N(N+1) N(N+1)(2N+1)
Normalverteilung N 4 , 24 ersetzt werden.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 510 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Xi 989 996 1010 991 1003 1005 998 983 992 972
|Di | 11 4 10 9 3 5 2 17 8 28
R(|Di |) 8 3 7 6 2 4 1 9 5 10
Vi 0 0 1 0 1 1 0 0 0 0
10 · 11
W + = 7 + 2 + 4 = 13 E [W + ] = = 27.5
4
+
Das vertafelte Quantil ist w0.05 = 11, die Nullhypothese kann also nicht abgelehnt
werden.
Softwarepakete können auch für den Wilcoxon-Vorzeichen-Rang-Test einen
p-Wert bestimmen, hier ergibt sich ein p-Wert von 0.16.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 511 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Geschmackstest
Unsere örtliche Pizzeria möchte eine neue Pizza Y einführen, allerdings nur, wenn
diese besser schmeckt als der bisherige Bestseller Pizza X . Zwei Gruppen von
Versuchspersonen bewerten den Geschmack je einer der beiden Pizzen auf einer
Skala 1 bis 10. Jede Person probiert entweder Pizza X oder Pizza Y . Wir
beobachten die Werte:
Schmeckt die neue Pizza besser als die alte? Formuliert als statistisches
Testproblem:
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 513 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Einseitige Hypothesen:
H0 : µX − µY ≤ δ0 versus H1 : µX − µY > δ0 ,
H0 : µX − µY ≥ δ0 versus H1 : µX − µY < δ0 .
Zweiseitige Hypothese:
H0 : µX − µY = δ0 versus H1 : µX − µY ̸= δ0 .
Da wir hier eine Aussage über die Differenz der Erwartungswerte treffen wollen,
bietet es sich an, diese als Teststatistik zu verwenden. Eine Normalisierung ist
notwendig, damit wir zu einer bekannten Verteilung kommen:
X̄ − Ȳ − δ0
Z= r
sX2 s2
+ Y
N M
Gegeben seien Zufallsvariablen (X1 , ..., XN ) u.i.v wie X ∼ N(µX , σX2 ), (Y1 , ..., YM )
u.i.v. wie Y ∼ N(µY , σY2 ), sowie X und Y st.u. sowie:
mit Teststatistik Z und tk,α dem α-Quantil aus der t-Verteilung mit k
Freiheitsgraden wie auf auf der letzten Folie angegeben ist ein Niveau-α-Test für
das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 516 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
H0 : µX − µY = δ0 vs. H1 : µX − µY ̸= δ0 .
mit Teststatistik Z und Quantilen tk,α dem α-Quantil aus der t-Verteilung mit
mit k Freiheitsgraden wie auf auf der vorletzten Folie angegeben ist ein
Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 517 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Die Zufallsvariable X beschreibt den Geschmack von Pizza X , Y den von Pizza
Y . Das Testproblem lautet:
H0 : µX − µY ≥ 0 vs. H1 : µX − µY < 0.
ergibt sich:
Mit dem entsprechenden Quantil t7,0.05 = −1.89 kann die Nullhypothese somit
nicht abgelehnt werden, der p-Wert ist 0.26.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 518 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Gegeben seien Zufallsvariablen (X1 , ..., XN ) u.i.v. wie X mit Median med(X ) und
stetiger Verteilungsfunktion (Y1 , ..., YM ) u.i.v. wie Y mit Median med(y ) und
stetiger Verteilungsfunktion, X und Y st.u. sowie:
H0 : med(X ) ≤ med(Y ) vs. H0 : med(X ) ≥ med(Y ) vs.
H1 : med(X ) > med(Y ), H1 : med(X ) < med(Y ),
mit Teststatistik TW wie auf der letzten Folie und Quantilen wα aus der
vertafelten Verteilung ist ein Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 520 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Gegeben seien Zufallsvariablen (X1 , ..., XN ) u.i.v. wie X mit Median med(X ) und
stetiger Verteilungsfunktion (Y1 , ..., YM ) u.i.v. wie Y mit Median med(y ) und
stetiger Verteilungsfunktion, X und Y st.u. sowie:
mit Teststatistik TW wie auf der letzten Folie und Quantilen wα aus der
vertafelten Verteilung ist ein Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 521 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Kommen wir zurück zu dem Beispiel, mit dem Wilcoxon-Test können wir
überprüfen:
Bewertung 6.6 3.2 8.0 3.1 1.4 6.4 4.8 9.8 4.3 8.9
Pizza X X X X X X Y Y Y Y
Rang 7 3 8 2 1 6 5 10 4 9
ergibt sich:
TW = 7 + 3 + 8 + 2 + 1 + 6 = 27
Der vertafelte kritische Wert ist hier 25, es kann also nicht abgelehnt werden. Der
p-Wert beträgt 0.26.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 522 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
H0 : px ≤ py versus H1 : px > py
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 523 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Auf Grund des hohen Stichprobenumfangs vergleichen wir mit dem Quantil der
Standardnormalverteilung: u0.95 = 1.64, wir können hier also ziemlich deutlich
ablehnen. Der p-Wert ist numerisch fast 0.
Wir können hier also ziemlich sicher sagen, dass nach den veröffentlichten Daten
der Impfstoff auch tatsächlich wirkt, d.h. die W’keit für eine Infektion reduziert.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 524 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Unsere Pizzeria ärgert sich über die Ergebnisse der 1. Studie und will eine 2.
Studie nachlegen, weil Pizza Y doch wirklich offensichtlich besser schmeckt:
Vielleicht konnte ja nur nichts nachgewiesen werden, weil die Personen für Pizza
Y den Geschmack einer Pizza generell schlechter bewerten?
Neuer Aufbau:
6 Testpersonen essen in zufälliger Reihenfolge erst ein Stück der einen, dann ein
Stück der anderen Pizza und geben eine Bewertung auf der Skala von 1 bis 10 ab.
Testperson 1 2 3 4 5 6
Pizza X 2.3 2.4 4.6 7.8 4.7 5.2
Pizza Y 5.0 2.3 6.1 9.0 5.4 5.7
Ausweg:
Bilde die Differenzen Di = Xi − Yi . Waren die (X1 , ..., XN ) und die (Y1 , ..., YN )
jeweils st.u., so sind auch die Di st.u.. Damit können wir sämtliche Tests aus dem
Bereich des Ein-Stichproben-Falls einsetzen.
Die Testhypothesen übersetzen sich entsprechend, so wird z.B.
H0 : µX ≥ µy vs. H1 : µX < µy
zu
H0 : µD ≥ 0 vs. H1 : µD < 0.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 526 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 528 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Dichtefunktion:
1
f (x) = t f /2−1 e −x/2
2f /2 Γ(f /2)
(Der Beweis führt über die Multinomialverteilung der Hi und ist länglich.)
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 530 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Augenzahl 1 2 3 4 5 6
Absolute Häufigkeit 16 13 14 15 20 22
1 1
H0 : P(X = i) = 6 ∀i versus. H1 : P(X = i) ̸= 6 für mindestens ein i
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 531 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
f
X (Hi − Npi )2
χ2 (X1 , ..., XN ) = ∼ χ2f −1 .
Npi
i=1
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 532 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
(
0 wenn χ2 ≤ χ2f −1,1−α
φ(χ2 ) =
1 wenn χ2 > χ2f −1,1−α
mit der Teststatistik χ2 (X1 , ..., XN ) wie auf der vorangegangenen Folie und
χ2f −1,1−α dem 1 − α-Quantil der χ2 -Verteilung mit f − 1 Freiheitsgraden ist ein
Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 533 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Augenzahl 1 2 3 4 5 6
hi 16 13 14 15 20 22
(hi − Npi ) -0.7 -3.7 -2.7 -1.7 3.3 5.3
1
χ2 = (−0.7)2 + (−3.7)2 + (−2.7)2 + (−1.7)2 + (3.3)2 + (5.3)2 = 3.8
16.7
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 534 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Die approximative Verteilung der χ2 -Statistik greift nur, wenn Npi > 1 ∀i und
Npi ≥ 5 für mindestens 80% der i.
Da letztlich jede diskrete Verteilung mit endlichem Träger durch einen Vektor
von Ausprägungswahrscheinlichkeiten (p1 , ..., pf ) spezifiziert werden kann,
kann mit dem χ2 -Test auf das Vorliegen beliebiger solcher Verteilungen
getestet werden.
Falls der Träger unendlich ist, betrachtet man lediglich die f − 1
Ausprägungen mit größter Auftrittswahrscheinlichkeit, und fasst die übrigen
Ausprägungen in einer Restklasse zusammen.
Stetige Verteilungen können nach Klassierung ebenfalls getestet werden.
Wir setzen hier die Eigenschaft, die wir zeigen wollen (X ist verteilt nach
(p1 , ..., pf )) unter die Nullhypothese. Wir können also nicht zeigen, dass diese
Verteilung gilt, wir können Sie höchstens ablehnen. Dies ist nötig, da wir
andererseits die Verteilung der Statistik unter der Hypothese ’X ist nicht
nach (p1 , ..., pf ) verteilt’ angeben müssten.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 535 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Ni h·j
Die erwartete Häufigkeit zu der beobachteten Häufigkeit hij beträgt .
N
Mit den normieren quadratischen Abweichung aus beobachteten und erwarteten
Häufigkeiten lässt sich jetzt wieder ein χ2 -Test konstruieren.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 537 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 539 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
In Summe ergibt sich als Teststatistik 23.1, das entsprechende Quantil ist
χ26,1−α = 12.60. Da die Teststatistik größer als das Quantil ist, kann die
Nullhypothese zum Niveau α = 0.05 abgelehnt werden. Der p-Wert beträgt
0.0003. Wir können also nachweisen, dass die Verteilung der Verkäufe zwischen
den 3 Händlern sich tatsächlich unterscheidet.
Wir können hier jetzt sogar interpretieren, wo es Unterschiede gibt: Vor allem die
BMX bei Händler C und die City-Räder bei Händler B passen nicht (zu wenige).
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 540 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 541 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Der χ2 -Unabhängigkeitstest
(
2 0 wenn χ2 ≤ χ2(J−1)·(K −1),1−α
φ(χ ) =
1 wenn χ2 > χ2(J−1)·(K −1),1−α
mit der Teststatistik χ2 ((X1 , Y1 ), ..., (XN , YN )) wie auf der vorangegangenen Folie
und χ2(J−1)·(K −1),1−α dem 1 − α-Quantil der χ2 -Verteilung mit (J − 1) · (K − 1)
Freiheitsgraden ist ein Niveau-α-Test für das zugehörige Testproblem.
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 543 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 544 / 545
11 Schließende Statistik 11.4 Spezielle Testprobleme
Jörg Rahnenführer W’keitsrechnung und mathematische Statistik WiSe 23/24 545 / 545