Beruflich Dokumente
Kultur Dokumente
2
Parameterschtzung und Testen von
Hypothesen
Punktschtzung
2.
Intervallschtzung
Frage: gegeben eine Stichprobe mit Stichprobenkennwert S, in welchem Bereich liegt mit
definierter Sicherheit der wahre Populationsparameter ?
Beispiel: Stichprobe mit Mittelwert M, in welchem Intervall um M d liegt der
Parameter mit 95%er Wahrscheinlichkeit?
3.
Hypothesenprfung
Punktschtzung
Die meisten Statistiken empirischer Verteilungen haben ihre
Entsprechungen in theoretischen Parametern (Statistiken von Stichproben
beziehen sich auf Parameter von Grundgesamtheiten):
Mittelwert M
Erwartungswert
Standardabweichung s Standardabweichung
relative Hufigkeit f
Wahrscheinlichkeit p ()
Eine Statistik a, mit der man einen Parameter schtzt, nennt man den
Schtzer (oder die Schtzfunktion) fr , meist symbolisiert durch ein
"Dach", z.B. . Den im Einzelfall konkreten Wert von = x nennt man die
Schtzung fr .
Beispiel: der arithmetische Mittelwert M ist ein Schtzer fr , ein konkreter
Mittelwert aus einer Stichprobe von z.B. 5.5 ist eine Schtzung fr .
Kriterien fr Schtzer
Was sind gute Schtzer?
erwartungstreu (unbiased)
konsistent (consistent)
effizient (efficient)
erschpfend (sufficient)
robust (robust, resistant)
E(x) = E(
Hans-Rdiger Pfister
Pfister, Gerd Meier
1 n
1
1
xi ) = E ( X ) = n =
n i =1
n
n
s 2 = 2 =
(x x)
n 1
1
1
2
xi x 2 E (s 2 ) = n E ( xi2 ) E ( x 2 )
n
2
2
wg. 2 = E ( xi ) 2 E ( xi ) = 2 + 2
s2 =
E(s 2 ) =
wg. x
1
( 2 + 2 ) E ( x 2 ) = 2 + 2 E ( x 2 )
n
2
= E ( x 2 ) ( E ( x )) 2 E ( x 2 ) = x + 2
E ( s 2 ) = 2 + 2 ( x + 2 ) = 2 x ; wg. x =
2
(n 1) 2
E(s ) =
2
n
s 2 =
n 1
2
( xi x ) =
n 1 n
(x x)
(n 1)
Hans-Rdiger Pfister
Pfister, Gerd Meier
Konsistenz (consistency)
Ein Schtzer ist konsistent, wenn die Wahrscheinlichkeit, dass er nahe am Parameter liegt,
mit wachsender Stichprobengre n zunimmt.
Der Stichprobenmittelwert M ist ein konsistenter Schtzer fr , denn sein Standardfehler ist
erschpfend (sufficient)
Ein Schtzer ist effizient, wenn sein Standardfehler relativ zu einem anderen mglichen
Schtzer kleiner ist bzw. der kleinstmgliche ist.
Ein Schtzer ist erschpfend, wenn er alle verfgbare Information aus der Stichprobe benutzt.
robust (resistant)
Ein Schtzer ist robust, wenn er nur geringfgig durch Ausreier beeinflusst wird.
Hans-Rdiger Pfister
Pfister, Gerd Meier
var( x ) = var(
1
1
xi ) = 2 var( xi )
n
n
1
var(xi )
n2
1
= 2 2
n
2
1
= 2 n 2 =
n
n
2
=x
=
x2 = x = sex
Hans-Rdiger Pfister
Pfister, Gerd Meier
Grundlegende Inferenzen
1
2 : 2 = s 2 =
( xi x ) 2
n 1
s
x : sex = x =
n
Hans-Rdiger Pfister
Pfister, Gerd Meier
Wert des
Populationsparameters
Inferenz
: = x
Stichprobenkennwert
Intervallschtzung
Eine Punktschtzung liefert zwar einen best guess, man kann sich aber andererseits wegen
des Stichprobenfehlers fast sicher sein, dass der konkrete Wert der Punktschtzung falsch ist
(die Schtzung selbst ist eine Zufallsvariable, d.h. bei jeder Ziehung erhlt man zufllig eine
andere Schtzung).
Eine verbesserte Methode wre, wenn man einen Bereich angeben knnte, in dem der
gesuchte Parameter vermutlich liegt.
Einen solchen Bereich - mit einer unteren Grenze a und einer oberen Grenze b - nennt man
Konfidenzintervall.
Ein Konfidenzintervall ist ein Bereich, der mit angebbarer Wahrscheinlichkeit den gesuchten
Parameter berdeckt.
Konvention: Einen Bereich, der bei 95% aller Stichproben (der Gre n) den
Populationsparameter berdeckt, nennt man ein 95%-Konfidenzintervall.
Hans-Rdiger Pfister
Pfister, Gerd Meier
Konfidenzintervall
Berechnungsvorschrift fr ein 95%-Konfidenzintervall:
die Wahrscheinlichkeit, dass bei N(0,1) ein Wert im Bereich -1,96 bis 1,96 liegt
(symmetrisch um ) betrgt p = 0.95 (vgl. Standardnormalverteilungstabelle);
daraus folgt:
N(, M )
-3 -2 -1
P ( x + | z / 2 | x x | z / 2 | x ) = 1 [%]
Hans-Rdiger Pfister
Pfister, Gerd Meier
10
Beispiel Konfidenzintervallberechnung
Intelligenz (IQ gem Standardtest) ist in der Population normalverteilt mit
= 100 und = 15.
In einer Stichprobe des Umfangs n = 25 von Leuphana-Studierenden ergibt
sich ein Stichprobenmittelwert von M = 105 und eine Standardabweichung
von s = 20.
Frage: Haben wir Grund zu der Annahme, dass Leuphana-Studierende eine
hhere Intelligenz aufweisen als der Populationsdurchschnitt?
15
=3
n
25
1.96 3 = 5.88
CI = [105 5.88] = [99.12,110.88]
sex =
95%-CI
100
Hans-Rdiger Pfister
Pfister, Gerd Meier
11
Simulation mit R
> library(animation)
> conf.int()
C I: [ x z 2
n , x + z 2
n ]
1.0
0.0
-1.0
-0.5
Confidence interval
0.5
11
89
Hans-Rdiger Pfister
Pfister, Gerd Meier
20
40
60
80
12
100
S amp les
Interpretation
Die Breite des Konfidenzintervalls hngt von 3 Faktoren ab
1.
2.
3.
von der Sicherheit, mit der man den Parameter einfangen will (z.B. 95%)
von der Varianz in der Population 2 bzw. in der Stichprobe s2
der Stichprobengre n
Die Wahrscheinlichkeitsaussage
P(a b) = 0.95
a = x z 0.975 x
b = x + z 0.975 x
es ist also keine Aussage ber , denn ist keine Zufallsvariable, kann also
keine Wahrscheinlichkeit haben (die Aussage: der wahre
Populationsparameter fllt mit 95%er Wahrscheinlichkeit in das
Konfidenzintervall a,b ist falsch).
Hans-Rdiger Pfister
Pfister, Gerd Meier
13
5 15 7 39 1 6 50 18 23 22 46 2 41 43 45 9 40 47 44 14 10 26 20
4 21 17 3 31 42 24 28 36 38 13 35 48 19 32 49 25 8 29 11 34 37 12
n = 50
CI:
untere Grenze:
obere Grenze:
uG = 25.5
oG = 25.5
- 1.96 * 2.06
+1.96 * 2.06
= 21.46
= 29.54
Hans-Rdiger Pfister
Pfister, Gerd Meier
14
t df = n 1 =
unbekannt
t-Verteilung
s 2 =
x
s 2
n
(x x)
n 1
Hans-Rdiger Pfister
Pfister, Gerd Meier
15
0.3
0.4
Die t-Verteilung
0.2
z-Verteilung
0.0
0.1
d(x)
t-Verteilung
df=5
-3
-2
-1
Um eine gegebene Irrtumswahrscheinlichkeit (z.B. =5%) zu unterschreiten, muss der tWert grer sein als der z-Wert. Fr n=6 (df=5) ist der kritische t-Wert (bei =.05) = 2.57
statt z=1.96. Fr n -> geht die t-Verteilung in die z-Verteilung ber.
Hans-Rdiger Pfister
Pfister, Gerd Meier
16
0,875
0,90
0,95
0,975
0,99
0,995
0,999
1,000
2,414
3,078
6,314
12,706
31,821
63,657
318,309
0,816
1,604
1,886
2,920
4,303
6,965
9,925
22,327
0,765
1,423
1,638
2,353
3,182
4,541
5,841
10,215
0,741
1,344
1,533
2,132
2,776
3,747
4,604
7,173
0,727
1,301
1,476
2,015
2,571
3,365
4,032
5,893
0,718
1,273
1,440
1,943
2,447
3,143
3,707
5,208
0,711
1,254
1,415
1,895
2,365
2,998
3,499
4,785
0,706
1,240
1,397
1,860
2,306
2,896
3,355
4,501
0,703
1,230
1,383
1,833
2,262
2,821
3,250
4,297
10
0,700
1,221
1,372
1,812
2,228
2,764
3,169
4,144
11
0,697
1,214
1,363
1,796
2,201
2,718
3,106
4,025
12
0,695
1,209
1,356
1,782
2,179
2,681
3,055
3,930
13
0,694
1,204
1,350
1,771
2,160
2,650
3,012
3,852
Hans-Rdiger Pfister
Pfister, Gerd Meier
17
from wikipedia
Hans-Rdiger Pfister
Pfister, Gerd Meier
18
t-Verteilung und df
Anweisungen in R:
0.4
df=19
df=4
> 1 - pt(2,19)
[1] 0.03000102
0.3
density(t)
> 1 - pt(2,4)
[1] 0.05805826
0.2
0.1
0.0
-3
-2
-1
t-value
Hans-Rdiger Pfister
Pfister, Gerd Meier
19
Hypothesenprfung
z. B.
Hypothesen sind empirisch prfbare Aussagen, die aus einer Theorie abgeleitet
werden:
Hans-Rdiger Pfister
Pfister, Gerd Meier
20
10
sie kann
gerichtet
JDS;G=5 > JDS; G=2
spezifisch
JDS;G=5 - JDS;G=2 = 5
Die Behauptung des logischen Gegenteils zur H1 (nicht H1) bezeichnet man als
Nullhypothese oder H0.
die H0 postuliert i.d.R., dass es keinen Zusammenhang bzw. keinen Unterschied gibt.
Hans-Rdiger Pfister
Pfister, Gerd Meier
21
Der Signifikanztest
(NHST: Null Hypothesis Significance Testing)
Die statistische Prfung erfolgt, indem die Nullhypothese zunchst als wahr
angenommen und dann versucht wird, die Nullhypothese statistisch
zurckzuweisen:
Angenommen, die Nullhypothese gilt, wie hoch ist dann die Wahrscheinlichkeit, das
gefundene empirische Ergebnis (die Prfstatistik ) zu erhalten?
Beispiel: Angenommen, Gruppengre wirkt sich nicht auf die Motivation aus (JDS;G=5 =
JDS; G=2), und man findet einen Unterschied von D = 5 Punkten: Wie wahrscheinlich ist
dieses Ergebnis unter der Nullhypothese (unter Bercksichtigung der Stichprobengre
usw.)?
P( D H 0 )
Ist das Ergebnis D sehr unwahrscheinlich (unter H0), dann wird die H0 (vorlufig)
zurckgewiesen und die H1 (vorlufig!) akzeptiert (u.U. bis zum nchsten
Experiment).
Hans-Rdiger Pfister
Pfister, Gerd Meier
22
11
Zur Durchfhrung eines Signifikanztests wird eine Teststatistik (Prfgre) berechnet, deren
Verteilungsfunktion unter der Nullhypothese bekannt ist (siehe: Stichprobenkennwerteverteilung).
Es wird die Wahrscheinlichkeit berechnet, dass die Teststatistik den empirisch gefundenen Wert
t (oder hher bzw. extremer) annimmt, unter der Annahme, dass die Nullhypothese gilt:
P(
t|H0).
Es wird (vorher!) ein Signifikanzniveau festgelegt: ist P(t|H0) , wird die Nullhypothese
verworfen, andernfalls wird sie beibehalten ( wird auch Irrtumswahrscheinlichkeit genannt).
Ein Ergebnis wird signifikant genannt, wenn die Wahrscheinlichkeit des empirisch ermittelten
Prfwerts t, p = P(t|H0) (auch p genannt) kleiner/gleich ist. Per Konvention wird i.d.R. ein
von 0.05 (signifikant *) oder von 0.01 (hochsignifikant **) festgelegt.
Der Wert = tkrit, fr den bei gegebenen Stichprobenumfang das Ergebnis signifikant wird, wird
auch als kritischer Wert bezeichnet.
Hans-Rdiger Pfister
Pfister, Gerd Meier
23
H0 (Nullhypothese): 1 2 = 0
t( df = n1 + n2 2 ) =
( x1 x2 ) ( 1 2 ) ( x1 x2 )
=
sD
sD
sD =
Hans-Rdiger Pfister
Pfister, Gerd Meier
+
(n1 1) + (n2 1)
n1 n2
24
12
feetconv by unit
metres
26.2464
metres
29.5272
metres
10
32.8080
metres
10
32.8080
metres
10
32.8080
metres
10
32.8080
metres
10
32.8080
metres
10
32.8080
metres
11
36.0888
10 metres
11
36.0888
-15.586682
-2.156741
sample estimates:
mean in group feet mean in group metres
52.56736
50
43.69565
30
30.0000
feet
30
30.0000
53
feet
30
30.0000
54
feet
32
32.0000
55
feet
32
32.0000
56
feet
33
33.0000
57
feet
34
34.0000
58
feet
34
34.0000
59
feet
34
34.0000
60
feet
35
35.0000
30
feet
52
10
20
51
40
...
feet
metres
Hans-Rdiger Pfister
Pfister, Gerd Meier
25
Test der Differenz der Mittelwerte zweier abhngiger Stichproben, z.B. Differenz
zweier Variablen X und Y aus einer Stichprobe (Paare von Messwerten).
H0 (Nullhypothese): X Y = 0
t( df = n 1) =
D 0 D
=
sD
sD
n
26
13
-3
-2
-1
Ablehnungsbereich
fr fr
H0 H0
= 2 =x 52,5%
% =
5%
Hans-Rdiger Pfister
Pfister, Gerd Meier
27
H0 wird zurckgewiesen
H1 ist korrekt
Korrekte
Entscheidung
Korrekte
Entscheidung
Die Wahrscheinlichkeit fr einen Fehler 2. Art ist in der Regel nicht bekannt, da man die
Verteilung fr H1 nicht kennt.
Entsprechend ist die Wahrscheinlichkeit 1- (sogenannte Power oder Teststrke eines Tests)
ohne weitere Zusatzannahmen nicht bekannt, also die Wahrscheinlichkeit, einen bestehenden
Unterschied auch als signifikant zu identifizieren.
Hans-Rdiger Pfister
Pfister, Gerd Meier
28
14
Anhang
Hans-Rdiger Pfister
Pfister, Gerd Meier
29
i =1
E ( X ) = pi xi bzw.
x f ( x)dx =
E[( X E ( X )) 2 ] = X2 = var( X )
Hans-Rdiger Pfister
Pfister, Gerd Meier
30
15
X,Y.... Zufallsvariablen
a,b... Konstanten
E (a) = a
E ( X + a) = E ( X ) + a
E (aX ) = aE ( X )
E ( X + Y ) = E ( X ) + E (Y ); E ( X i ) = E ( X i )
var( X ) = E ( X ) 2 = 2
var( X + a ) = var( X )
var(aX ) = a 2 var( X )
var( ai X i ) = ai2 var( X i ) fr unabhngige X i
Hans-Rdiger Pfister
Pfister, Gerd Meier
31
E ( x1 x2 ) = 1 2
Die Varianz der Summe oder Differenz zweier unabhngiger Zufallsvariablen ist die
Summe der Einzelvarianzen
2
2
2
X X = 1 + 2
1
d.h. der Standardfehler der Differenz von Mittelwerten ergibt sich als Wurzel aus der
Summe der Varianzen der beiden Stichprobenkennwerteverteilungen
D = x2 + x2 =
1
12
n1
22
n2
s12 s22
1 2
1
+
=
( s1 + s22 ) = s12 + s22
n n
n
n
bei ungleichen n :
s 2pooled =
sD = s 2pooled
Hans-Rdiger Pfister
Pfister, Gerd Meier
1 1
+
n1 n2
32
16