Sie sind auf Seite 1von 16

Statistik fr Psychologen

2
Parameterschtzung und Testen von
Hypothesen

Hans-Rdiger Pfister, Gerd Meier

Arten statistischer Inferenz


1.

Punktschtzung

Frage: gegeben eine Stichprobe mit Stichprobenkennwert S, was ist der


wahrscheinlichste Parameter , der S erzeugt hat?
Beispiel: Stichprobe mit arithmetischem Mittel M, was ist der Erwartungswert in
der Population?

2.

Intervallschtzung

Frage: gegeben eine Stichprobe mit Stichprobenkennwert S, in welchem Bereich liegt mit
definierter Sicherheit der wahre Populationsparameter ?
Beispiel: Stichprobe mit Mittelwert M, in welchem Intervall um M d liegt der
Parameter mit 95%er Wahrscheinlichkeit?

3.

Hypothesenprfung

Parametertest: Stammt eine Stichprobe mit Stichprobenkennwert S aus einer


Population mit bekanntem Parameter (ist = a?)

Unterschiedshypothese: Stammen zwei Stichproben mit den Statistiken S1


und S2 aus der selben Population (Ist 1 = 2?)

Zusammenhangshypothese: Sind zwei Zufallsvariablen X und Y stochastisch


unabhngig in der Population (P(X=x) = P(X=x|Y=y)?

Hans-Rdiger Pfister, Gerd Meier

Punktschtzung
Die meisten Statistiken empirischer Verteilungen haben ihre
Entsprechungen in theoretischen Parametern (Statistiken von Stichproben
beziehen sich auf Parameter von Grundgesamtheiten):

Mittelwert M
Erwartungswert
Standardabweichung s Standardabweichung
relative Hufigkeit f
Wahrscheinlichkeit p ()

Eine Statistik a, mit der man einen Parameter schtzt, nennt man den
Schtzer (oder die Schtzfunktion) fr , meist symbolisiert durch ein
"Dach", z.B. . Den im Einzelfall konkreten Wert von = x nennt man die
Schtzung fr .
Beispiel: der arithmetische Mittelwert M ist ein Schtzer fr , ein konkreter
Mittelwert aus einer Stichprobe von z.B. 5.5 ist eine Schtzung fr .

Hans-Rdiger Pfister, Gerd Meier

Kriterien fr Schtzer
Was sind gute Schtzer?

erwartungstreu (unbiased)
konsistent (consistent)
effizient (efficient)
erschpfend (sufficient)
robust (robust, resistant)

Erwartungstreue (Biasfreiheit, unbiased)

Ein Stichprobenkennwert T ist ein erwartungstreuer Schtzer fr einen Parameter


, wenn der Erwartungswert der Stichprobenkennwerteverteilung E(T) = , d. h.
gleich dem Populationsparameter ist;
Der Stichprobenmittelwert M ist ein erwartungstreuer Schtzer fr : E(M) =

E(x) = E(

Hans-Rdiger Pfister
Pfister, Gerd Meier

1 n
1
1
xi ) = E ( X ) = n =

n i =1
n
n

Stichprobenvarianz s2 als Schtzer fr 2


ein erwartungstreuer Schtzer fr die Varianz 2 ist der Schtzer

s 2 = 2 =

(x x)

n 1

1
1
2
xi x 2 E (s 2 ) = n E ( xi2 ) E ( x 2 )
n
2
2
wg. 2 = E ( xi ) 2 E ( xi ) = 2 + 2

s2 =

E(s 2 ) =
wg. x

1
( 2 + 2 ) E ( x 2 ) = 2 + 2 E ( x 2 )
n
2
= E ( x 2 ) ( E ( x )) 2 E ( x 2 ) = x + 2

E ( s 2 ) = 2 + 2 ( x + 2 ) = 2 x ; wg. x =
2

(n 1) 2
E(s ) =

2
n

man sieht, dass die


Stichprobenvarianz die
Populationsvarianz
unterschtzt, und zwar um
den Faktor (n-1)/n; als
einfache Korrektur ergibt sich
als erwartungstreuer Schtzer
fr die Populationsvarianz:

s 2 =

n 1
2
( xi x ) =
n 1 n

(x x)

(n 1)

Hans-Rdiger Pfister
Pfister, Gerd Meier

Kriterien fr Schtzer ...

Konsistenz (consistency)

Ein Schtzer ist konsistent, wenn die Wahrscheinlichkeit, dass er nahe am Parameter liegt,
mit wachsender Stichprobengre n zunimmt.
Der Stichprobenmittelwert M ist ein konsistenter Schtzer fr , denn sein Standardfehler ist

Effizienz (minimale Varianz, efficiency)

erschpfend (sufficient)

Ein Schtzer ist effizient, wenn sein Standardfehler relativ zu einem anderen mglichen
Schtzer kleiner ist bzw. der kleinstmgliche ist.

Ein Schtzer ist erschpfend, wenn er alle verfgbare Information aus der Stichprobe benutzt.

robust (resistant)

Ein Schtzer ist robust, wenn er nur geringfgig durch Ausreier beeinflusst wird.

Hans-Rdiger Pfister
Pfister, Gerd Meier

Standardfehler des Mittelwerts


Die Standardabweichung der Stichprobenmittelwerte (bei theoretisch
unendlich wiederholter Ziehung von Stichproben der Gre n) heit
Standardfehler des Mittelwerts (standard error of the mean):

var( x ) = var(

1
1
xi ) = 2 var( xi )

n
n

1
var(xi )
n2
1
= 2 2
n
2
1
= 2 n 2 =
n
n
2
=x
=

x2 = x = sex

Hans-Rdiger Pfister
Pfister, Gerd Meier

Grundlegende Inferenzen

1
2 : 2 = s 2 =
( xi x ) 2

n 1
s
x : sex = x =
n

Hans-Rdiger Pfister
Pfister, Gerd Meier

Wert des
Populationsparameters

Inferenz

: = x

Stichprobenkennwert

Intervallschtzung

Eine Punktschtzung liefert zwar einen best guess, man kann sich aber andererseits wegen
des Stichprobenfehlers fast sicher sein, dass der konkrete Wert der Punktschtzung falsch ist
(die Schtzung selbst ist eine Zufallsvariable, d.h. bei jeder Ziehung erhlt man zufllig eine
andere Schtzung).

Eine verbesserte Methode wre, wenn man einen Bereich angeben knnte, in dem der
gesuchte Parameter vermutlich liegt.

Einen solchen Bereich - mit einer unteren Grenze a und einer oberen Grenze b - nennt man
Konfidenzintervall.

Ein Konfidenzintervall ist ein Bereich, der mit angebbarer Wahrscheinlichkeit den gesuchten
Parameter berdeckt.

Konvention: Einen Bereich, der bei 95% aller Stichproben (der Gre n) den
Populationsparameter berdeckt, nennt man ein 95%-Konfidenzintervall.

Hans-Rdiger Pfister
Pfister, Gerd Meier

Konfidenzintervall
Berechnungsvorschrift fr ein 95%-Konfidenzintervall:

Annahme nach dem zentralen Grenzwerttheorem: wenn n, dann ist die


Stichprobenkennwerteverteilung des Mittelwerts M normalverteilt mit E(M)= und Varianz
2M=2/N;

die Wahrscheinlichkeit, dass bei N(0,1) ein Wert im Bereich -1,96 bis 1,96 liegt
(symmetrisch um ) betrgt p = 0.95 (vgl. Standardnormalverteilungstabelle);

daraus folgt:

N(, M )

P (1.96 x x +1.96 x ) = 0.95


1.96 x x x + 1.96 x
x +1.96 x x 1.96 x
P ( x + 1.96 x x 1.96 x ) = 0.95

-3 -2 -1

P ( x + | z / 2 | x x | z / 2 | x ) = 1 [%]

Hans-Rdiger Pfister
Pfister, Gerd Meier

10

Beispiel Konfidenzintervallberechnung
Intelligenz (IQ gem Standardtest) ist in der Population normalverteilt mit
= 100 und = 15.
In einer Stichprobe des Umfangs n = 25 von Leuphana-Studierenden ergibt
sich ein Stichprobenmittelwert von M = 105 und eine Standardabweichung
von s = 20.
Frage: Haben wir Grund zu der Annahme, dass Leuphana-Studierende eine
hhere Intelligenz aufweisen als der Populationsdurchschnitt?

CI 95% = x 1.96 sex

15
=3
n
25
1.96 3 = 5.88
CI = [105 5.88] = [99.12,110.88]
sex =

95%-CI

100

Hans-Rdiger Pfister
Pfister, Gerd Meier

11

Simulation mit R
> library(animation)
> conf.int()

C I: [ x z 2

n , x + z 2

n ]

1.0

> conf.int(level=0.90, size=20,


control=ani.control(nmax=100))

0.0
-1.0

-0.5

Confidence interval

0.5

11
89

Hans-Rdiger Pfister
Pfister, Gerd Meier

20

40

60

80

12

100

S amp les

Interpretation
Die Breite des Konfidenzintervalls hngt von 3 Faktoren ab
1.
2.
3.

von der Sicherheit, mit der man den Parameter einfangen will (z.B. 95%)
von der Varianz in der Population 2 bzw. in der Stichprobe s2
der Stichprobengre n

Die Wahrscheinlichkeitsaussage
P(a b) = 0.95
a = x z 0.975 x
b = x + z 0.975 x

gilt fr die Stichproben, d.h. beispielsweise, dass von 100 gezogenen


Stichproben der Stichprobengre n durchschnittlich 95% der so konstruierten
Konfidenzintervalle den Populationsparameter berdecken;

die Intervallgrenzen a und b sind die Zufallsvariablen, nicht !

es ist also keine Aussage ber , denn ist keine Zufallsvariable, kann also
keine Wahrscheinlichkeit haben (die Aussage: der wahre
Populationsparameter fllt mit 95%er Wahrscheinlichkeit in das
Konfidenzintervall a,b ist falsch).

Hans-Rdiger Pfister
Pfister, Gerd Meier

13

Beispiel Konfidenzintervallberechnung mit R


X:
33 16
27 30

5 15 7 39 1 6 50 18 23 22 46 2 41 43 45 9 40 47 44 14 10 26 20
4 21 17 3 31 42 24 28 36 38 13 35 48 19 32 49 25 8 29 11 34 37 12

n = 50

Mittelwert: mean(X) = 25.5


Standardabweichung: sd(X) = 14.58
Standardfehler: se = sd(X)/sqrt(50) = 2.06
z(0.05/2 = 0.025) = 1.96

CI:
untere Grenze:

uG <- mean(X) - abs(qnorm(0.05/2)) * seX

obere Grenze:

oG <- mean(X) + abs(qnorm(0.05/2)) * seX

uG = 25.5

oG = 25.5

- 1.96 * 2.06

+1.96 * 2.06

= 21.46

= 29.54

95%-CI fr X = [21.46, 29.54]

Hans-Rdiger Pfister
Pfister, Gerd Meier

14

t-Verteilung und t-Test


die z-Verteilung, d.h. die Normalverteilung, fr das zentrale
Grenzwerttheorem gilt nur, falls n -> geht bzw. falls bekannt ist
(z.B. IQ).
Andernfalls muss aus der Stichprobenvarianz s2 geschtzt
werden. In diesem Fall liefert die sogenannte t-Verteilung
(Student t) die exakteren Werte und muss statt der z-Verteilung
benutzt werden.

t df = n 1 =

bekannt -> z-Verteilung

unbekannt, aber grere Stichprobe (n>=30) -> z-Verteilung

unbekannt

t-Verteilung

mit n-1 Freiheitsgraden


und Schtzung von 2

s 2 =

x
s 2
n

(x x)

Freiheitsgrade (df): Anzahl frei variierbarer Werte einer Zufallsvariable


bei der Berechnung einer Statistik; Anzahl unabhngiger Messwerte
bzw. Daten.

n 1

die t-Verteilung ersetzt die z-Verteilung immer dann, wenn


unbekannt und Stichprobe klein ist also fast immer in
psychologischen Experimenten!

Hans-Rdiger Pfister
Pfister, Gerd Meier

15

0.3

0.4

Die t-Verteilung

0.2

z-Verteilung

0.0

0.1

d(x)

t-Verteilung
df=5

-3

-2

-1

Um eine gegebene Irrtumswahrscheinlichkeit (z.B. =5%) zu unterschreiten, muss der tWert grer sein als der z-Wert. Fr n=6 (df=5) ist der kritische t-Wert (bei =.05) = 2.57
statt z=1.96. Fr n -> geht die t-Verteilung in die z-Verteilung ber.

Hans-Rdiger Pfister
Pfister, Gerd Meier

16

Tabellierung der t-Verteilung


Wahrscheinlichkeit
df
0,75

0,875

0,90

0,95

0,975

0,99

0,995

0,999

1,000

2,414

3,078

6,314

12,706

31,821

63,657

318,309

0,816

1,604

1,886

2,920

4,303

6,965

9,925

22,327

0,765

1,423

1,638

2,353

3,182

4,541

5,841

10,215

0,741

1,344

1,533

2,132

2,776

3,747

4,604

7,173

0,727

1,301

1,476

2,015

2,571

3,365

4,032

5,893

0,718

1,273

1,440

1,943

2,447

3,143

3,707

5,208

0,711

1,254

1,415

1,895

2,365

2,998

3,499

4,785

0,706

1,240

1,397

1,860

2,306

2,896

3,355

4,501

0,703

1,230

1,383

1,833

2,262

2,821

3,250

4,297

10

0,700

1,221

1,372

1,812

2,228

2,764

3,169

4,144

11

0,697

1,214

1,363

1,796

2,201

2,718

3,106

4,025

12

0,695

1,209

1,356

1,782

2,179

2,681

3,055

3,930

13

0,694

1,204

1,350

1,771

2,160

2,650

3,012

3,852

Hans-Rdiger Pfister
Pfister, Gerd Meier

17

William Sealy Gosset (1876 1937)

from wikipedia

Hans-Rdiger Pfister
Pfister, Gerd Meier

18

t-Verteilung und df

Anweisungen in R:

curve(dt(x,19), -3,3, las=1, xlab="t-value", ylab="density(t)")


curve(dt(x,4), -3,3, add=TRUE, col="blue")
legend("topright", legend=c("df=19", "df=4"), col=c("black","blue") , lty=c(1,1))

0.4

df=19
df=4

> 1 - pt(2,19)
[1] 0.03000102

0.3

density(t)

> 1 - pt(2,4)
[1] 0.05805826

0.2

> qt(0.975, 19)


[1] 2.093024

0.1

0.0
-3

-2

-1

t-value

Hans-Rdiger Pfister
Pfister, Gerd Meier

19

Hypothesenprfung

z. B.

Hypothesen sind empirisch prfbare Aussagen, die aus einer Theorie abgeleitet
werden:

z. B. Gruppenarbeit erhht die Arbeitsmotivation

z. B. Traubenzucker erhht die Denkfhigkeit

Zur empirischen Prfung mssen Hypothesen operationalisiert werden, d. h. es


muss ein Messverfahren angegeben werden.

z. B. je hher die Anzahl der Mitglieder ein Arbeitsgruppe, um so hher die


Arbeitszufriedenheit im JDS (JDS: Job Diagnostic Survey, ein Fragebogen zur Messung der
Arbeitszufriedenheit)

je mehr Traubenzucker (in g) unmittelbar vor Aufgabenbearbeitung eingenommen wird, um


so fehlerfreier werden einfache Rechenaufgaben gelst

zur statistischen Prfung mssen statistische Hypothesen formuliert werden, d.


h. Erwartungen hinsichtlich der Beziehung von Populationsparametern:
JDS|G=5 > JDS|G=2

korrekt| 50g Traubenzucker > korrekt|10g Traubenzucker > korrekt|Kein Traubenzucker

Hans-Rdiger Pfister
Pfister, Gerd Meier

20

10

Null- und Alternativhypothese

Die Forschungshypothese bezeichnet man i.d.R. als Alternativhypothese oder H1.

Die Alternativhypothese postuliert i.d.R. einen Unterschied oder einen


Zusammenhang zwischen Variablen:

sie kann
gerichtet
JDS;G=5 > JDS; G=2
spezifisch
JDS;G=5 - JDS;G=2 = 5

oder ungerichtet sein


JDS;G=5 JDS; G=2
oder unspezifisch sein
JDS;G=5 - JDS; G=2 > 0

Die Behauptung des logischen Gegenteils zur H1 (nicht H1) bezeichnet man als
Nullhypothese oder H0.

H0: JDS;G=5 = JDS; G=2


H0: rZufriedenheit, Leistung = 0

die H0 postuliert i.d.R., dass es keinen Zusammenhang bzw. keinen Unterschied gibt.

Hans-Rdiger Pfister
Pfister, Gerd Meier

21

Der Signifikanztest
(NHST: Null Hypothesis Significance Testing)

Statistik ist konservativ! Um die Forschungshypothese als vorlufig gltig


anzuerkennen, soll gezeigt werden, dass ihr Gegenteil (die Nullhypothese)
vermutlich falsch ist.

Die statistische Prfung erfolgt, indem die Nullhypothese zunchst als wahr
angenommen und dann versucht wird, die Nullhypothese statistisch
zurckzuweisen:

Angenommen, die Nullhypothese gilt, wie hoch ist dann die Wahrscheinlichkeit, das
gefundene empirische Ergebnis (die Prfstatistik ) zu erhalten?

Beispiel: Angenommen, Gruppengre wirkt sich nicht auf die Motivation aus (JDS;G=5 =
JDS; G=2), und man findet einen Unterschied von D = 5 Punkten: Wie wahrscheinlich ist
dieses Ergebnis unter der Nullhypothese (unter Bercksichtigung der Stichprobengre
usw.)?

P( D H 0 )

Ist das Ergebnis D sehr unwahrscheinlich (unter H0), dann wird die H0 (vorlufig)
zurckgewiesen und die H1 (vorlufig!) akzeptiert (u.U. bis zum nchsten
Experiment).

Hans-Rdiger Pfister
Pfister, Gerd Meier

22

11

Prfgre und Signifikanzniveau

Zur Durchfhrung eines Signifikanztests wird eine Teststatistik (Prfgre) berechnet, deren
Verteilungsfunktion unter der Nullhypothese bekannt ist (siehe: Stichprobenkennwerteverteilung).

der Stichprobenmittelwert M bzw. der entsprechende z-Wert oder t-Wert


der t-Wert fr Differenzen zwischen Mittelwerten
der CHI2 Wert fr Hufigkeiten
.... u.v.m.

Es wird die Wahrscheinlichkeit berechnet, dass die Teststatistik den empirisch gefundenen Wert
t (oder hher bzw. extremer) annimmt, unter der Annahme, dass die Nullhypothese gilt:

P(
t|H0).

bei ungerichteten Hypothesen gilt P(abs(


t)|H0).

Es wird (vorher!) ein Signifikanzniveau festgelegt: ist P(t|H0) , wird die Nullhypothese
verworfen, andernfalls wird sie beibehalten ( wird auch Irrtumswahrscheinlichkeit genannt).

Ein Ergebnis wird signifikant genannt, wenn die Wahrscheinlichkeit des empirisch ermittelten
Prfwerts t, p = P(t|H0) (auch p genannt) kleiner/gleich ist. Per Konvention wird i.d.R. ein
von 0.05 (signifikant *) oder von 0.01 (hochsignifikant **) festgelegt.

Der Wert = tkrit, fr den bei gegebenen Stichprobenumfang das Ergebnis signifikant wird, wird
auch als kritischer Wert bezeichnet.

Hans-Rdiger Pfister
Pfister, Gerd Meier

23

t-test fr die Differenz der Mittelwerte zweier


unabhngiger Stichproben

Standardtest zum Vergleich einer Experimental- mit einer Kontrollgruppe (bei


metrischer abhngiger Variable X)

H0 (Nullhypothese): 1 2 = 0

Prfgre t mit n1+n2-2 df:

t( df = n1 + n2 2 ) =

( x1 x2 ) ( 1 2 ) ( x1 x2 )
=
sD
sD

Schtzung des Standardfehlers der Differenzen sD:

sD =

Hans-Rdiger Pfister
Pfister, Gerd Meier

(n1 1) s12 + (n2 1) s22


1 1

+
(n1 1) + (n2 1)
n1 n2

24

12

Beispiel t-Test mit R


> t.test(feetconv ~ unit, data=roomwidth, var.equal=TRUE)
Two Sample t-test
data:
unit width feetconv

feetconv by unit

t = -2.618, df = 111, p-value = 0.01008

metres

26.2464

alternative hypothesis: true difference in means is not equal to 0

metres

29.5272

95 percent confidence interval:

metres

10

32.8080

metres

10

32.8080

metres

10

32.8080

metres

10

32.8080

metres

10

32.8080

metres

10

32.8080

metres

11

36.0888

10 metres

11

36.0888

-15.586682

-2.156741

sample estimates:
mean in group feet mean in group metres
52.56736

50

43.69565

30

30.0000

feet

30

30.0000

53

feet

30

30.0000

54

feet

32

32.0000

55

feet

32

32.0000

56

feet

33

33.0000

57

feet

34

34.0000

58

feet

34

34.0000

59

feet

34

34.0000

60

feet

35

35.0000

30

feet

52

10

20

51

40

...

feet

metres

Hans-Rdiger Pfister
Pfister, Gerd Meier

25

t-Test fr die Differenz der Mittelwerte zweier


abhngiger Stichproben

Test der Differenz der Mittelwerte zweier abhngiger Stichproben, z.B. Differenz
zweier Variablen X und Y aus einer Stichprobe (Paare von Messwerten).

H0 (Nullhypothese): X Y = 0

Berechnung der Differenzwerte Di = xi yi

Prfgre t mit n-1 df:

t( df = n 1) =

D 0 D
=
sD
sD
n

> t.test(attitude$rating, attitude$privileges, paired=TRUE)


Paired t-test
data:

attitude$rating and attitude$privileges

t = 4.8175, df = 29, p-value = 4.211e-05


alternative hypothesis: true difference in means is not
equal to 0
95 percent confidence interval:
6.61782 16.38218
sample estimates:
mean of the differences
11.5
Hans-Rdiger Pfister
Pfister, Gerd Meier

26

13

Ein- und zweiseitiger Test


gerichtete Hypothese = einseitiger Test
ungerichtete Hypothese = zweiseitiger Test
Bei gegebener
Irrtumswahrscheinlichkeit:
Ablehnungsbereich
fr H0 = 5 %

- gerichtete Hypothese: der


Mittelwertsunterschied muss in
die postulierte Richtung
(Vorzeichen) gehen
- ungerichtete Hypothese: der
Mittelwertsunterschied muss
entweder sehr gro oder sehr
klein sein, das Vorzeichen ist
irrelevant

-3

D. h.: zur Besttigung einer


gerichteten Hypothese sind
kleinere Mittelwerte /
Differenzen notwendig als fr
eine ungerichtete Hypothese,
diese mssen aber das
erwartete Vorzeichen haben!

-2

-1

Ablehnungsbereich
fr fr
H0 H0
= 2 =x 52,5%
% =
5%

Hans-Rdiger Pfister
Pfister, Gerd Meier

27

Fehlerarten beim NHST


Wie es wirklich ist:
H0 ist korrekt
Statistische Entscheidung:
H0 wird akzeptiert

H0 wird zurckgewiesen

H1 ist korrekt

Korrekte
Entscheidung

Fehler 2. Art bzw.


-Fehler:
flschliches
Akzeptieren der H0

Fehler 1. Art bzw.


-Fehler: flschliche
Zurckweisung der
H0

Korrekte
Entscheidung

Die Wahrscheinlichkeit fr einen Fehler 1. Art bezeichnet das Signifikanzniveau des


Signifikanztests, blicherweise verwendet man die konventionellen Signifikanzniveaus 5% und
1%; auch Irrtumswahrscheinlichkeit genannt.

Die Wahrscheinlichkeit fr einen Fehler 2. Art ist in der Regel nicht bekannt, da man die
Verteilung fr H1 nicht kennt.

Entsprechend ist die Wahrscheinlichkeit 1- (sogenannte Power oder Teststrke eines Tests)
ohne weitere Zusatzannahmen nicht bekannt, also die Wahrscheinlichkeit, einen bestehenden
Unterschied auch als signifikant zu identifizieren.

Hans-Rdiger Pfister
Pfister, Gerd Meier

28

14

Anhang

Hans-Rdiger Pfister
Pfister, Gerd Meier

29

Erwartungswert E(X) einer Zufallsvariable X


Der Erwartungswert einer Zufallsvariable X ist definiert durch
k

i =1

E ( X ) = pi xi bzw.

x f ( x)dx =

wobei f ( x) die Dichtefunktion bei kontinuierlichem X ist.


Der Erwartungswert ist gewissermaen der Mittelwert einer theoretischen Verteilung,
bzw. der "erwartete" Wert einer Grundgesamtheit bei zuflliger Ziehung, bzw. die mit der
jeweiligen Wahrscheinlichkeit (oder Dichte) gewichtete Summe aller mglichen Werte xi
von X (das arithmetische Mittel ist hingegen die mit der relativen Hufigkeit gewichtete
Summe aller empirisch vorkommenden Werte einer empirischenVerteilung).
(Fast) alle theoretischen Verteilungen von Zufallsvariablen haben einen Erwartungswert.
Der Erwartungswert existiert allgemein auch fr beliebige Funktionen von X, z.B. die
Varianz:

E[( X E ( X )) 2 ] = X2 = var( X )

Hans-Rdiger Pfister
Pfister, Gerd Meier

30

15

Rechnen mit Erwartungswerten


E( X ) =

X,Y.... Zufallsvariablen
a,b... Konstanten

E (a) = a
E ( X + a) = E ( X ) + a
E (aX ) = aE ( X )

E ( X + Y ) = E ( X ) + E (Y ); E ( X i ) = E ( X i )

var( X ) = E ( X ) 2 = 2
var( X + a ) = var( X )
var(aX ) = a 2 var( X )
var( ai X i ) = ai2 var( X i ) fr unabhngige X i

Hans-Rdiger Pfister
Pfister, Gerd Meier

31

Mittelwert und Varianz von Differenzen

Der Erwartungswert der Differenz von Mittelwerten aus 2 unabhngigen Stichproben


ist

E ( x1 x2 ) = 1 2

Die Varianz der Summe oder Differenz zweier unabhngiger Zufallsvariablen ist die
Summe der Einzelvarianzen
2
2
2

X X = 1 + 2
1

d.h. der Standardfehler der Differenz von Mittelwerten ergibt sich als Wurzel aus der
Summe der Varianzen der beiden Stichprobenkennwerteverteilungen
D = x2 + x2 =
1

Schtzung von sD:


bei gleichem n :

12
n1

22
n2

s12 s22
1 2
1
+
=
( s1 + s22 ) = s12 + s22
n n
n
n

bei ungleichen n :
s 2pooled =

(n1 1) s12 + (n2 1) s22


n1 1 + n2 1

sD = s 2pooled
Hans-Rdiger Pfister
Pfister, Gerd Meier

1 1
+
n1 n2
32

16

Das könnte Ihnen auch gefallen

  • Notes Ap2
    Notes Ap2
    Dokument23 Seiten
    Notes Ap2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Names Ap2
    Names Ap2
    Dokument6 Seiten
    Names Ap2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Klaus Ur Fragen
    Klaus Ur Fragen
    Dokument4 Seiten
    Klaus Ur Fragen
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II Klausur Ws 08-09
    AP II Klausur Ws 08-09
    Dokument6 Seiten
    AP II Klausur Ws 08-09
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 e
    Alp2 e
    Dokument16 Seiten
    Alp2 e
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II Klausur Ws 08-09
    AP II Klausur Ws 08-09
    Dokument6 Seiten
    AP II Klausur Ws 08-09
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II KL Hinweise I Meier
    AP II KL Hinweise I Meier
    Dokument1 Seite
    AP II KL Hinweise I Meier
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II Namen Experimente Meier
    AP II Namen Experimente Meier
    Dokument7 Seiten
    AP II Namen Experimente Meier
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II KL Hinweise WS08 09 Meier
    AP II KL Hinweise WS08 09 Meier
    Dokument1 Seite
    AP II KL Hinweise WS08 09 Meier
    Wilhelm Winsor
    Noch keine Bewertungen
  • AP II KL Hinweise II Meier
    AP II KL Hinweise II Meier
    Dokument2 Seiten
    AP II KL Hinweise II Meier
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 G
    Alp2 G
    Dokument5 Seiten
    Alp2 G
    Wilhelm Winsor
    Noch keine Bewertungen
  • Statvorl. 2
    Statvorl. 2
    Dokument2 Seiten
    Statvorl. 2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 C
    Alp2 C
    Dokument21 Seiten
    Alp2 C
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 F
    Alp2 F
    Dokument9 Seiten
    Alp2 F
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 6 Anova2
    Stat 6 Anova2
    Dokument7 Seiten
    Stat 6 Anova2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 c2
    Alp2 c2
    Dokument7 Seiten
    Alp2 c2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 B
    Alp2 B
    Dokument13 Seiten
    Alp2 B
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 8 Anova4
    Stat 8 Anova4
    Dokument8 Seiten
    Stat 8 Anova4
    Wilhelm Winsor
    Noch keine Bewertungen
  • Übung Regression
    Übung Regression
    Dokument1 Seite
    Übung Regression
    Wilhelm Winsor
    Noch keine Bewertungen
  • Statistikprobeklausur ss10
    Statistikprobeklausur ss10
    Dokument2 Seiten
    Statistikprobeklausur ss10
    Wilhelm Winsor
    Noch keine Bewertungen
  • Alp2 A
    Alp2 A
    Dokument4 Seiten
    Alp2 A
    Wilhelm Winsor
    Noch keine Bewertungen
  • Statistik Klausur
    Statistik Klausur
    Dokument4 Seiten
    Statistik Klausur
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 10 Power
    Stat 10 Power
    Dokument7 Seiten
    Stat 10 Power
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 4 Regression2
    Stat 4 Regression2
    Dokument10 Seiten
    Stat 4 Regression2
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 9 ALM
    Stat 9 ALM
    Dokument8 Seiten
    Stat 9 ALM
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 3 Regression1
    Stat 3 Regression1
    Dokument8 Seiten
    Stat 3 Regression1
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 5 Anova1
    Stat 5 Anova1
    Dokument10 Seiten
    Stat 5 Anova1
    Wilhelm Winsor
    Noch keine Bewertungen
  • Stat 2 Inferenz-Zusatz
    Stat 2 Inferenz-Zusatz
    Dokument1 Seite
    Stat 2 Inferenz-Zusatz
    Wilhelm Winsor
    Noch keine Bewertungen