Sie sind auf Seite 1von 10

Statistik für Psychologen

5

Einfaktorielle Varianzanalyse

© Hans-Rüdiger Pfister, Gerd Meier

Experimentelles Design

AV: Fehler Randomisierung UV: Musik-Typ Control Pop Rock Jazz Classic UV: Lautstärke leise / leise
AV: Fehler
Randomisierung
UV: Musik-Typ
Control
Pop
Rock
Jazz
Classic
UV: Lautstärke
leise /
leise /
leise /
leise /
laut
laut
laut
laut
t1
UV: Zeitpunkt
t2

© Hans-Rüdiger Pfister, Gerd Meier

Fragestellungen

• Beeinflusst die UV (Unabhängige Variable, Faktor, Treatment, Bedingung) die AV (Abhängige Variable, Response) kausal?

• Welche Faktorstufen (treatment levels) sind kausal wirksam?

• Existiert ein Trend? (Ordnung über geordnete Faktorstufen)

• Interaktion: Gibt es eine spezifische Wechselwirkung zwischen zwei (oder mehreren) Faktoren hinsichtlich ihres Effekts auf die AV?

• Wie stark ist der kausale Effekt?

• Wie groß ist die Wahrscheinlichkeit eines Fehlers 1. Art und 2. Art?

© Hans-Rüdiger Pfister, Gerd Meier

error rate

error rate

Beispiel

7 6 5 4 3 2 1 0 Kontrolle Popmusik Klassik Schlager Music 6 5
7
6
5
4
3
2
1
0
Kontrolle
Popmusik
Klassik
Schlager
Music
6
5
4
normal
3
leise
2
1
0
Kontrolle
mit Musik

Music

© Hans-Rüdiger Pfister, Gerd Meier

Das Grundmodell der Varianzanalyse (ANOVA: Analysis Of Variance)

e AV UV 1 UV 2
e
AV
UV 1
UV 2

© Hans-Rüdiger Pfister, Gerd Meier

AV: Abhängige Variable

UV: Unabhängige Variable

e: Fehler (Stichprobenfehler, Messfehler, andere interindividuelle Unterschiede, weitere unbekannte Faktoren)

Das Grundmodell

= + ( ) + e = + + e X ij j ij j
=
+ (
) + e
=
+
+ e
X ij
j
ij
j
ij

X ij :

e ij :

:

j :

j

:

Beobachtung: Messwert einer Person i in Bedingung j

Populationsmittelwert (grand mean) über alle Bedingungen

Populationsmittelwert in Bedingung j

Fehler: Abweichung der Person i in Bedingung j vom Mittelwert der Bedingung j (X ij - j )

Effekt („treatment effect“): Abweichung des Mittelwerts in Bedingung j vom grand mean ( j - )

© Hans-Rüdiger Pfister, Gerd Meier

Visualisierung

 
 

j

e

e

ij

ij
(e i j )  

(e

ij )

 
   
   

© Hans-Rüdiger Pfister, Gerd Meier

(X ij )

j

X ij

X

Dekomponierung der Quadratsummen

X

ij

=

+

j

+

e

ij

 

X

ij

=

x

+

(

x

j

x

)

+

(

x

ij

x

j

)

X

ij

x

=

(

x

j

x

)

+

(

x

ij

x

j

)

(

X

ij

x

)

2

 

=

 

((

x

j

x

)

+

 

(

x

ij

x

j

))

2

∑∑

(

X

ij

 

x

)

2

=

∑∑

(

x

j

 

x

)

2

+

∑∑

(

x

ij

x

j

)

2

 

i

j

i

j

i

j

∑∑

(

 

)

2

(

 

)

2

∑∑

(

 

)

2

X

ij

 

x

 

n

=

x

j

 

x

 

+

x

ij

x

j

 

i

j

j

i

j

 

SS total

 

=

SS

treat

 

+

SS

error

df = N-1

© Hans-Rüdiger Pfister, Gerd Meier

df = k-1

df = k(n-1)

Fehler e:

Fehler

– der konkrete Messwert auf der abhängigen Variable einer Person wird durch eine Vielzahl von Faktoren ko-determiniert, die zusammengefasst den Fehlerterm e bilden.

– die Fehlervarianz (d.h. die Unterschiede zwischen Personen, die nicht durch die systematischen experimentellen Faktoren erklärt werden können = Zufallsfluktuationen) in der Population wird bezeichnet durch 2 e .

– die Fehlervarianz in der Stichprobe in Bedingung j wird als Differenz zwischen dem Bedingungsmittelwert und den Beobachtungen berechnet werden: e ij = x ij - j , und dient als Schätzer der Populationsvarianz.

Annahmen für Inferenzstatistische Tests:

– Varianzhomogenität: 2 1 = 2 2 =

2 j =

2 e

– Normalverteilung: N(0, 2 e )

– Unabhängigkeit: Fehler sind über die Bedingung nicht korreliert (-> Randomisierung)

© Hans-Rüdiger Pfister, Gerd Meier

Treatment :

Treatment

– Falls ein Treatment j einen kausalen Effekt auf die AV hat, wird der Wert der AV um eine Konstante j erhöht oder vermindert (treatment effect, causal effect).

– Der Treatment Effekt bezeichnet die relative Abweichung in Bedingung j vom grand mean: j = j - .

– Der Treatment Effekt ist mit dem Fehler e unkorreliert.

– In einem balancierten Design sind die Treatments untereinander unabhängig (nicht korreliert).

© Hans-Rüdiger Pfister, Gerd Meier

Ein Gedankenexperiment

Gleiche Population, Gleiche Population, X-Wert kein Fehler mit Fehler Unterschiedliche Populationen, kein Fehler
Gleiche Population,
Gleiche Population,
X-Wert
kein Fehler
mit Fehler
Unterschiedliche Populationen,
kein Fehler
Unterschiedliche
Populationen, mit Fehler
4 Treatments

aus Oestermeyer, Barquero, Plötzner (in Vorb.). Anschauliche Varianzanalyse.

© Hans-Rüdiger Pfister, Gerd Meier

number words recalled

Beispiel: Howell (p. 321, Table 11.1)

20

15

10

5

counting rhyming adjective imagery intentional
counting
rhyming
adjective
imagery
intentional

experimental condition

© Hans-Rüdiger Pfister, Gerd Meier

Statistische Hypothesen Nullhypothese H 0 : Die Stichproben unter allen k Treatments stammen aus der
Statistische Hypothesen
Nullhypothese H 0 :
Die Stichproben unter allen k Treatments stammen aus der gleichen Population: die
Populationsmittelwerte sind für alle Stichproben identisch
H 0 :
=
=
=
1
2 =
j
k
Alternativhypothese H 1 :
Die Stichproben unter allen K Treatments stammen nicht alle aus der gleichen
Population: Es existiert mindestens ein Stichprobenpaar mit unterschiedlichen
Populationsmittelwerten
H 1 :
ij:
i π
j
© Hans-Rüdiger Pfister, Gerd Meier
Mean Squares (MS) Die Mean Squares (MS, Varianzschätzung) erhält man, indem man die Sum of
Mean Squares (MS)
Die Mean Squares (MS, Varianzschätzung) erhält man, indem man die Sum of Squares
(SS, Summe der Abweichungsquadrate) durch die jeweiligen Freiheitsgrade df
dividiert (N = kn: Gesamtstichprobe; n: Stichprobengröße einer Bedingung; K: Anzahl
Bedingungen):
SS
= total
MS
total
N
1
SS
K (
n
1)
SS
K
1
Während sich die Quadratsummen (SS) additiv verhalten (Total = Treatment + Error),
verhalten sich die Mean Squares (MS) nicht additiv!
© Hans-Rüdiger Pfister, Gerd Meier

MS

error

= error

MS

treatment

= treatment

Die Logik des Signifikanztest in der ANOVA

(A) Schätzung der Populationsvarianz durch MS error (Mean

Square Error, MS within ):

Da die Varianz innerhalb jeder Bedingung (treatment) durch den Treatment Effekt nicht verändert wird ( j ist konstant), kann die Populationsvarianz durch die “gepoolte” (gemittelte) Varianz der K Stichproben geschätzt werden. Diese Schätzung ist unabhängig von der Wahrheit bzw. Falschheit von H0 oder H1.

ˆ

2

e

=

K s ˆ

j =1

2

j

= MS

K error

(B) Schätzung der Populationsvarianz durch MS treatment

(Mean Square Treatment, MS between ):

Angenommen H0 sei wahr. Dann folgt, dass alle Stichproben (Treatment level) aus der gleichen Population stammen, und dass deshalb ihre Mittelwerte nach dem zentralen Grenzwerttheorem normal verteilt sind mit Varianz ²/n (vgl. Standardfehler des Mittelwerts).

Dies gilt aber nur unter der H0!!

© Hans-Rüdiger Pfister, Gerd Meier

ˆ 2

s ˆ

2

   
 

=

x

ˆ

2

e

=

e

n

n

s ˆ

2

x

=

MS

treat

MS treatment und MS error

MS error ist ein erwartungstreuer Schätzer für die Fehlervarianz (d.h. die Populationsvarianz), unabhängig von der Wahrheit von H0 oder H1:

(

E MS

) =

SS

2

e

error

MS

=

error

=

ˆ 2

 

error

e

df

error

MS treat ist ein erwartungstreuer Schätzer für die Fehlervarianz nur dann, wenn H0 wahr ist. Andernfalls (H0 ist falsch) ist 2 > 0, und dann schätzt MS treat die Summe aus Fehler- und Treatmentvarianz:

© Hans-Rüdiger Pfister, Gerd Meier

(

 

) =

 

2

+

2 n 2 ˆ e
2
n
2
ˆ
e
 

treat

e

 

treat

=

SS

treat

E MS

MS

df

treat

F-Verteilung und F-Test

(i)

Angenommen H0 sei wahr: Dann ist E(MS error ) = E(MS treat ), da beide Terme unabhängige und erwartungstreue Schätzer von 2 e sind. Das Verhältnis beider Schätzer hat dann einen Erwartungswert = 1.

(ii)

Angenommen H1 sei wahr: Dann ist E(MS error ) < E(MS treat ), da MS treat ein Schätzer für die Fehlervarianz plus Treatmentvarianz ist. Das Verhältnis der beiden Schätzer hat dann einen Erwartungswert > 1.

Die F-Verteilung: Das Verhältnis zweier unabhängiger Schätzungen der Populationsvarianz folgt der sogenannten F-Verteilung mit K-1 (Zähler) und K(n-1) (Nenner) Freiheitsgraden:

MS

F df

treat

 

=

treat

= k

1;

df

error

=

k

(

n

1)

MS

error

© Hans-Rüdiger Pfister, Gerd Meier

density(F)

0.7 0.6 0.5 0.4 0.3 0.2 0.1 1 2 3 4
0.7
0.6
0.5
0.4
0.3
0.2
0.1
1
2
3
4

F

Die F-Verteilung Dichtefunktion Verteilungsfunktion df = 6,50 1.0 0.7 0.6 0.8 0.5 0.6 0.4 0.3
Die F-Verteilung
Dichtefunktion
Verteilungsfunktion
df = 6,50
1.0
0.7
0.6
0.8
0.5
0.6
0.4
0.3
0.4
0.2
0.2
0.1
0.0
0.0
0
1
2
3
4
5
0
1
2
3
4
5
F-value
F-value
Beispiel: F α=5%;df=3,16 = 3.239
© Hans-Rüdiger Pfister, Gerd Meier
Density (df:3,16)
Probability F < x (df:3,16)
20 15 10 5 counting rhyming adjective experimental condition © Hans-Rüdiger Pfister, Gerd Meier number
20 15 10 5 counting rhyming adjective experimental condition © Hans-Rüdiger Pfister, Gerd Meier number
20 15 10 5 counting rhyming adjective experimental condition © Hans-Rüdiger Pfister, Gerd Meier number
20
15
10
5
counting
rhyming
adjective
experimental condition
© Hans-Rüdiger Pfister, Gerd Meier
number words recalled

imagery

Pfister, Gerd Meier number words recalled imagery > how11.1.aov <- aov(RECALL ~ CONDITIO,

> how11.1.aov <- aov(RECALL ~ CONDITIO, data=how11.1)

> summary(how11.1.aov)

Df Sum Sq Mean Sq F value

Pr(>F)

CONDITIO

4 351.52

87.88 9.0848 0.00001815 ***

Residuals

45 435.30

9.67

intentional
intentional

Beispiel: Howell (p. 321, Table 11.1)

351.52 87.88 9.0848 0.00001815 *** Residuals 45 435.30 9.67 intentional Beispiel: Howell (p. 321, Table 11.1)