Sie sind auf Seite 1von 307

Herzlich willkommen zur Vorlesung

Statistik 1 (Teil 1)

Marina Haller

HS 2020
Organisatorisches 2

I Vorlesungsfolien, Formelsammlung und Übungsblätter im


OLAT Kurs

I Vorlesung + Tutorate + Vor- und Nachbereitung zuhause


= gute Prüfungsvorbereitung

I Beispiele für einführende Statistik-Lehrbücher

Bortz & Schuster Agresti & Finlay

nur wenn Sie wollen! prüfungsrelevant sind ausschliesslich die


Materialien im OLAT Kurs
Vorlesung 3

I Folien (ausgedruckt/elektronisch) + selber schreiben und


zeichnen → Papier und Buntstifte mitbringen!
(elektronisch nur wenn schnell genug)

I Podcast im OLAT → keine anderen Aufzeichnungen!

I nach der Pause pünktlich zurück

I Ruhe!

I Fragen: jederzeit zwischendurch melden oder nach der


Vorlesung  aber aufgrund der hohen Teilnehmerzahl
nicht per email

I ab einem gewissen Zeitpunkt: Nachbereitung zuhause nötig!


Verpassen Sie den Anschluss nicht!
Tutorate 4

I bei jedem der vier Termine gleicher Sto

I Aufgaben vorher zuhause versuchen zu lösen!


(Übungsblätter im OLAT zum selber Ausdrucken)

I es werden keine oziellen Musterlösungen herausgegeben


(Diskussion zwecklos)

I es zwingt Sie niemand hinzugehen - aber wenn Sie hingehen


verhalten Sie sich kollegial!

I mehrmals pro Semester Übungs-Quiz mit prüfungsähnlichen


Multiple-Choice Fragen
Propädeutikums-Prüfung 5

I zu Teil 1 und Teil 2 jeweils 10 Fragen


I d.h. pro Frage durchschnittlich 2 Minuten Zeit (für manche
braucht man nur 30 Sekunden, für manche über 3 Minuten)

I Multiple-Choice mit Partial-Credit-Bewertung


z.B. Kreuzen Sie zwei richtige/alle richtigen Antworten an.

I zugelassene Hilfsmittel
I Formelsammlung (wie im OLAT, wird ausgegeben)
I Taschenrechner (nur die zugelassenen Modelle!)
http://www.psychologie.uzh.ch/de/studium/bscmsc/
studium/pruefungen/rundum.html

I verbale Aufgaben und Rechenaufgaben (vgl. Quizze)


I bei Rechenaufgaben:
I in jedem Rechenschritt auf mind. 3 Stellen runden
I Zahlen sind so gewählt, dass Ergebnisse eindeutig
I ggf. die Antwort ankreuzen, die am nächsten dran
Soll man in der Propädeutikums-Prüfung raten? 6

Multiple-Choice mit Partial-Credit-Bewertung, d.h.


I innerhalb einer Aufgabe Punktabzug wenn (zusätzlich zu
den richtigen) falsche Antworten angekreuzt
I aber pro Aufgabe nie unter 0 Punkte

Aber Ihr Ziel sollte sein, nicht raten zu müssen, denn:

⇒ nicht die Ratestrategie entscheidet, sondern Ihre Vorbereitung!


Propädeutikums-Prüfung 7

Vorbereitung: Materialien aus dieser Veranstaltung

I Übungsaufgaben aus den Tutoraten

I Quizze aus den Tutoraten

I Aufgaben aus den Folien nachrechnen

I alte Propädeutikums (früher Assessment) Aufgaben ab 2012


(viele davon sind bereits in unsere Quizze integriert)

I nicht sinnvoll, z.T. sogar irreführend und fehlerhaft:


Aufgaben von früheren Dozenten vor 2012, aus anderen Unis,
Aufgaben aus Büchern, alte oder kommerziell angebotene
Skripte, Webseiten, Karteikarten o.ä.

I sinnvoll: Lerngruppen bilden, Lernplan machen

I entscheidend sind: Sto-Menge und Rechen-Routine


Sprachliches 8

I Sie dürfen Fragen gerne auf Schweizerdeutsch stellen,


betreende Folie/Blatt mitbringen hilft beim Erklären

I Beispiele sind aus didaktischen Gründen inhaltlich und


sprachlich vereinfacht
Statistik  Warum tun wir Ihnen das an?!?
Inhalte  Statistik 1, Teil 1 10

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle

4. Kovarianz und Korrelation


Emprirische Forschung und Skalenniveaus
Phasen der empirischen Forschung 12


Erkundungsphase 

Theoretische Phase

Vorlesung Forschungsmethoden
Planungsphase 


Untersuchungsphase

Auswertungsphase
Vorlesung Statistik
Entscheidungsphase

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Skalenniveaus 13

Wir haben eine interessante wissenschaftliche Studie durchgeführt


und folgende Daten erhoben:

Person Alter Geschlecht Lieblingsfarbe Begeisterung für Sport


1 22 m grün mittel
2 53 w gelb hoch
3 37 x grün niedrig
4 31 w rot mittel
. . . . .
. . . . .
. . . . .

Welche Auswertungen machen Sinn?

I mittleres Alter der Befragten

I mittlere Lieblingsfarbe der Befragten

I am häugsten genannte Lieblingsfarbe der Befragten


Skalenniveaus 14

I Das Prinzip der Skalenniveaus wurde von dem Psychophysiker


S. S. Stevens in einem Artikel von 1946 (On the Theory of
Scales of Measurement) explizit formuliert.

I Für Statistik von sehr groÿer Bedeutung: Je nach Skalenniveau


sind nur bestimmte Auswertungsmethoden sinnvoll.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Skalenniveaus 15


Absolutskala 

Identität








Dierenzenskala Verhältnisskala



a+x b·x metrische Skalen





Intervallskala



a+b·x





Ordinalskala
streng monotone Transformationen

Nominalskala
eineindeutige Transformationen
Nominalskala 16

I Niedrigstes Skalenniveau.

I Messen auf Nominalskalenniveau ist Klassikation.

I Grundlegende Operation ist die Feststellung der Gleichheit


oder Ungleichheit.

I Beispiele: Farbe, Geschlecht, Nationalität,


Religionszugehörigkeit, usw.

I Alle eineindeutigen Transformationen sind zulässig:


rot → 1, blau → 2, grün → 3
aber nicht: rot →1 und blau → 1, grün → 2

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ordinalskala 17

I Objekte können in eine Rangreihe gebracht werden, aber die


Abstände zwischen den Kategorien sind nicht gleich bzw. nicht
bedeutsam.

I Grundlegende Operationen: >, <, =


I Beispiele: Rangordnung von Bewerbenden, Ränge beim Militär,
Schulabschlüsse, Grad der Zustimmung.

I Alle streng monotonen (also ordnungserhaltenden)


Transformationen sind zulässig:
gut → 1, mittel → 2, schlecht →3
aber auch: gut → 42, mittel → 17, schlecht → 3
Kodierung oft durch Zahlen, aber Abstände nicht
interpretieren!

I häuger Streitpunkt: ist eine psychologische Skala ordinal oder


metrisch zu interpretieren? (vgl. spätere Vorlesungen zu
Testtheorie und Skalierungsverfahren)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Intervallskala 18

I Erste metrische Skala, d.h. die Skala besteht aus gleich groÿen
Intervallen, den Einheiten.
I Beispiele: Temperatur, psychologische Messungen wie z.B.
IQ-Werte.
I Zulässige Transformationen für Intervallskalen sind

a+b·x (mit b > 0)


Verschiebung des Nullpunktes und Stauchung/Streckung der
Einheiten (d.h. Nullpunkt und Einheit können willkürlich
festgelegt werden).
I Umrechnungsformeln zwischen Grad Celsius ◦ C und Grad

Fahrenheit F :
5
C = (F − 32)
9
9
F = 32 + ·C
5

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Intervallskala 19

Quelle: http://www.mathsisfun.com
Beispiel 20

I Die Temperatur gestern war 5◦ C und heute haben wir 10◦ C .

I Ist die Aussage Heute ist es doppelt so warm wie gestern


sinnvoll?

I Umrechnen von 5◦ C und 10◦ C zur Fahrenheit-Skala ergibt:


◦ ◦
41 F und 50 F .

I 50◦ F ist nicht doppelt so hoch wie 41◦ F . Die Aussage ist auf
Intervallskalenniveau nicht sinnvoll.

I Anstatt nicht sinnvoll sagt man auch nicht bedeutsam.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Verhältnisskala 21

I Zulässige Transformationen für Verhältnisskalen sind

b·x (mit b > 0)

Verhältnisskalen haben einen festen Nullpunkt, aber die Gröÿe


der Einheiten kann durch Stauchung/Streckung verändert
werden (d.h. die Einheit kann willkürlich festgelegt werden).

I Beispiele: Länge (in cm oder in m), Alter (in Jahren oder in


Monaten), monatliches Nettoeinkommen (in CHF oder in
EUR).

I Umrechnungsformeln zwischen Länge in cm und Länge in m:

cm = 100 · m

I Aussagen über Verhältnisse bleiben unverändert.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Absolutskala 22

I Zulässige Transformation für die Absolutskala ist nur die


Identität (also keine Veränderung).

I Beispiele: Anzahl gekaufter Produkte, Anzahl Kinder,


Wahrscheinlichkeiten

I Höchstes Skalenniveau ⇔ strengste Transformation.


Deskriptive Statistik
Wo sind wir? 24

1. Deskriptive Statistik
1.1 Maÿe der zentralen Tendenz (Lagemaÿe)
1.2 Maÿe der Variabilität (Streuungsmaÿe)
1.3 Lineare Transformationen
1.4 Diagramme

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Maÿe der zentralen Tendenz (Lagemaÿe) 25

I Mittelwert (arithmetisches Mittel)


ab metrischem Skalenniveau

I Median (50%-Quantil)
ab Ordinalskala

I Modalwert (Modus)
ab Nominalskala

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Mittelwert 26

I Für n Werte berechnet man:

n
1 X
x̄ = xi
n
i= 1
I Numerisches Beispiel: Fünf Werte: 3, 5, 6, 8, 14

I Man errechnet

n
1 X 1
x̄ = xi = (3 + 5 + 6 + 8 + 14)
n
i= 1 5

= 36/5 = 7,2.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Eigenschaften des Mittelwerts 27

I Die Summe der Abweichungen vom Mittelwert ist null, d. h.

n
X
(xi − x̄ ) = 0.
i= 1
I Der Mittelwert ist sensitiv gegenüber Ausreiÿern.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de

Der Mittelwert ist sensitiv gegenüber Ausreiÿern 28

I Angenommen aufgrund eines Tippfehlers erhällt man:


3, 5, 6, 8, und 144.

I Die letzte Zahl sollte eigentlich 14 sein.

I Als Mittelwert ergibt sich 33,2 anstatt 7,2.

I Oensichtlich ist 33,2 keine gute Repräsentation der zentralen


Lage der Daten.
∗ unter Ausreiÿern versteht man extreme Werte (das können

Tippfehler sein, aber auch echte Werte von einzelnen Personen


mit extremen Ausprägungen eines Merkmals)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Mitdenk-Frage 29

Sie wollen auf die Geldknappheit unter Zürcher Studierenden


aufmerksam machen. Dazu befragen Sie die Teilnehmenden Ihres
Statistik I Tutoriums, wie viel Geld sie monatlich zur Verfügung
haben, und berechnen daraus den Mittelwert.
Am Tag ihrer Umfrage ist auch ein Millionärs-Sohn anwesend.

I Was passiert?

I Macht es einen Unterschied, ob in Ihrer Tutoriums-Gruppe 20


oder 200 Leute sind?
Median 30

I Der Median halbiert die Häugkeitsverteilung.

I Mindestens 50% aller Werte sind ≤ der Median und


mindestens 50% aller Werte sind ≥ der Median.
I Der Median ist das 50%-Quantil.

I Der Median setzt mindestens ordinales Skalenniveau voraus.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Berechnung des Medians 31

I Sortiere die Daten. (Nicht vergessen!)

I Sortierte Daten bezeichnet man oft durch: x(1) ,x(2) , . . . ,x(n) .


I Falls n ungerade:
Median = x( n+1 )
2
I Falls n gerade:

x( 2n ) + x( 2n +1)
Median =
2

(bei ordinalen Daten ist diese Denition  die üblicherweise


auch von Statistik-Programmen verwendet wird  nicht ideal;
per Denition ist sowohl x( 2n ) als auch x( 2n +1) Median)
Beispiel 32

I Ungerader Stichprobenumfang, n = 5:
I Unsortierte Werte: 5, 2, 3, 7, 8
I Sortierte Werte: 2, 3, 5, 7, 8
I Median = x( n+21 ) = x( 5+2 1 ) = x(3) = 5.

I Gerader Stichprobenumfang, n = 6:
I Unsortierte Werte: 2, 8, 6, 4, 12, 10
I Sortierte Werte: 2, 4, 6, 8, 10, 12
x( n ) + x( 2n +1) x( 6 ) + x( 62 +1) x(3) + x(4)
I Median = 2 = 2 = =
2 2 2
6+8
=7
2

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Eigenschaften des Median 33

I Der Median ist nicht so sensitiv gegenüber Ausreiÿern wie der


Mittelwert.

I Illustration mit vorherigem Beispiel: 3, 5, 6, 8, und 144 anstatt


14.

I Der Median (6) verändert sich hier nicht.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Modalwert (Modus) 34

I Der Modalwert ist der am häugsten vorkommende Wert (d.h.


das Maximum der Häugkeitsverteilung).

I Der Modalwert ist per Denition nicht notwendigerweise


eindeutig.

I Üblicherweise spricht man aber nur bei solchen Verteilungen


von einem Modalwert, die ein eindeutiges Maximum besitzen.

I Beispiel: 2, 1, 3, 5, 2, 4, 3, 2
Der Wert 2 kommt am häugsten vor und ist daher Modalwert.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Maÿe der Variabilität (Streuungsmaÿe) 35

I Varianz

I Standardabweichung

I Variationsbreite (Range)

I Interquartilbereich

ab metrischem Skalenniveau

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Varianz und Standardabweichung 36

I Die Varianz ist deniert als

n
s2 = (xi − x̄ )2
1 X
n−1
i= 1
(durchschnittliche quadrierte Abweichung vom Mittelwert).

I Die Wurzel der Varianz bezeichnet man als



Standardabweichung, d. h. s= s 2.
I Die Standardabweichung hat die gleiche Einheit wie die
Rohwerte.

I Oft wird Streuung synonym für Standardabweichung


verwendet. Andere Quellen verwenden Streuung allgemeiner
als Bezeichnung für die Variabilität der Daten.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 37

Reaktionszeiten von Versuchspersonen in Sekunden:

xi xi − x̄ (xi − x̄ )2
3,3 0,8 0,64 Mittelwert
1,7 −0,8 0,64
2,0 −0,5 0,25 x̄ = 2,5.
4,0 1,5 2,25
1,3 −1,2 1,44 Varianz:

(xi − x̄ )2
2,0 −0,5 0,25 Pn
3,0 0,5 0,25
2
s = i=1 =
7,92
= 0,720
n−1 11
2,7 0,2 0,04
3,7 1,2 1,44 Standardabweichung:
2,3 −0,2 0,04 p
1,7 −0,8 0,64 s = 0,72 = 0,849
2,3 −0,2 0,04
7,92

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Variationsbreite 38

I x(1) = kleinster Wert, Minimum


x(n) = gröÿter Wert, Maximum
Variationsbreite = x(n) − x(1)
I Die Variationsbreite wird auch Range genannt.

I Die Variationsbreite ist sensitiv gegenüber Ausreiÿern.

I Die Variationsbreite ist kein sehr nützliches Maÿ zur


Charakterisierung der Variabilität.

I Kontrolle von Minimum und Maximum kann aber hilfreich


sein, um unplausible Werte zu entdecken, z.B.:
Alter von Studierenden reicht von 11 bis 317 Jahren?!? →
vermutlich Tippfehler im Datensatz.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Interquartilbereich 39

I Weniger ausreiÿeranfällig: Bereich der mittleren 50% aller


Werte.

I Dieser Bereich ist durch Werte (sog. Angelpunkte) begrenzt,


die die unteren 25% bzw. die oberen 25% der Verteilung
abschneiden.

I Der untere Angelpunkt, der die unteren 25% abschneidet, wird


als erstes Quartil Q1 (oder 25%-Quantil) bezeichnet.

I Der obere Angelpunkt, der die oberen 25% abschneidet, wird


als drittes Quartil Q3 (oder 75%-Quantil) bezeichnet.

I Interquartilbereich IQR = Q3 − Q1
I Der IQR drückt die Länge des Bereichs aus, über den die
mittleren 50% einer Rohwerteverteilung streuen.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Quantile (Perzentile) 40

I Quantile sind Kennwerte, die die relative Position eines


Messwertes innerhalb der Stichprobe zum Ausdruck bringen.

I Ein Quantil bezieht sich immer auf einen vorgegebenen


Prozentsatz.

I Das Quantil xp ist der Messwert, der p -Prozent der Werte


abschneidet.

I Vgl. Denition Median:


Mindestens 50% aller Werte sind ≤ der Median und
mindestens 50% aller Werte sind ≥ der Median.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Spezielle Quantile (Perzentile) 41

I x25 , x50 , x75 : Quartile

I x50 : Median

I x25 : 1. Quartil Q1 , x75 : 3. Quartil Q3


I x10 , x20 , . . . , x90 : Dezile

I Auÿer für den Median ist die Bestimmung von Quantilen per
Hand nicht praktikabel.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Lineare Transformationen 42

Bei intervall- und verhätltnisskalierten Daten sind sog. lineare


Transformationen zulässig, z.B. Umrechnung von
◦ C in ◦ F

(a + b · x) oder von CHF in EUR (b · x ):

CHF EUR
0 0
1 0,96
2 1,92
3 2,88
4 3,84
.. ..
. .
10 9,60

Quelle: http://www.mathsisfun.com; Wechselkurs: April 2015


Lineare Transformationen 43

Wie verändern sich Mittelwert und Varianz/Standardabweichung


dadurch? Muÿ man Mittelwert und Varianz/Standardabweichung
nochmal komplett neu berechnen?

I Erhobene Werte: x
I Transformierte Werte: y
I Transformation: y =a+b·x

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiele 44

I Fünf x -Werte:
2, 3, 4, 5, 6.

I Für diese Werte ermittelt man: x̄ = 4 und sx = 1,581


I Für die lineare Transformation y = 2 + x ergeben sich die
Werte:
4, 5, 6, 7, 8

I Mittelwert und Standardabweichung nochmals neu berechnen:


I ȳ = 6 und sy = 1,581
I Für die lineare Transformation y =3·x ergeben sich die
Werte:
6, 9, 12, 15, 18

I Mittelwert und Standardabweichung nochmals neu berechnen:


I ȳ = 12 und sy = 4,743
I Gibt es allgemeine Regeln, was sich als neuer Mittelwert und
Varianz/Standardabweichung ergibt?

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Allgemeine Regeln 45

I Mittelwert: ȳ = a + b · x̄
I 2 2 2
Varianz: sy = b · sx
Standardabweichung: sy = |b| · sx
I Beispiel: Für die lineare Transformation y =2+3·x ergeben
sich:
8, 11, 14, 17, 20

I Mittelwert und Standardabweichung nochmals neu berechnen:

I ȳ = 14 und sy = 4,743
I ergibt sich auch durch: ȳ = 2 + 3 · 4 und sy = |3| · 1,581

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Spezielle lineare Transformation: z -Transformation 46

I z -Wert = Abweichung vom Mittelwert im Verhältnis zur


Standardabweichung:

x − x̄
z =
s

= a + b · x
= − s + 1s · x

I Der z -Wert gibt damit an, um wieviele Standardabweichungen


ein Wert über dem Mittelwert liegt.

I Für z -transformierte Werte gilt: z̄ = 0 und sz2 = 1.


I z -Werte sind dimensionslose Zahlen. Vorteil: sie sind direkt
vergleichbar, egal welche Einheit die ursprünglichen Werte
haben.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 47

I Vergleich zweier Personen aus zwei Ländern mit


unterschiedlichen Tests zur beruichen Eignung.
I Person A hat 150 Punkte in einem Test mit Mittelwert 100
und Standardabweichung 50 (bestimmt an einer groÿen
Stichprobe aus diesem Land).
I Person B hat 20 Punkte in einem Test mit Mittelwert 10 und
Standardabweichung 5.
I Wen soll man z.B. für einen Job auswählen? Person A weil sie
mehr Punkte hat?
150 − 100
zA = =1
50

20 − 10
zB = =2
5

I Person A liegt nur eine Standardabweichung über dem


Landesmittel, Person B hingegen 2 Standardabweichungen.
I Ich würde Person B auswählen.
Diagramme
Diagramme zur graschen Darstellung von Daten 49

I für nominalskalierte Merkmale


I Kreisdiagramm
I Balkendiagramm
I ...
I für ordinalskalierte Merkmale
I Balkendiagramm
I ...
I für metrische Merkmale
I Boxplot
I Histogramm
I ...
Kreisdiagramm (alias Tortendiagramm) 50

C
D

Winkel/Fläche entspricht Häugkeit, aber schwer zu vergleichen.


Welches Stück ist gröÿer: B oder C?
Balkendiagramm 51

250
200
150
100
50
0

A B C D E

Höhe entspricht Häugkeit, viel leichter zu vergleichen.


Zur Unterhaltung 52

Quelle: http://www.phdcomics.com
Zur Unterhaltung 53

Quelle: Katja Berlin & Peter Grünlich: Was wir tun, wenn der
Aufzug nicht kommt.
Zur Unterhaltung 54

Quelle: Katja Berlin & Peter Grünlich: Was wir tun, wenn der
Aufzug nicht kommt.
Boxplot 55

I Eine Möglichkeit zur gleichzeitigen Veranschaulichung von


Lage und Streuung einer Verteilung bietet der Boxplot.

I Die grundlegende Idee ist dabei, die mittleren 50% einer


Verteilung durch eine Box zu repräsentieren, in die auch der
Median eingezeichnet wird.

I Insofern kann man an der Box den Abstand der drei Quartile
zueinander erkennen.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 56

I Gegeben sind folgende zehn Testergebnisse eines


psychologischen Tests, wobei die Werte bereits nach der Gröÿe
sortiert wurden:

56, 57, 65, 66, 67, 69,72,75, 89 und 92.

I Für die Box des Boxplots werden folgende Gröÿen benötigt:

Q1 = x(3) = 65
Median = (x(5) + x(6) )/2 = 68
Q3 = x(8) = 75
IQR = Q3 − Q1 = 10

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Boxplot 57

IQR

Median

56 65 68 75 89 92

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ränder der Verteilung 58

I Die Werte an den Rändern der Verteilung werden ebenfalls in


dem Boxplot repräsentiert.

I Dazu werden Striche eingezeichnet, die jeweils von einem Ende


der Box ausgehen.

I Diese Striche werden Whiskers (Schnurrhaare) genannt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Länge der Whiskers 59

I Wir betrachten z.B. den Whisker für den oberen Rand der
Verteilung:

I Zunächst wird der IQR bestimmt und dann das 1,5-fache des
IQR zu dem oberen Angelpunkt Q3 addiert: Q3 + 1,5 · IQR
I Dieser Wert ist die Obergrenze für die Länge des Whiskers.

I Beobachtungen, deren Werte diese Grenze überschreiten,


werden als Ausreiÿer betrachtet und als zusätzliche Punkte
eingezeichnet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 60

I Um die Länge des unteren Whiskers zu bestimmen, berechnen


wir die untere Grenze Q1 − 1,5 · IQR = 50.
I Die kleinste Beobachtung, die diese Grenze nicht
unterschreitet, ist x(1) = 56.
I Der Whisker endet deshalb bei diesem Wert.

I Die entsprechende Grenze, um den oberen Whisker zu


bestimmen, ist Q3 + 1,5 · IQR = 90.
I Der gröÿte beobachtete Wert, der diese Grenze nicht
überschreitet, ist x(9) = 89.
I Deshalb wird der obere Whisker bis zu dieser Stelle gezogen.

I Da die Beobachtung x(10) = 92 die Grenze von 90 aber


überschreitet, wird dieser Wert zusätzlich in den Plot
eingezeichnet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Boxplot 61

IQR

max. bis Q1 − 1.5 · IQR max. bis Q3 + 1.5 · IQR


Median

56 65 68 75 89 92

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Boxplot 62

An der Form des Boxplots sieht man die Verteilung der Werte:

●● ●

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0

● ●● ● ●●● ●●● ● ● ● ● ● ● ●
● ●●● ●● ● ● ●●● ●
● ● ●● ● ● ●
●● ●● ●●
● ●
●● ● ● ● ●●● ● ●

● ● ● ● ● ● ●
● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●
● ● ●● ● ● ● ● ●● ●● ●
● ●● ● ●

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0
Histogramm 63

Zur graschen Veranschaulichung der Verteilung eines metrischen


Merkmals kann auch ein Histogramm angefertigt werden. Die
Messwerte werden dazu in Kategorien eingeteilt.

0.015
0.010
Density

0.005
0.000

40 60 80 100 120 140 160


Beispiel 64

Kategorie Anzahl Anteil Breite Höhe =


Anteil/Breite
[60; 70[ 5 0.055̄ 10 0.0055̄
[70; 80[ 7 0.077̄ 10 0.0077̄
[80; 90[ 8 0.088̄ 10 0.0088̄
[90; 100[ 12 0.13̄ 10 0.013̄
[100; 110[ 17 0.18̄ 10 0.018̄
[110; 120[ 15 0.16̄ 10 0.016̄
[120; 130[ 13 0.14̄ 10 0.014̄
[130; 140[ 7 0.077̄ 10 0.0077̄
[140; 150[ 6 0.066̄ 10 0.0066̄
90 1
Histogramm  Anzahl/Breite der Kategorien 65

Anzahl und Breite der Kategorien sind nicht eindeutig festgelegt, es


gibt nur einige Faustregeln. Je nach Anzahl der Kategorien sieht
das Histogramm optisch anders aus:

0.012
0.025

0.010
0.020

0.008
0.015
Density

Density

0.006
0.010

0.004
0.005

0.002
0.000

0.000
40 60 80 100 120 140 160 40 60 80 100 120 140 160

Zu viele Kategorien → sehr wackelig, zu wenige → sehr grob.


Empfehlung: Anzahl der Kategorien so wählen, daÿ die Form der
Verteilung noch erkennbar ist (bei SPSS, R etc. automatisch).
Histogramm  Flächentreue 66

Beim Histogramm handelt es sich um einen Schätzer für die sog.


Dichte (vgl. spätere Kapitel). Dabei ist die Fläche proportional zur
Häugkeit einer Kategorie (Flächentreue).
→ Wenn man z.B. eine Kategorie breiter macht, ohne dass dadurch
mehr Beobachtungen hinzukommen, wird der zugehörige Balken
acher.
0.015

0.015
0.010

0.010
Density

Density
0.005

0.005
0.000

0.000

40 60 80 100 120 140 160 40 60 80 100 120 140 160


Beispiel 67

Kategorie Anzahl Anteil Breite Höhe =


Anteil/Breite
[60; 70[ 5 0.055̄ 10 0.0055̄
[70; 80[ 7 0.077̄ 10 0.0077̄
[80; 90[ 8 0.088̄ 10 0.0088̄
[90; 100[ 12 0.13̄ 10 0.013̄
[100; 110[ 17 0.18̄ 10 0.018̄
[110; 120[ 15 0.16̄ 10 0.016̄
[120; 130[ 13 0.14̄ 10 0.014̄
[130; 140[ 7 0.077̄ 10 0.0077̄
[140; 150[ 6 0.066̄ 10 0.0066̄
90 1
Beispiel 68

Kategorie Anzahl Anteil Breite Höhe =


Anteil/Breite
[40; 70[ 5 0.055̄ 30 0.00185
[70; 80[ 7 0.077̄ 10 0.0077̄
[80; 90[ 8 0.088̄ 10 0.0088̄
[90; 100[ 12 0.13̄ 10 0.013̄
[100; 110[ 17 0.18̄ 10 0.018̄
[110; 120[ 15 0.16̄ 10 0.016̄
[120; 130[ 13 0.14̄ 10 0.014̄
[130; 140[ 7 0.077̄ 10 0.0077̄
[140; 150[ 6 0.066̄ 10 0.0066̄
90 1
Histogramm 69

I Wegen Flächentreue: Histogramme mit unterschiedlich groÿen


Kategorien sind sehr schwer zu interpretieren → besser gleich
groÿe Kategorien, dann ist die Höhe wieder proportional zur
Häugkeit, wie beim Balkendiagramm.

I Anzahl der Kategorien wird so gewählt, daÿ die Form der


Verteilung gut erkennbar ist.
Verteilungsformen 70

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Suggestive Graken 71

z.B. durch Skalierung und Abschneiden der Achsen den Eindruck


erwecken, es gäbe einen steilen Anstieg

Buchtipp: Walter Krämer: So lügt man mit Statistik


Webtipp: www.stat4u.at → Lehrmaterial → Fehlerquellen
Suggestive Graken 72
Suggestive Prozentangaben 73
Suggestive Prozentangaben 74

Sehr geehrte Frau Strobl,


vielen Dank für Ihre E-Mail und Ihre Anfrage bezüglich
unseres OPTISCHEN 5 SEKUNDEN REDUZIERERS.
Der von Ihnen angefragte Wert - 38 % (verringerte
Sichtbarkeit von Falten und Poren) ist der Prozentsatz
der Selbstbewertung von 51 Frauen unseres Produktes.
Wir hoffen das wir Ihnen weiterhelfen konnten, und
senden viele Grüÿe aus Düsseldorf,
L'Oréal Deutschland GmbH

19/51 = 0.3725 20/51 = 0.3921 19.5/51 = 0.3824


75

d.h. auch Männer sind teilbar...


Wahrscheinlichkeitstheorie
Wo sind wir? 77

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie
2.1 Begrie und Rechenregeln
2.2 Wahrscheinlichkeitsverteilungen
2.3 Stichprobenverteilung des Mittelwerts

3. Tests und Kondenzintervalle

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Wahrscheinlichkeit 78

I Frage: Wer oder was kann eine Wahrscheinlichkeit haben?

I Antwort: Ein Ereignis. Ereignisse werden üblicherweise mit


Groÿbuchstaben, A,B,C , . . ., bezeichnet.

I Die Wahrscheinlichkeit, dass das Ereignis A eintritt, bezeichnet


man als P(A).

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Terminologie 79

I Elementarereignis: Ergebnis eines Zufallsexperimentes.

I Ereignismenge Ω: Menge der Elementarereignisse.

I Ereignis: Teilmenge von Ω.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiele für Elementarereignisse 80

I Münze: Kopf, Zahl.

I Würfel: Sechs Seiten des Würfels.

I Reiÿnagelspitze zeigt nach oben: ja, nein

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ereignisse 81

I Sei Ω = {1, 2, 3, . . . , 10}


I Einige mögliche Ereignisse:
I A = {1, 2, 3}
I B = {4, 5, 6, 7}
I C = {8, 9, 10}
I D = {2, 3, 7}
I E = {4, 5, 8}
I Bezeichnungen:
I Vereinigung: A ∪ D = {1, 2, 3, 7}
I Schnitt: A ∩ D = {2, 3}
I Komplement: A = {4, 5, 6, 7, 8, 9, 10}
I Leere Menge: A ∩ B = ∅

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Veranschaulichung von Ereignissen durch Venn-Diagramme82

(Ω)

(D)
2 3 7 9 10
6
(A) (B) (C)
1 4 5 8

(E)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Zur Unterhaltung: Schnittmenge 83

Quelle: Katja Berlin & Peter Grünlich: Was wir tun, wenn der
Aufzug nicht kommt.
Zur Unterhaltung: Schnittmenge 84

Quelle: Brigitte MOM, 1/2013


Additionstheorem allgemein 85

I Die Wahrscheinlichkeit des Eintretens von A oder B


(oder beiden gemeinsam) ergibt sich als die Summe der
Wahrscheinlichkeiten von A und B abzüglich der
Wahrscheinlichkeit, dass beide Ereignisse gemeinsam eintreten.

I Warum muÿ man die gemeinsame Wahrscheinlichkeit einmal


abziehen? → Wird im Venn-Diagramm klar!

I Als Formel ergibt sich:

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Additionstheorem für disjunkte Ereignisse 86

I Ein wichtiger Spezialfall des Additionstheorems ergibt sich,


falls sich beide Ereignisse wechselseitig ausschlieÿen.

I In diesem Fall:

P(A ∪ B) = P(A) + P(B)

da in diesem Fall: P(A ∩ B) = 0


I Sich wechselseitig ausschlieÿende Ereignisse werden auch
disjunkt genannt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Zur Unterhaltung: disjunkte Ereignisse 87

Quelle: Katja Berlin & Peter Grünlich: Was wir tun, wenn der
Aufzug nicht kommt.
Mehr als zwei disjunkte Ereignisse 88

I Die Wahrscheinlichkeit, dass eines von k disjunkten


Ereignissen eintritt, entspricht der Summe der
Wahrscheinlichkeiten für die k Ereignisse.

I Als Formel:

P(A1 ∪ A2 ∪ · · · ∪ Ak ) = P(A1 ) + P(A2 ) + · · · + P(Ak )

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Wahrscheinlichkeit des Komplements 89

I Das zu A komplementäre Ereignis ist Nicht A und wird mit


A bezeichnet.

I Die Wahrscheinlichkeit von A kann mit Hilfe von P(A)


bestimmt werden:
P(A) = 1 − P(A)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Multiplikationstheorem für unabhängige Ereignisse 90

I Ist das Eintreten zweier Ereignisse voneinander unabhängig


ergibt sich die Wahrscheinlichkeit des gemeinsamen Auftretens
von A und B als das Produkt der beiden
Einzelwahrscheinlichkeiten:

I P(A ∩ B) = P(A) · P(B)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Multiplikationstheorem allgemein 91

I Die Wahrscheinlichkeit des gemeinsamen Auftretens von A und


B ist gleich der Wahrscheinlichkeit für das Auftreten von A,
multipliziert mit der bedingten Wahrscheinlichkeit des
Auftretens von B, wenn A schon aufgetreten ist.

I Als Formel: P(A ∩ B) = P(A) · P(B|A)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Verallgemeinerung des Multiplikationstheorems 92

I Die Verallgemeinerung lautet:

P(A ∩ B ∩ C ∩ . . . ∩ Z) =
P(A) · P(B|A) · P(C |AB) · . . . · P(Z |AB . . . )

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Bedingte Wahrscheinlichkeit 93

I Häug tritt die Situation auf, dass wir uns für die
Wahrscheinlichkeit des Ereignisses B interessieren, wobei wir
aber bereits wissen, dass ein anderes Ereignis A eingetreten ist.

I Nutzen wir diese Kenntnis bei der Bestimmung der


Wahrscheinlichkeit von B aus, so sprechen wir von der
bedingten Wahrscheinlichkeit, welche mit P(B|A) bezeichnet
wird.

I P(B|A) bezeichnet also die Wahrscheinlichkeit für B , falls A


schon eingetreten ist.

I Wenn die Wahrscheinlichkeiten P(A ∩ B) und P(A) bekannt


sind, kann die bedingte Wahrscheinlichkeit P(B|A) mit
folgender Formel berechnet werden:

P(B|A) = P(A ∩ B)/P(A),

wobei P(A) > 0 gelten muss.


c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Unabhängige Ereignisse 94

I Zwei Ereignisse sind unabhängig, falls das Eintreten des einen


Ereignisses keinerlei Eekt auf die Wahrscheinlichkeit für das
Eintreten des anderen Ereignisses hat.

I Die Ereignisse A und B sind unabhängig, falls


P(B|A) = P(B|A) = P(B) und umgekehrt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Frei erfundenes Beispiel: Studierende 95

Die besprochenen Rechenregeln für Wahrscheinlichkeiten kann man


sich i.W. analog an Zufallsvariablen veranschaulichen:

Stellen Sie sich vor, aus einem Hörsaal mit 100 Studierenden ziehe
ich zufällig eine Person (mit verbundenen Augen).

Zur Illustration der Rechenregeln für Wahrscheinlichkeiten


interessieren uns folgende Ereignisse:

I Frau: ich erwische eine Frau

I lang: ich erwische eine Person mit langen Haaren

I Shirt: ich erwische eine Person mit schwarzem T-Shirt

I Gel: ich erwische eine Person mit Haargel


Frei erfundenes Beispiel: Studierende 96

Zum Rechnen brauchen wir einige Wahrscheinlichkeiten, die sich aus der
Verteilung in der Grundgesamtheit ergeben:
Frau P(Frau) = 50/100 = 0.5
ja nein P(lang) = 45/100 = 0.45
lang
ja 40 5 45 P(Frau ∩ lang) = 40/100 = 0.4
nein 10 45 55 P(lang|Frau) = 40/50 = 0.8
50 50 100 P(lang|Frau) = 5/50 = 0.1
Haargel
ja nein
lang
ja 0 45 45 P(Gel) = 15/100 = 0.15
nein 15 40 55
15 85 100
Frau
ja nein P(Shirt|Frau) = 10/50 = 0.2
Shirt
ja 10 10 20 P(Shirt|Frau) = 10/50 = 0.2
nein 40 40 80 P(Shirt) = 20/100 = 0.2
50 50 100
Bedingte Wahrscheinlichkeit 97

I direkt aus Tabelle ablesen wenn angegeben:

P(lang|Frau) = 40/50 = 0.8


von den 50 Frauen haben 40 lange Haare

I mit der Formel:

P(lang|Frau) = P(Frau ∩ P(Frau) =


lang)/

40/100 0.4
= = 0.8
50/100 0.5

von allen 100 Personen sind 40 Frauen und haben lange Haare
von allen 100 Personen sind 50 Frauen

(aus Tabelle bzw. aus angegebenen Wahrscheinlichkeiten)


Wahrscheinlichkeit des Komplements 98

hier jeweils zwei sich ausschlieÿende Möglichkeiten:


Frau vs. Frau, lang vs. lang

I bei normalen Wahrscheinlichkeiten:

P(Frau) = 1 − P(Frau) = 1 − 0.5 = 0.5


I bei bedingten Wahrscheinlichkeiten (gleiche Bedingung!):

P(lang|Frau) = 1 − P(lang|Frau) = 1 − 0.8 = 0.2

(lassen sich auch direkt aus Tabelle ablesen wenn angegeben)


Additionstheorem allgemein 99

Wie hoch ist die Wahrscheinlichkeit, dass die Person, die ich ziehe,
eine Frau ist oder lange Haare hat (oder beides)?

P(Frau ∪ lang) = P(Frau) + P(lang) − P(Frau ∩ lang)


= 0.5 + 0.45 − 0.4
= 0.55

Frau
ja nein
ja 40 5 45
lang
nein 10 45 55
50 50 100
Additionstheorem für disjunkte Ereignisse 100

Wie hoch ist die Wahrscheinlichkeit, dass die Person, die ich ziehe,
lange Haare hat oder Haargel im Wet-Look trägt (oder beides)?

Es gibt keine Personen, die sowohl lange Haare als auch Haargel im
Wet-Look tragen, d.h. lang ∩ Gel = ∅ und P(lang ∩ Gel) = 0.
P(lang ∪ Gel) = P(lang) + P(Gel) − P(lang ∩ Gel)
= 0.45 + 0.15 − 0
= 0.60

Haargel
ja nein
ja 0 45 45
lang
nein 15 40 55
15 85 100
Multiplikationstheorem für unabhängige Ereignisse 101

Wie hoch ist die Wahrscheinlichkeit, dass die Person, die ich ziehe,
eine Frau ist und ein schwarzes T-Shirt trägt?

Das Tragen von schwarzen T-Shirts ist unabhängig vom


Geschlecht: P(Shirt|Frau) = P(Shirt|Frau) = P(Shirt) = 0.2
P(Frau ∩ Shirt) = P(Frau) · P(Shirt)
= 0.5 · 0.2
= 0.1

Frau
ja nein
ja 10 10 20
Shirt
nein 40 40 80
50 50 100
Multiplikationstheorem allgemein 102

Wie hoch ist die Wahrscheinlichkeit, dass die Person, die ich ziehe,
eine Frau ist und lange Haare hat?

Das Tragen von langen Haaren ist nicht unabhängig vom


Geschlecht: P(lang|Frau) = 0.8 6= P(lang|Frau) = 0.1.
P(Frau ∩ lang) = P(Frau) · P(lang|Frau)
= 0.5 · 0.8
= 0.4

Frau
ja nein
ja 40 5 45
lang
nein 10 45 55
50 50 100
Disjunktheit vs. Unabhängigkeit 103

Disjunktheit
Ist die Schnittmenge aus Frau und lang leer?
nein ⇒ nicht disjunkt

Unabhängigkeit
Ist P(lang|Frau) gleich P(lang|Frau)?
nein ⇒ nicht unabhängig

Frau
ja nein
ja 40 5 45
lang
nein 10 45 55
50 50 100
Multiplikationstheorem aus psychologischer Sicht 104

Was ist gröÿer: Die Wahrscheinlichkeit. . .

I . . . dass die Person, die ich ziehe, eine Frau ist.

I . . . dass die Person, die ich ziehe, eine Frau ist und
lange Haare hat.

Wir haben gesehen: Frauen mit langen Haaren sind nur eine
Teilmenge aller Frauen ⇒ Wahrscheinlichkeit für verbundenes
Ereignis ist kleiner (Multiplizieren zweier Wahrscheinlichkeiten
ergibt geringere Wahrscheinlichkeit).
Multiplikationstheorem aus psychologischer Sicht 105

Berühmtes Experiment von Amos Tversky und Daniel Kahneman:

Versuchspersonen lasen einen Text über eine junge, intelligente


Frau namens Linda, die Philosophie studiert hat, für soziale
Gerechtigkeit eintritt und zu anti-Atomkraft-Demos geht. Danach
wurden Sie gefragt:

Was ist gröÿer: Die Wahrscheinlichkeit. . .

I . . . dass Linda eine Bankangestellte ist.


I . . . dass Linda eine Bankangestellte und in der
Frauenrechtsbewegung aktiv ist.

Die meisten Versuchspersonen lieÿen sich aufgrund der sog.


Repräsentativitäts-Heuristik verleiten, die zweite Antwort
anzukreuzen. (Das Experiment wurde später aber oft kritisiert.)

Originalartikel: Tversky, A., & Kahneman, D. (1983). Psychological


Review, 90, 293-315.
vieldiskutiertes Buch: Daniel Kahneman: Thinking, Fast and Slow.
Satz von Bayes 106

I Satz von Bayes:

P(B|A) · P(A)
P(A|B) =
P(B)
I Der Nenner ist (Satz von der totalen Wahrscheinlichkeit):

P(B) = P(B|A) · P(A) + P(B|A) · P(A)


I Daraus ergibt sich:

P(B|A) · P(A)
P(A|B) =
P(B|A) · P(A) + P(B|A) · P(A)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Motivation 107

I Notation:
I K Krankheit vorhanden
I T Test positiv
I Terminologie:
I P(K ) Prävalenz
I P(T |K ) Sensitivität des Tests
I P(T |K ) Spezität des Tests

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Motivation 108

Quelle: Blick am Abend, 2012


Motivation 109

I Angenommen bekannt sind:


I P(K ) Prävalenz
I P(T |K ) Sensitivität des Tests
I P(T |K ) Spezität des Tests
I Dann lässt sich mit dem Satz von Bayes P(K |T ) und P(K |T )
ermitteln.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Motivation 110

I Satz von Bayes:

P(T |K ) · P(K )
P(K |T ) =
P(T |K ) · P(K ) + P(T |K ) · P(K )
I Aus der Prävalenz folgt: P(K ) = 1 − P(K )
I Aus der Spezität folgt: P(T |K ) = 1 − P(T |K )

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 111

I Kennwerte eines diagnostischen Tests:


I Prävalenz: 0,001
I Sensitivität: 0,98
I Spezität: 0,995
I Mit Hilfe des Satz von Bayes folgt:

0,001 · 0,98
P(K |T ) = = 0,164
0,001 · 0,98 + 0,005 · 0,999

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Wahrscheinlichkeitsverteilungen
Wo sind wir? 113

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie
2.1 Begrie und Rechenregeln
2.2 Wahrscheinlichkeitsverteilungen
2.3 Stichprobenverteilung des Mittelwerts

3. Tests und Kondenzintervalle

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Zufallsvariablen 114

I Eine Zufallsvariable ist eine Funktion, die Ereignissen reelle


Zahlen zuordnet.
I Beispiele:
I Würfel: Jeder Seite wird ihre Punkteanzahl zugeordnet.
I Münze: Kopf wird als 1, Zahl als 0 kodiert.
I Studierende: Ziehe eine Person und notiere deren Alter in
Jahren.
I Zufallsvariablen können diskret oder stetig sein.
I Diskret: Ergebnisse fallen in Kategorien.
I Stetig: Werte können beliebig genau sein.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Zufallsvariablen besitzen eine Verteilung 115

I Hier besprochene Beispiele für


I diskrete Zufallsvariable: Binomialverteilung
I stetige Zufallsvariable: Normalverteilung
I Es existieren noch zahlreiche andere Verteilungen.

I Wahrscheinlichkeitsverteilungen sind idealisierte statistische


Modelle, die die echten Daten mehr oder weniger realistisch
beschreiben.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Diskrete Zufallsvariable 116

I Nur bestimmte Werte können auftreten.

I Jeder Wert hat eine gewisse Wahrscheinlichkeit.

I Die Wahrscheinlichkeiten addieren sich zu 1 auf.


Diskrete Zufallsvariable 117

9
36

6
36
P (x)

3
36
1
36
2 4 6 8 10 12
x

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Zweimaliges Würfeln 118

Quelle: Walter Fuchs: Knaurs Buch der modernen Mathematik.


Erwartungswert, Varianz, Verteilungsfunktion 119

I Erwartungswert
N
xi · P(xi )
X
µ=
i= 1
I Varianz
N
σ2 = (xi − µ)2 · P(xi )
X

i=1
I Wahrscheinlichkeitsfunktion

P(xi )
I Verteilungsfunktion

P(xj )
X
F (xi ) =
j≤i

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Binomialverteilung 120

I Wir betrachten eine Zufallsvariable, die nur zwei Werte


annehmen kann.

I Solche Variablen bezeichnet man auch als binäre oder


dichotome Variablen.
I Beispiele für dichotome Variablen sind:
I Kopf versus Zahl beim Münzwurf
I Hat eine Person ein Haustier? (ja/nein)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Notation 121

I x Anzahl der Erfolge in n Versuchen.

I π Erfolgswahrscheinlichkeit pro Versuch.

I P(x) Wahrscheinlichkeit von x Erfolgen in n Versuchen.

I Kurzbezeichnung für Binomialverteilung: B(n; π)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Münzwurf 122

I Disjunkte Ereignisse: Kopf, Zahl

I n=1
I π = 0,5
I Kopf zählt als Erfolg

I x = Anzahl von Würfen bei denen Kopf oben lag

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Münze einmal werfen 123

I Mögliche Werte für x: 0, 1


I Wahrscheinlichkeiten für x:
I P(0) = 0,5
I P(1) = 0,5
I = B(1; 0,5) Verteilung

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Münze zweimal werfen 124

I Mögliche Werte für x: 0, 1, 2


I Wahrscheinlichkeiten für x:
I P(0) = 0,25 (Zahl,Zahl)
I P(1) = 0,5 (Kopf,Zahl oder Zahl,Kopf)
I P(2) = 0,25 (Kopf,Kopf)
I = B(2; 0,5) Verteilung

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Münze dreimal werfen 125

I Mögliche Werte für x: 0, 1, 2, 3


I Wahrscheinlichkeiten für x:
I P(0) = 0,125 (Zahl,Zahl,Zahl)
I P(1) = 0,375 (Kopf,Zahl,Zahl oder Zahl,Kopf,Zahl oder
Zahl,Zahl,Kopf)
I P(2) = 0,375 (Kopf,Kopf,Zahl oder Kopf,Zahl,Kopf oder
Zahl,Kopf,Kopf)
I P(3) = 0,125 (Kopf,Kopf,Kopf)
I = B(3; 0,5) Verteilung

Im Prinzip ist es nicht schwierig, mit Hilfe des Multiplikations-


und Additionstheorems beliebige Binomialverteilungen zu
bestimmen, aber das Vorgehen ist nur praktikabel solange n
klein ist.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Formel der Binomialverteilung 126

P(x) = n
π x (1 − π)n−x

I Binomialverteilung:
x
I Binomial-Koezient (sprich: x aus n)
 
n n!
=
x x!(n − x)!
I x! wird als  x Fakultät bezeichnet.

I Die Fakultät einer positiven ganzen Zahl x ist deniert als

x! = 1 · 2 · · · (x − 1) · x

I Auÿerdem deniert man: 0! =1

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Würfeln 127

I Wahrscheinlichkeit, genau einmal die Sechs zu werfen wenn


man viermal würfelt?

I Man berechnet
   1  3
4 1 5
P(1) =
1 6 6
= 0,3858

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Multiple-Choice Klausur 128

I Eine Multiple-Choice Klausur enthält 15 Fragen von denen


jede fünf Antwortmöglichkeiten besitzt (d.h. die
1
Ratewahrscheinlichkeit ist = 0,2).
5
I Man kreuzt rein zufällig irgendwelche Antworten an.

I Die Klausur gilt als bestanden, falls neun oder mehr der
Antworten richtig sind.

I Wie wahrscheinlich ist das Bestehen der Klausur?

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Multiple-Choice Klausur 129

I Parameter der Binomialverteilung: n = 15, π = 0,2


I Berechne

P(9) + P(10) + P(11) + P(12) + P(13) + P(14) + P(15)


jeweils mithilfe der Binomialverteilungsformel

·(0,2)9 ·(0,8)15−9 = 5005·(0,2)9 ·(0,8)6 ≈ 0.000672


 
15
P(9) =
9

I Die Summe beträgt ≈ 0,000785 (d.h. man sollte bei


Multiple-Choice Klausuren also wirklich besser lernen, als
zufällig irgendwelche Antworten anzukreuzen...)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Erwartungswert und Varianz der Binominalverteilung 130

I Binomialverteilungen sind unimodale Verteilungen, die nur für


π = 1/2 symmetrisch sind.

I Erwartungswert:
µ=n·π
I Varianz:
σ 2 = n · π(1 − π)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: 10x Münze werfen 131

I n = 10 und π = 0,5
I Erwartungswert: µ = 10 · 0,5 = 5 Erfolge

I 2
Varianz: σ = 10 · 0,5 · 0,5 = 2,5

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stetige Zufallsvariablen 132

I Für stetige Zufallsvariablen wird die


Wahrscheinlichkeitsverteilung durch die Dichtefunktion f (x)
beschrieben.

I Mit Hilfe der Dichte kann die Wahrscheinlichkeit von


Intervallen bestimmt werden, also

Z b
P(a < x ≤ b) = f (x) dx.
a

I Dabei gilt
Z +∞
f (x) dx = 1.
−∞

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stetige Zufallsvariablen 133

Kurve der Dichte f (x)


f (x)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stetige Zufallsvariablen 134

I Da stetige Variablen überabzählbar viele Werte annehmen


können, kann einzelnen Werten keine positive
Wahrscheinlichkeit zugeordnet werden.

I Genauer gesagt geht die Wahrscheinlichkeit eines einzelnen


reellen Wertes gegen Null.

I Für stetige Zufallsvariablen kann man deshalb nur Intervallen


mit Hilfe der Dichtefunktion Wahrscheinlichkeiten zuzuordnen.
Wahrscheinlichkeit 135

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Erwartungswert, Varianz, Verteilungsfunktion 136

I Erwartungswert
Z ∞
µ= x f (x) dx.
−∞
I Varianz

σ2 = (x − µ)2 f (x) dx.


Z ∞

−∞
I Dichtefunktion f (x).
I Verteilungsfunktion F (xp ) gibt an, wie viel Prozent der
Verteilung kleiner oder gleich einem bestimmten Wert xp sind:

F (xp ) = P(x ≤ xp ).

I Vergleiche Quantile in der deskriptiven Statistik: z.B. 25% der


Werte sind kleiner oder gleich Q1 .

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Carl-Friedrich Gauÿ (1777-1855) 137

Dichte der Normalverteilung:

2
1 e− 12 ( x−µ
σ )
f (x) =
2πσ

2

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Normalverteilung 138

µ − 2σ µ−σ µ µ+σ µ + 2σ

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Verteilungsfunktion der Normalverteilung 139

I Die Verteilungsfunktion der Normalverteilung kann nicht als


einfache Formel ausgedrückt werden.

I Deshalb werden die Flächenanteile der


Standardnormalverteilung tabelliert.

I Flächenanteile unter Normalverteilungen mit beliebigen Werten


für µ und σ2, können mit Hilfe der z -Transformation auf die
tabellierten Flächenanteile der Standardnormalverteilung
zurückgeführt werden ⇒ nur eine Tabelle nötig.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
z -Transformation 140

I z -Transformation (Daten)

x − x̄
z=
s
I z -Transformation (Verteilung)

x −µ
z=
σ

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Eigenschaften von z -Werten 141

I Die z -Transformation ändert den Verteilungstyp nicht.

I z -Werte haben einen Mittelwert von 0 und eine


Standardabweichung von 1.

I Wenn die Rohwerte normalverteilt sind, folgen die z -Werte


einer Standardnormalverteilung.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Notation 142

I N(µ, σ 2 ) für beliebige Normalverteilung, z.B.

N(1, 4), N(3, 4), N(3, 25) etc.

I N(0, 1) für Standardnormalverteilung

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Fragetyp 1: 143

I Bestimmung der Wahrscheinlichkeit = Fläche unter der


Normalverteilungsdichte bis zu einem bestimmten Wert.

I IQ-Werte in der Gesamtbevölkerung sind normalverteilt mit


µ = 100, σ = 15.
I Frage: Welcher Prozentsatz der Gesamtbevölkerung hat einen
IQ-Wert bis x = 110?
Lösung 144

I Bestimme z -Wert.
I z = (110 − 100)/15 ≈ 0,67.
I Verwende die vereinfachte N(0, 1)-Tabelle aus der
Formelsammlung:

zp F (zp )
0 0.50
0.68 0.75
1.28 0.90
1.65 0.95
1.96 0.975
2.33 0.99
2.58 0.995

I Nächster z-Wert ist 0,68, d.h. der Flächenanteil beträgt ca.


0,75.
I Ca. 75% der Gesamtbevölkerung haben einen IQ-Wert bis
x = 110.
Fragetyp 2: 145

I Bestimmung des Quantils = Wert, der bestimmte Fläche


abschneidet.

I IQ-Werte in der Gesamtbevölkerung sind normalverteilt mit


µ = 100, σ = 15.
I Frage: Bis zu welchem Wert liegen die IQ-Werte von 99% der
Gesamtbevölkerung?
Lösung 146

I Bestimme z -Wert des 99%-Quantils von N(0, 1) aus der


vereinfachten N(0, 1)-Tabelle in der Formelsammlung:

zp F (zp )
0 0.50
0.68 0.75
1.28 0.90
1.65 0.95
1.96 0.975
2.33 0.99
2.58 0.995

I Man erhält: z = 2,33.


I z -Transformation rückwärts um den Wert auf der
ursprünglichen Skala zu nden:

x − 100
2,33 =
15
I Also x = 100 + 2,33 · 15 = 134,95.
I 99% der Gesamtbevölkerung haben einen IQ-Wert bis ca. 135.
Umgekehrte Frage 147

I Bisher: von links kommend = Wahrscheinlichkeit bis zu


einem bestimmten Wert.

Fragetyp 1b:

I Frage: Welcher Prozentsatz der Gesamtbevölkerung hat einen


IQ-Wert über x = 110?
Lösung 148

I Bestimme z -Wert.
I z = (110 − 100)/15 ≈ 0,67.
I Verwende die vereinfachte N(0, 1)-Tabelle aus der
Formelsammlung:

zp F (zp )
0 0.50
0.68 0.75
1.28 0.90
1.65 0.95
1.96 0.975
2.33 0.99
2.58 0.995

I Nächster z-Wert ist 0,68, d.h. der Flächenanteil


von links kommend bis zum Wert 110 beträgt ca. 0,75.
I Auf der anderen Seite, d.h. über 110 bleibt dann übrig: 1-0,75
= 0,25.
I Ca. 25% der Gesamtbevölkerung haben einen IQ-Wert über
x = 110.
Frage zu Intervall 149

I Von links kommend = Wahrscheinlichkeit bis zu einem


bestimmten Wert.

I Für Wahrscheinlichkeit eines Werte-Intervalls:


Wahrscheinlichkeit bis zum rechten Rand −
Wahrscheinlichkeit bis zum linken Rand.

Fragetyp 1c:

I Frage: Welcher Prozentsatz der Gesamtbevölkerung hat einen


IQ-Wert zwischen x = 100 und x = 110?
Lösung 150

I Bestimme z -Werte und Wahrscheinlichkeiten:

I z = (110 − 100)/15 ≈ 0,67.


I Nächster z-Wert ist 0,68, d.h. der Flächenanteil
von links kommend bis zum Wert 110 beträgt ca. 0,75.

I z = (100 − 100)/15 = 0.
I Der Flächenanteil von links kommend bis zum Wert 100
beträgt 0,5.

I 0,75 - 0,5 = 0,25.

I Ca. 25% der Gesamtbevölkerung haben einen IQ-Wert


zwischen x = 100 und x = 110.
Stichprobe und Grundgesamtheit
Grundgesamtheit 152

I Die Grundgesamtheit (Population) umfasst alle potenziell


untersuchbaren Einheiten, die ein gemeinsames Merkmal
aufweisen.

I Eine Stichprobe ist eine Teilmenge der Grundgesamtheit.

I Für statistische Überlegungen werden praktisch immer


unendlich groÿe Grundgesamtheiten vorausgesetzt (dadurch
bleiben die Wahrscheinlichkeiten auch nach dem Ziehen
gleich).

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Einfache Zufallsstichprobe 153

I Die Bezeichnung einfache Zufallsstichprobe  besagt, dass alle


Mitglieder der Grundgesamtheit mit gleicher
Wahrscheinlichkeit gezogen werden können.

I Sind alle Mitglieder der Grundgesamtheit bekannt, kann man


leicht eine Zufallsstichprobe bestimmen, z. B. Urne mit Losen,
Zufallszahlen am Computer generieren o.ä.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stichprobenverteilung 154

I Denition: Die Stichprobenverteilung ist eine theoretische


Verteilung, die die möglichen Ausprägungen eines statistischen
Kennwertes (z. B. x̄ ) und deren Auftretenswahrscheinlichkeit
beim Ziehen von ganz vielen Zufallsstichproben des Umfanges
n beschreibt.

I Der englische Ausdruck für Stichprobenverteilung lautet


Sampling Distribution.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Kennwert und Stichprobenverteilung 155

I Eine Stichprobenverteilung lässt sich für einen beliebigen


Kennwert ermitteln.

I Beispiele für Kennwerte: Anzahl der Erfolge, Median,


Mittelwert, Varianz, Standardabweichung, Interquartilbereich
etc.

I Jeder dieser Kennwerte besitzt seine eigene


Stichprobenverteilung.

I Im Folgenden wird die Stichprobenverteilung des Mittelwerts


betrachtet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stichprobenverteilung des Mittelwerts 156

I Man bezeichnet Erwartungswert und Standardabweichung der


Stichprobenverteilung des Mittels mit µx̄ und σx̄ .
I σx̄ wird als Standardfehler des Mittels bezeichnet.
I µx̄ = µ.
σx2̄ = σ 2 /n.

I σx̄ = σ/ n bzw.

I Der Standardfehler des Mittels verändert sich also proportional


zur Standardabweichung des Merkmals in der Population und
verringert sich mit zunehmendem Stichprobenumfang.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stichprobenverteilungen bei normalverteilter Population 157

I Falls es sich bei der Populationsverteilung um eine


Normalverteilung handelt, so ist auch die
Stichprobenverteilung des Mittelwerts eine Normalverteilung.

I Diese Aussage gilt für beliebig kleinen Stichprobenumfang n,


auf dem die Berechnung des Mittelwertes basiert.

I Da Normalverteilungen durch ihren Erwartungswert sowie ihre


Varianz eindeutig festgelegt sind, ist damit die
Stichprobenverteilung des Mittelwerts vollständig bekannt.

I Wir können diese Aussage auch folgendermaÿen ausdrücken:

x̄ ∼ N(µ, σx2̄ )

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stichprobenverteilungen bei normalverteilter Population 158
Verteilung der Werte Stichprobenverteilung
50 60 70
des Mittelwerts
80 90 100

in der Grundgesamtheit n =2
μ = 75
σ = 16 2

50 60 70 80 90 100

Population n=4
μ = 75 μ = 75
σ = 16 σ = 16 4

50 60 70 80 90 100
50 60 70 80 90 100
n=9
n =2 μ = 75
μ = 75 σ = 16 9
σ = 16 2

50 60 70 80 90 100

c 2010,80Springer-Verlag
Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik
50 60 für70
Human- und90Sozialwissenschaftler.
100 Springer: Heidelberg. www.lehrbuch-psychologie.de
Nicht-normalverteilte Populationen 159

I Aufgrund des zentralen Grenzwertsatzes sind wir in der Lage,


auch dann Aussagen über die Form der Stichprobenverteilung
des Mittelwerts zu machen, wenn wir keine normalverteilte
Population vorauszusetzen können  in diesem Fall aber nur,
wenn der Stichprobenumfang groÿ ist.

I Zentraler Grenzwertsatz: Die Verteilung einer Summe (und


damit auch eines Mittelwertes) von n unabhängig und
identisch verteilten Zufallsvariablen geht mit wachsendem
Stichprobenumfang n in eine Normalverteilung über.

I Mit anderen Worten: Für groÿes n ist die Stichprobenverteilung


des Mittelwerts wieder eine Normalverteilung, auch wenn die
einzelnen Werte nicht aus einer Normalverteilung stammen.
Wie groÿ muss n sein, damit x̄ approx. normalverteilt ist?160

I Auf diese Frage gibt es keine einfache Antwort, denn der


erforderliche Stichprobenumfang n hängt von der
Rohwertverteilung ab.

I Je stärker die Rohwerteverteilung von einer Normalverteilung


abweicht  insbesondere je schiefer die Rohwerteverteilung 
umso gröÿer muss n sein.

I Für praktische Zwecke werden wir davon ausgehen, dass ab


n > 30 die Stichprobenverteilung des Mittelwerts approximativ
normalverteilt ist.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Rohwerte gleichverteilt 161
Verteilung der Werte Stichprobenverteilung des Mittelwerts
Gleichverteilung

Gleichverteilung
Population n=2

in der Grundgesamtheit Population

Gleichverteilung Gleichverteilung

Population n=2
Population n=2
n=4 nn
==4 10 n

n=4 n = 10

n=4 n = 10

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Schiefe Rohwerteverteilung 162
Verteilung der Werte Stichprobenverteilung des Mittelwerts
Schiefe Verteilung
Schiefe Verteilung

Population n=2

in der Grundgesamtheit Population

Schiefe Verteilung

Schiefe Verteilung
Population n=2
Population n=2
n=4 n
n=4 n = 10

n=4 n = 10
n=4 n = 10

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Schätzung von Erwartungswert und Varianz 163

I x̄ und s2 sind statistische Kennwerte, die aus den für eine


Stichprobe erhobenen Werten berechnet werden.

I µ und σ2 sind unbekannte Parameter, die die Verteilung der


Werte in der Grundgesamtheit (die aber zu groÿ ist, um alle
Werte zu erheben) beschreiben.
I Statistische Kennwerte werden verwendet zur
1. Beschreibung der Stichprobe,
2. Schätzung von Populationsparametern.
I Wie wir anhand der Stichprobenverteilung des Mittelwerts
gesehen haben ist x̄ ein guter Schätzer für den wahren
Mittelwert µ.
I Auch s2 ist ein guter Schätzer für die wahre Varianz σ2.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Schätzung des Standardfehlers 164

I Wenn die wahre Varianz bekannt ist (z.B. aus einer früheren
Erhebung für die gesamte Population) kann man den
Standardfehler des Mittelwerts direkt ausrechnen.

I Ist aber (realistischer) die wahre Varianz nicht bekannt


sondern muÿ geschätzt werden, liegt es nahe, den
Standardfehler des Mittelwerts

σ2
r
σ
σx̄ = =√
n n

dadurch zu schätzen, dass man den Schätzer s2 für σ2 in die


Formel einsetzt (sog. Plug-in Schätzer):

s2
r
s
sx̄ = =√
n n

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Kondenzintervall 165

I Man unterscheidet zwischen Punkt- und Intervallschätzung.

I Beispiele für Punktschätzer sind x̄ für µ und s2 für σ2.


I Zu jedem Punktschätzer kann man ein Kondenzintervall
kostruieren, um einen Eindruck von der Unsicherheit der
Schätzung zu erhalten.
Kondenzintervall 166

I Beispiel: 95%-Kondenzintervall für den Mittelwert.

I Die Wahrscheinlichkeit 95% nennt man auch


Überdeckungswahrscheinlichkeit oder Sicherheitsgrad.

I Ein 95%-Kondenzintervall wird so konstruiert, dass es mit


95-prozentiger Wahrscheinlichkeit den wahren Wert des
Parameters überdeckt.

I Vorstellung: Wenn man sehr viele Stichproben aus derselben


Grundgesamtheit mit Mittelwert µ zieht, und aus jeder
Stichprobe den Mittelwert x̄ sowie das entsprechende
Kondenzintervall um x̄ berechnet, dann überdecken 95% der
Intervalle den wahren Mittelwert in der Grundgesamtheit µ, die
restlichen 5% liegen daneben.
Kondenzintervall für den Mittelwert 167

I Kondenzintervall:

untere Grenze = x̄ − z1−α/2 · σx̄


obere Grenze = x̄ + z1−α/2 · σx̄

I α bezeichnet die Wahrscheinlichkeit dafür, dass das Intervall


daneben liegt.

I Die Überdeckungswahrscheinlichkeit ist entsprechend 1 − α.


I Als Überdeckungswahrscheinlichkeit (Sicherheitsgrad) wählt
man üblicherweise 95% oder 99%.

I Die Breite des Kondenzintervalls hängt vom Sicherheitsgrad


(1 − α), 2
von der Varianz der einzelnen Werte (σ ) und vom
Stichprobemumfang (n) ab.
Beispiel 168

I Gesucht wird das 95% Kondenzintervall für die


durchschnittliche Klassengröÿe an schweizer Sekundarschulen.

I Rohwerte aus einer Stichprobe von 11 Schulklassen:

18, 17, 19, 21, 23, 25, 27, 29, 31, 33 und 32

I Daten: n = 11, x̄ = 25, Annahme: σ = 6 bekannt



I Also σx̄ = 6/ 11 = 1,809
I 95%-KI:
z1−α/2 = z1−0,05/2 = z1−0,025 = z0,975 = 1,96

untere Grenze = 25 − 1,96 · 1,809 = 21,454

obere Grenze = 25 + 1,96 · 1,809 = 28,546


KI ≈ [21,454; 28,546]
Was sagt das Kondenzintervall aus? 169

I Das Kondenzintervall gibt durch seine Lage und Breite einen


Eindruck über den Wert und die Unsicherheit der Schätzung.

I Stellen Sie sich vor, Sie lesen in der Zeitung: Schweizer


Psychologie-Studierende sind überdurchschnittlich neurotisch

Hintergrund: Mittelwert aus einer Stichprobe von Studierenden


x̄ = 61,5 auf einer Neurotizismus-Skala mit Mittelwert 50 in
der Allgemeinbevölkerung.

I Szenario 1: KI ≈ [47,64; 75,36]

Was denken Sie jetzt über die Schlagzeile?

I Szenario 2: KI ≈ [60,11; 62,89]

Und jetzt?
Tests und Kondenzintervalle
Wo sind wir? 171

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle


3.1 Einführung
3.2 Power und Eektstärke
3.3 Tests und Kondenzintervalle für Mittelwerte
Ein-Stichproben t -Test
t -Test für zwei unabhängige Stichproben
t -Test für zwei verbundene Stichproben
3.4 Nicht-parametrische Tests
3.5 χ2 -Unabhängigkeitstest

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Inhaltliche Hypothesen 172

Beispiele:

I Durch eine Therapie kann die Suizidneigung gesenkt werden.

I Eine neue Lehrmethode verbessert die Leistung.

Beim Hypothesentesten geht es darum, Unterschiede (vorher vs.


nachher, Treatment- vs. Kontrollgruppe) nachzuweisen.
Arten von Hypothesen 173

I Alternativhypothese H1 vs. Nullhypothese H0


I Alternativhypothese: Unterschied
(z.B. neue Lehrmethode bewirkt Verbesserung der Leistung)
I Nullhypothese: kein Unterschied
(z.B. Leistung bleibt gleich)

I Gerichtete vs. ungerichtete Alternativhypothese

I Gerichtete Alternativhypothese: Richtung festgelegt


(z.B. neue Lehrmethode bewirkt Verbesserung der Leistung;
Therapie bewirkt Senkung der Suizidneigung)
I Ungerichtete Alternativhypothese: Richtung nicht festgelegt
(z.B. neue Lehrmethode bewirkt Unterschied in der Leistung,
d.h. Verbesserung oder Verschlechterung möglich)
Mittelwerte µ0 und µ 174

I Statistische Hypothesen beziehen sich auf


Populationsparameter, z. B. wahre Mittelwerte in der
Grundgesamtheit aller Schüler.

I Frage: Verbessert die neue Lehrmethode die Leistung der


Schüler?

I Dazu Mittelwerte vergleichen:

I Wir nehmen an, die durchschnittliche Leistung von Schülern,


die nach der Standard-Methode unterrichtet werden, sei
bekannt. Diesen Mittelwert bezeichnen wir mit µ0 .
I Die durchschnittliche Leistung von Schülern, die nach der
neuen Lehrmethode unterrichtet werden, wird als µ bezeichnet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Null- und Alternativhypothese 175

I Die gerichtete Alternativhypothese zur Frage: Verbessert die


neue Lehrmethode die Leistung der Schüler? heiÿt damit
H1 : µ > µ0 .
I Die dazugehörige Nullhypothese lautet: H0 : µ = µ 0 .
I Bezogen auf den Vergleich zweier Mittelwerte sind die
folgenden drei Hypothesenpaare denkbar:

H0 : µ = µ0 und H1 : µ > µ0
H0 : µ = µ0 und H1 : µ < µ0
H0 : µ = µ0 und H1 : µ 6= µ0

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Fehler der 1. und 2. Art 176

I Anhand der Daten einer Stichprobe von Schülern soll der


statistische Test entscheiden, ob die Nullhypothese abgelehnt
werden kann.

I Dabei können zwei Arten von Fehlern gemacht werden:

Testentscheidung
tatsächlich gilt anhand einer Stichprobe
in der Population H0 beibehalten H0 ablehnen

H0 gilt
(kein Unterschied) richtig Fehler 1. Art

H0 gilt nicht
(Unterschied) Fehler 2. Art richtig
Fehler der 1. und 2. Art 177

I Fehler 1. Art (α-Fehler): Man lehnt H0 ab obwohl sie


eigentlich zutrit.
Es wird fälschlicherweise angenommen, die neue Lehrmethode
sei besser als die alte Methode (z.B. weil man zur Evaluation
der neuen Lehrmethode nur eine kleine Stichprobe von
Schülern verwendet und diese zufällig mehrere besonders gute
Schüler enthält).

I Fehler 2. Art (β -Fehler): Man behält H0 bei obwohl eigentlich


H1 zutrit.
Es wird fälschlicherweise angenommen, dass sich die neue
Lehrmethode von der herkömmlichen nicht unterscheidet (z.B.
weil die Stichprobe mehrere besonders schlechte Schüler
enthält).
Konsequenzen von Fehlentscheidungen am Beispiel 178

I Fehler 1. Art: Es wird fälschlicherweise angenommen, die neue


Lehrmethode sei besser als die alte Methode.

I Konsequenzen: Neuanschaung von Lehrmaterial, Umschulung


der Lehrkräfte, Neugestaltung der Curricula usw.

I Fehler 2. Art: Es wird fälschlicherweise angenommen, dass sich


die neue Lehrmethode von der herkömmlichen nicht
unterscheidet.

I Konsequenzen: Eine Chance, den Unterricht zu verbessern,


wird verpasst.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Signikanzniveau 179

I Idealerweise würde man immer nur richtige Entscheidungen


treen  das geht aber nicht.
I Zudem hängen die beiden Fehlerarten zusammen:
I Sehr vorsichtig beim Ablehnen von H0 ⇒ Fehler 1. Art klein
aber Fehler 2. Art groÿ
I Sehr mutig beim Ablehnen von H0 ⇒ Fehler 1. Art groÿ aber
Fehler 2. Art klein
I Kann nur einen von beiden festhalten (aus mathematischen
Gründen: Fehler 1. Art).
Signikanzniveau 180

I Das Signikanzniveau α bezeichnet die vom Forschenden


festgelegte Obergrenze für die Wahrscheinlichkeit für einen
Fehler 1. Art.

I Üblicherweise wird α auf 5% (oder manchmal auf 1%)


festgelegt.

I Der Fehler 2. Art kann hingegen nicht direkt kontrolliert


werden.
Prüfgröÿe 181

I Um aufgrund des festgelegten Signikanzniveaus α eine


Entscheidung über die Nullhypothese treen zu können, wird
eine Prüfgröÿe (auch genannt Teststatistik) aus den Daten der
Stichproben berechnet.

I Die Prüfgröÿe spiegelt den interessierenden Unterschied wieder


(z.B. Verbesserung der durchschnittlichen Leistung durch neue
Lehrmethode).

I Die Verteilung der Prüfgröÿe unter der Nullhypothese muÿ zur


Berechnung des Tests bekannt sein (aus theoretischen
Annahmen oder Simulationen am Computer).

I Beispielsweise verwendet das folgende Beispiel einen z -Wert


als Prüfgröÿe, von dem wir wissen dass er unter der
Nullhypothese standardnormalverteilt ist.

I Da Hypothesentests in der Regel nach ihrer Prüfgröÿe benannt


werden, wird dieser Test auch z -Test genannt.
Ablehnbereich und kritische Werte 182

I Ist die Verteilung der Prüfgröÿe unter H0 bekannt, dann lässt


sich nach der Festlegung von α ein Bereich bestimmen, der
diejenigen Werte der Prüfgröÿe umfasst, die zur Ablehnung der
Nullhypothese führen sollen (z.B. starke Verbesserung der
durchschnittlichen Leistung durch neue Lehrmethode spricht
gegen H0 ).
I Dieser Bereich wird Ablehnbereich der Nullhypothese genannt.
I Die Grenzen des Ablehnbereiches werden kritische Werte
genannt.

I Die Form des Ablehnbereiches hängt davon ab, ob die


Alternativhypothese gerichtet oder ungerichtet ist.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ablehnbereich und kritischer Wert 183

für den einseitigen z -Test auf 5%-Niveau

5%

0 z 95%

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ablehnbereich und kritische Werte 184

für den zweiseitigen z -Test auf 5%-Niveau

2,5% 2,5%

z 2,5% 0 z 97,5%

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 185

I Es sei für die alte Lehrmethode bekannt, dass die Leistungen


der Schüler (gemessen durch einen geeigneten Test) einen
Mittelwert von µ0 = 40 und eine Standardabweichung von
σ=4 besitzen.

I Wir nehmen an, dass die Leistungen normalverteilt sind.

I Wir möchten die Hypothese überprüfen, dass die neue


Lehrmethode die Leistungen der Schüler verbessert.
Vgl. Formelsammlung:
Fall a) H1 : µ > µ0
I (Die Varianz der Leistung soll sich aber durch die neue
Methode nicht verändern.)
Beispiel 186

I Um die Hypothese zu prüfen wird eine Stichprobe von n = 12


Schülern nach der neuen Lehrmethode unterrichtet.

I Für diese Stichprobe ergibt sich eine durchschnittliche Leistung


von x̄ = 42.
I Der Stichprobenmittelwert x̄ ist ein Schätzer für den
Mittelwert µ aller nach der neuen Lehrmethode unterrichteten
Schüler.

I Soll man angesichts von x̄ = 42 die Nullhypothese


µ = µ0 = 40 beibehalten oder ablehnen?

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 187

I Erster Schritt: Prüfgrösse berechnen


x̄ − µ0 x̄ − µ0 √ x̄ − µ0 √ 42−40 
 
z=
σx̄
=
√σ
= n
σ
= 12
4
n
= 1,732
I Zweiter Schritt: Kritischen Wert (= Grenze des
Ablehnbereiches) aus der Tabelle ablesen
z > z1−α
Fall a)
z1−α = z1−0.05 = z0.95 = 1,65
I Kontrolle: 1,732 > 1,65 ⇒ H0 ablehnen!

I Die neue Lehrmethode führt zu einer (auf dem 5%-Niveau)


signikanten Verbesserung der Leistung.
Einseitige und zweiseitige Tests 188

I Im Beispiel haben wir uns auf die einseitige Hypothese


festgelegt, dass die neue (z.B. didaktisch besser konzipierte)
Lehrmethode die durchschnittliche Leistung verbessert.

I Mit der einseitigen Hypothese legt man sich vorab auf die
vermutete Richtung der Veränderung fest.

I Hat man hingegen weniger inhaltliches Vorwissen (z.B. über


die didaktische Eignung der neuen Lehrmethode) kann man die
zweiseitige Hypothese verwenden, um sich beide
Möglichkeiten oenzuhalten: eine Verbesserung oder eine
Verschlechterung der Leistung.
Einseitige und zweiseitige Tests 189

I Der zweiseitige Test hat aber weniger Power zum Nachweis


einer Verbesserung:

I Prüfgröÿe bleibt gleich


z = 1,732
I Ablehnbereich jetzt
Fall c)z < zα/2 oder z > z1−α/2 bzw. | z | > z1−α/2
z1−α/2 = z1−0.025 = z0.975 = 1,96
I Kontrolle: 1,732 6> 1,96 ⇒ man kann H0 nicht ablehnen!

I Fazit: Der zweiseitige Test hält sich beide Möglichkeiten


oen, hat aber dadurch weniger Power als der einseitige Test.
Deshalb sollte man, wenn man aufgrund der inhaltlichen
Hypothese eine bestimmte Richtung vorhersagen würde, den
einseitigen Test verwenden.
Good Scientic Practice 190

Vor der Durchführung der Untersuchung:

I Signifkanzniveau festlegen

I Stichprobenumfang festlegen (s.u.)

I Hypothese festlegen

Eine Modikation der Hypothese angesichts der gefundenen Daten


und eine gleichzeitige Überprüfung der modizierten Hypothese an
denselben Daten ist unzulässig!
Sprachgebrauch 191

I Mit statistischen Mitteln kann man keine Hypothesen


beweisen, weil es keine 100%-ige Sicherheit geben kann.

I Deswegen verwendet man die Formulierung: H0 wird


beibehalten oder zugunsten von H1 abgelehnt.
Signikanz und praktische Relevanz 192

I Statistische Signikanz darf nicht mit praktischer Relevanz


verwechselt werden!

I Ein signikantes Testergebnis bedeutet: Es ist


unwahrscheinlich, dass ein Unterschied dieser Gröÿe nur durch
Zufall zustande gekommen ist (obwohl in Wirklichkeit die
Nullhypothese gilt).

I Jeder noch so kleine Unterschied kann aber z.B. mit extrem


groÿen Stichproben als signikant nachgewiesen werden.

I Ein signikantes Testergebnis bedeutet deshalb noch lange


nicht, dass der Unterschied so groÿ ist, dass er in der Praxis
relevant ist (z.B. für den schulischen Erfolg oder für klinische
Störungsbilder).

I Zur Gröÿe des Unterschieds ⇒ Eektstärke


p -Wert 193

I Berechnet man einen statistischen Test per Hand, trit man


die Testentscheidung anhand des kritischen Wertes aus der
Tabelle.

I Verwendet man ein Computer-Programm zur Berechnung wird


stattdessen der p -Wert der Prüfgröÿe angegeben:

One Sample z-test


...
z = 1.7321
p-value = 0.04163
alternative hypothesis: true mean is greater than 40
...
I Der p -Wert entspricht der Wahrscheinlichkeit, diesen oder
einen (in Richtung der Alternativhypothese) extremeren Wert
für die Prüfgröÿe unter der Nullhypothese zu beobachten.
p -Wert 194

I Testentscheidung per Hand: H0 ablehnen wenn

Prüfgröÿe im Ablehnbereich (vgl. Formelsammlung)

I äquivalente Testentscheidung über p -Wert: H0 ablehnen wenn

p -Wert < α

Im obigen Beispiel:

I Testentscheidung per Hand:


1,732 > 1,65 ⇒ H0 ablehnen

I äquivalente Testentscheidung über p -Wert:


0,042 < 0,05 ⇒ H0 ablehnen

(Auch bei zweiseitigen Tests enthält der üblicherweise ausgegebene


zweiseitige p -Wert bereits die Wahrscheinlichkeit für beide Seiten,
d.h. er kann auch direkt mit α verglichen werden.)
Power und Eektstärke
Power (Teststärke) 196

I α bezeichnet die Wahrscheinlichkeit eines Fehlers 1. Art (man


lehnt H0 ab, obwohl sie eigentlich zutrit).

I β bezeichnet die Wahrscheinlichkeit eines Fehlers 2. Art (man


behält H0 bei, obwohl eigentlich H1 zutrit).

I 1 −β bezeichnet die Power (man leht H0 zu Recht ab, wenn


H1 zutrit).

I Die Power gibt also an, mit welcher Wahrscheinlichkeit ein


tatsächlicher Unterschied auch entdeckt werden kann.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Power (Teststärke) 197

Testentscheidung
tatsächlich gilt anhand einer Stichprobe
in der Population H0 beibehalten H0 ablehnen

Fehler 1. Art
H0 gilt 1 −α α

Fehler 2. Art Power


H0 gilt nicht β 1 −β
Gröÿe des Unterschiedes 198

I Um die Power berechnen zu können, müÿte die wahre Gröÿe


des Unterschiedes ( Eektgröÿe oder Eektstärke) bekannt sein.
I Beispiel: Unterschied zwischen der durchschnittlichen Leistung
von Schülern, die nach der neuen im Vergleich zur alten
Lehrmethode unterrichtet wurden.

I Wahre Gröÿe des Unterschiedes:

µ − µ0

I Da die durchschnittliche Leistung mit der neuen Lehrmethode


in der Population µ jedoch unbekannt ist, ist die wahre Gröÿe
des Unterschiedes µ − µ0 ebenfalls unbekannt (und damit
auch die Power).

I Man kann sich aber überlegen, wie groÿ der Unterschied sein
müÿte, um praktisch relevant zu sein, und dafür die Power
berechnen.
Beispiel 199

I Wenn die neue Lehrmethode die durchschnittliche Leistung der


Schüler um mindestens drei Punkte verbessern könnte, würde
sich dies spürbar positiv auf ihre weitere schulische Laufbahn
auswirken.

I Deshalb soll überprüft werden, ob die neue Lehrmethode eine


Verbesserung der durchschnittliche Leistung um mindestens
drei Punkte erzielen kann.

I Die durchschnittliche Leistung bei Verwendung der


herkömmlichen Methode betrug µ0 = 40 Punkte. Mindestens
drei Punkte Verbesserung entsprechen also einer
durchschnittlichen Leistung von mindestens µ = 43 Punkten.

I Der interessierende Unterschied entspricht also:

µ − µ0 = 43 − 40 = 3

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Standardisierte Eektstärke 200

I Für weitere Berechnungen wird aus dem inhaltlich


interessierenden Unterschied (z.B. Verbesserung um 3 Punkte)
die standardisierte Eektstärke (= interessierender Unterschied
in Standardabweichungen) berechnet:

µ − µ0
δ=
σ
I Im Beispiel sind wir von einer bekannten Standardabweichung
σ=4 der Leistungswerte ausgegangen.
I Eine Verbessserung um 3 Punkte entspricht also der
standardisierten Eektstärke:
43 − 40
δ= = 0,75
4
(d.h. einer Verbesserung um 0,75 Standardabweichungen).
I Die Festlegung eines interessierenden Unterschiedes ist
notwendig zur Berechnung von β -Fehler und Power sowie des
benötigten Stichprobenumfangs.
c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Bestimmung von β -Fehler und Power 201

Beispielhaft für den z -Test:


I Bisher war immer nur die Verteilung der standardisierten
Prüfgröÿe z unter der Nullhypothese bekannt:

N(0, 1)

I Interessiert man sich aber für einen bestimmten Unterschied


und berechnet daraus die standardisierte Eektstärke δ=
µ−µ0
σ , so ergibt sich als Verteilung der standardisierten
Prüfgröÿe z unter der Alternativhypothese:

√ √ 0
N( n·δ, 1) = N( n· µ−µ
σ , 1)
Bestimmung von β -Fehler und Power 202

I Verteilungen der Prüfgröÿe unter H0 und H1 :

α: Wahrscheinlichkeit unter H0 , dass Prüfgröÿe in


Ablehnbereich fällt (nicht vorhandenen Unterschied entdeckt)

β: Wahrscheinlichkeit unter H1 , dass Prüfgröÿe nicht in


Ablehnbereich fällt (vorhandenen Unterschied nicht entdeckt)

1 − β: Wahrscheinlichkeit unter H1 , dass Prüfgröÿe in


Ablehnbereich fällt (vorhandenen Unterschied entdeckt)
Bestimmung von β -Fehler und Power 203

I Die folgende Gleichung ist für die Berechnung der Power des
z -Tests von zentraler Bedeutung, da sie die vier Gröÿen, α, β ,
n und δ miteinander in Beziehung setzt:

zβ = z1−α − n · δ

I Kennt man drei der vier Gröÿen, kann man die vierte Gröÿe
bestimmen:

I β und 1 −β ergeben sich aus zβ .


I Für die Praxis ist auÿerdem die Bestimmung des
Stichprobenumfangs n von groÿer Bedeutung.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 204

I Der Stichprobenumfang betrug n = 12.


I Ist man an der Entdeckung eines Leistungs-Unterschiedes von
drei Punkten interessiert, ergibt sich der Wert δ = 0,75 für die
standardisierte Eektstärke.
I Der kritische Wert z1−α ist: z95% = 1,65
I Somit errechnen wir:

zβ = 1,65 − 12 · 0,75 = −0,949
I Dieser z -Wert schneidet in der Standardnormalverteilung
gerade 17% im unteren Rand der Verteilung ab (in unserer
Tabelle aus Platzgründen nicht aufgelistet  wäre bei
Aufgaben angegeben), d.h.: β = 0,17
I Somit hat die Power den Wert: 1 − β = 0,83
I D.h. die Wahrscheinlichkeit einen Unterschied von 3 Punkten
zu entdecken beträgt (bei der Stichprobengröÿe und
Standardabweichung aus dem Beispiel) 83%.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Stichprobenumfang 205

I Die Gleichung läÿt sich auch so umformen, dass man den


Stichprobenumfang bestimmen kann, der notwendig ist, um
einen Eekt der Gröÿe δ mit einer Power von 1 −β
nachzuweisen: 2
zβ − z1−α

n=
δ

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 206

I Die an der Studie beteiligten Lehrkräfte könnten eine Power


von mindestens 1 − β = 0,95 fordern, um einen vorhandenen
Eekt der Gröÿe δ = 0,75 mit groÿer Sicherheit entdecken zu
können.

I Wie groÿ muss die Stichprobe von Schülern, die nach der
neuen Lehrmethode unterrichtet werden, mindestens sein, um
diese Power zu gewährleisten?

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 207

I Die Werte, die in die Gleichung eingesetzt werden müssen,


sind: δ = 0,75 und zβ = −z1−β = −z95% = −1,65 (vgl.
Formelsammlung)

 2
−1,65 − 1,65
n= = 19,36
0,75

I Man benötigt also eine Stichprobe von mindestens 20 Schülern


(nächst gröÿere ganze Zahl) um den spezizierten Eekt mit
95% Wahrscheinlichkeit entdecken zu können, wenn er
existiert.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Determinanten der Power 208

I Die Power steigt bei gröÿerem Stichprobenumfang n.


Groÿe Stichproben machen es leichter, einen Eekt
nachzuweisen.

I Die Power steigt bei gröÿerem Unterschied |µ − µ0 |.


Groÿe Eekte sind leichter nachzuweisen.

I Die Power sinkt bei niedrigerem Signikanzniveau α.


Vgl. Grak: Strenger Test ⇔α kleiner ⇔ kritischer Wert
weiter rechts ⇔ 1 −β auch kleiner.

I Der einseitige Test hat eine höhere Power als der zweiseitige
Test (d.h. wenn man eine inhaltliche Hypothese über die
Richtung des Unterschiedes hat, sollte man sie verwenden).
Stichprobenverteilung des Mittelwerts unter H0 und H1 209
in Abhängigkeit von der Größe des Stichprobenumfangs n

n = 12

0.4
0.2

4 4
N(µ0,σx) = N(40, 12
) N(µ,σx) = N(43, 12
)
0.0

40 43

n = 20
0.4
0.2

4 4
N(µ0,σx) = N(40, 20
) N(µ,σx) = N(43, 20
)
0.0

40 43
Power in Abhängigkeit von der Stichprobengröße n
210

n = 12

0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6

n = 20
0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6
Stichprobenverteilung des Mittelwerts unter H0 und H1 211
in Abhängigkeit von der Größe des Unterschiedes | µ − µ0 |

µ−µ0 = 3

0.4
0.3
0.2

4 4
N(µ0,σx) = N(40, 12
) N(µ,σx) = N(43, 12
)
0.1
0.0

40 43

µ−µ0 = 4
0.4
0.3
0.2

4 4
N(µ0,σx) = N(40, 12
) N(µ,σx) = N(44, 12
)
0.1
0.0

40 44
Power in Abhängigkeit von der Größe des Unterschiedes |µ−µ0| 212

|µ−µ0| = 3

0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6

|µ−µ0| = 4
0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6
Power in Abhängigkeit vom Signifikanzniveau α 213

α = 5%

0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6

α = 1%
0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6
Power für einseitige und zweiseitige Tests 214

Einseitiger Test mit α = 5%

0.4
0.3
0.2

1 −β
0.1

β α
0.0

−2 0 2 4 6

Zweiseitiger Test mit α = 5%


0.4
0.3
0.2

1 −β
0.1

α 2 β α 2
0.0

−2 0 2 4 6
Tests und Kondenzintervalle für Mittelwerte
Drei Arten von Fragestellungen 216

Vergleich . . .

I eines Stichprobenmittelwertes mit einem Populationsmittelwert


(Ein-Stichproben Tests)

I zweier Stichprobenmittelwerte für unabhängige Beobachtungen


(Tests für unabhängige Stichproben)

I zweier Stichprobenmittelwerte für Beobachtungspaare


(Tests für abhängige/verbundene Stichproben)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ein-Stichproben t -Test 217

I Der im letzten Teil besprochene Test wird häug z -Test


genannt, weil die Nullhypothese anhand der
Standardnormalverteilung überprüft wird.

I Für den z -Test musste die Populationsstreuung σ bekannt sein


 was in der Realität üblicherweise nicht der Fall ist.

I Der t -Test verwendet die t -Verteilung und lässt sich auch für
unbekannte Populationsstreuung durchführen.

I Beide Tests prüfen die Hypothese

H 0 : µ = µ0

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Prüfverteilungen: Falls H0 : µ = µ 0 gilt, dann . . . 218

I Rohwerte normalverteilt und Populationsstreuung bekannt:

x̄ − µ0 x̄ − µ0 √ x̄ − µ0
 
z= = = n ∼ N(0, 1)
σx̄ √σ σ
n

I Rohwerte normalverteilt aber Populationsstreuung unbekannt:

x̄ − µ0 x̄ − µ0 √ x̄ − µ0
 
t= = = n ∼ t(n − 1)
sx̄ √s s
n

mit s als Schätzer für σ

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Ein-Stichproben t -Test 219

I Eine t -Verteilung wird durch die Anzahl von sog.


Freiheitsgraden genauer festgelegt.

I Die Prüfgröÿe des Ein-Stichproben t -Tests folgt z.B. einer


t -Verteilung mit n−1 Freiheitsgraden (die Anzahl der
Freiheitsgrade hängt von der Stichprobengröÿe und der Anzahl
der zu schätzenden Parameter ab).

I Das englische Wort für Freiheitsgrade ist degrees of freedom.

I Deswegen schreiben wir auch: df = n − 1


I Die korrekte Anzahl der Freiheitsgrade ist in der
Formelsammlung mit angegeben.

I Für groÿen Stichprobenumfang (n > 30) ist die t -Verteilung


der Standardnormalverteilung sehr ähnlich.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Verteilungen und N(0, 1) 220

0,4
normal
df=2
df=5

0,3
0,2
0,1
0,0

−3 −2 −1 0 1 2 3

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Tabelle 221

df 0.6 0.8 0.9 0.95 0.975 0.99 0.995 0.999 0.9995


1 0.325 1.376 3.078 6.314 12.706 31.820 63.657 318.309 636.619
2 0.289 1.061 1.886 2.920 4.303 6.965 9.925 22.327 31.599
3 0.277 0.978 1.638 2.353 3.182 4.541 5.841 10.215 12.924
4 0.271 0.941 1.533 2.132 2.776 3.747 4.604 7.173 8.610
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
27 0.256 0.855 1.314 1.703 2.052 2.473 2.771 3.421 3.690
28 0.256 0.855 1.312 1.701 2.048 2.467 2.763 3.408 3.674
29 0.256 0.854 1.311 1.699 2.045 2.462 2.756 3.396 3.659
30 0.256 0.854 1.310 1.697 2.042 2.457 2.750 3.385 3.646
∞ 0.253 0.842 1.282 1.655 1.960 2.336 2.586 3.090 3.291

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 222

I Es soll überprüft werden, ob der 24-stündige Tagesrhythmus


des Menschen auch ohne Tageslicht aufrecht erhalten wird.

I Versuch: Sieben Freiwillige werden für vier Tage im Schlaabor


ohne Tageslicht einquartiert.

I Jede Versuchsperson ist während der vier Tage alleine und


erhält keine Informationen zur Tageszeit.

I Die Person muss unmittelbar vor dem Zu-Bett-Gehen einen


Knopf betätigen, wodurch die Uhrzeit festgehalten wird.

I Als Indikator für den selbstgewählten Tagesrhythmus wird die


Dauer (in Minuten) zwischen dem Zu-Bett-Gehen am dritten
Versuchstag und dem Zu-Bett-Gehen am vierten Versuchstag
verwendet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 223

I Wenn durch die experimentellen Bedingungen die innere Uhr


der Personen nicht beeinträchtigt wird, sollte der wahre
Mittelwert 24 · 60 min = 1440 min betragen.

I D.h. die Nullhypothese lautet:

H0 : µ = 1440

I Es soll überprüft werden, ob sich der Tagesrhythmus verändert


(länger oder kürzer wird).

I D.h. die Alternativhypothese formulieren wir zweiseitig:

H1 : µ 6= 1440

I = Fall c) in der Formelsammlung

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 224

I Folgende Werte wurden für die sieben Versuchspersonen


ermittelt:

1452, 1438, 1487, 1439, 1454, 1461 und 1476

I Berechnet man den Mittelwert und die Standardabweichung


der Werte, ergeben sich: x̄ = 1458,143 und s = 18,197.
I Das Signikanzniveau wird auf α = 0,05 festgelegt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 225

I Erster Schritt: Berechnung der Prüfgröÿe:


 
1458,143 − 1440
t= 7 = 2,638
18,197

I Zweiter Schritt: Kritischer t -Wert aus der Tabelle ablesen:


Fall c) t < tα/2 (n − 1) oder t > t1−α/2 (n − 1) bzw.
| t | > t1−α/2 (n − 1)

t1−α/2 (n − 1) = t0.975 (6) = 2,447

I Kontrolle: 2,638 > 2,447 ⇒ H0 ablehnen!

I Der Tagesrhythmus verändert sich durch das fehlende


Tageslicht signikant.

I (Am Mittelwert kann man zusätzlich die Richtung der


Veränderung ablesen: Der Abstand zwischem dem
Zu-Bett-Gehen wird länger.)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Kondenzintervall 226

I Die früheren Ausführungen gingen von einer bekannten


Populationsvarianz aus und führten zu folgender Berechnung
der Intervallgrenzen:

x̄ ± z1−α/2 · σ/ n
I Ist die Populationsvarianz nicht bekannt, so ist die Berechnung
der Kondenzgrenzen in zwei Punkten zu modizieren:

I Der Standardfehler
√ des Mittels σx̄ = σ/ n wird durch
sx̄ = s/ n ersetzt.
I Das Perzentil der Standardnormalverteilung wird durch ein
Perzentil der t -Verteilung ersetzt. D.h. anstatt z1−α/2
verwenden wir t1−α/2 (n − 1).
I Die Kondenzintervallgrenzen lauten somit:

untere Grenze = x̄ − t1−α/2 (n − 1) · s/ n

obere Grenze = x̄ + t1−α/2 (n − 1) · s/ n

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 227

I Die relevanten Kennwerte liegen für dieses Beispiel bereits vor:


Mittelwert und Standardabweichung der n=7 Rohwerte
lauten: x̄ = 1458,143 und s = 18,197
I Wir berechnen nun ein 95% Kondenzintervall für µ, wobei µ
die wahre mittlere Dauer (in Minuten) zwischen dem
Zu-Bett-Gehen am dritten Versuchstag und dem
Zu-Bett-Gehen am vierten Versuchstag in der Grundgesamtheit
bezeichnet (die sich nur ermitteln lieÿe, wenn man die gesamte
Grundgesamtheit 4 Tage ins Schlaabor sperren könnte...)

I Das benötigte Perzentil lautet: t0.975 (6) = 2,447

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel: Zirkadianer Rhythmus 228

I Somit ergeben sich die Grenzen:


untere Grenze = 1458,143 − 2,447 · 18,197/ 7 = 1441,313

obere Grenze = 1458,143 + 2,447 · 18,197/ 7 = 1474,973

I Ein so konstruiertes Intervall überdeckt mit 95% Sicherheit


den wahren Mittelwert.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Dualität von Test und Kondenzintervall 229

I Man kann das Kondenzintervall auch verwenden, um den


zweiseitigen Test für die ungerichtete Alternativhypothese

H1 : µ 6= µ0

durchzuführen.

I Liegt der Wert µ0 innerhalb des (1 − α)-Kondenzintervalls für


µ, so führt der zweiseitige Test zum Signikanzniveau α zur
Beibehaltung der Nullhypothese.

I Liegt der Wert µ0 auÿerhalb des (1 − α)-Kondenzintervalls


für µ, so führt der zweiseitige Test zum Signikanzniveau α
zur Ablehnung der Nullhypothese.

I Hier: Der Wert µ0 = 1440 liegt auÿerhalb des


Kondenzintervalls ⇒ H0 ablehnen!
t -Test für zwei unabhängige Stichproben
Wo sind wir? 231

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle


3.1 Einführung
3.2 Power und Eektstärke
3.3 Tests und Kondenzintervalle für Mittelwerte
Ein-Stichproben t -Test
t -Test für zwei unabhängige Stichproben
t -Test für zwei verbundene Stichproben
3.4 Nicht-parametrische Tests
3.5 χ2 -Unabhängigkeitstest

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Tests für zwei Stichproben 232

I Forschungsfrage: Gibt es einen Unterschied zwischen zwei


Gruppen?

I Vergleiche der Mittelwerte von zwei (später auch mehr)


Gruppen kommen häuger vor als Vergleiche eines Mittelwerts
mit einem vorgegebenen Wert µ0 .
I Es gibt zwei Varianten:
I unabhängige Stichproben
I verbundene Stichproben

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Test für zwei unabhängigen Stichproben 233

I Man vergleicht zwei Gruppen von Personen bzgl. einer


Zielgröÿe.

I Beispiel: Vergleich von Treatment- und Kontroll-Gruppe bzgl.


Gedächtnisleistung.

I Die wahren Mittelwerte und Standardabweichungen in den


beiden Gruppen werden mit µ 1 , µ2 , σ 1 und σ2 bezeichnet.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Test für zwei unabhängigen Stichproben 234

I In der Grundgesamtheit liegen zwei Gruppen vor, aus denen die


Stichproben gezogen werden (Beobachtungsstudie), z.B.:
I Singles und in Partnerschaft lebende Personen
I Psychologie- und BWL-Studierende
I Personen, die eine Behandlung erhalten, und Personen, die
keine Behandlung erhalten
bzw. idealerweise: zufällige Zuordnung der gezogenen Personen
zu den Treatments (Experiment).

Anmerkung: Ein statistisch signikanter Unterschied zwischen den


Gruppen allein ist kein Nachweis eines kausalen Einusses der
Gruppierungsvariable! In einer Beobachtungsstudie kann es noch weitere
Unterschiede zwischen den Gruppen geben, die für den Eekt
verantwortlich sind. Nur ein randomisiertes Experiment stellt sicher, dass
sich die Gruppen in keiner anderen Variable systematisch unterscheiden.
Hypothesen 235

H0 : µ1 = µ2 , H1 : µ1 > µ2 (einseitig)

H0 : µ1 = µ2 , H1 : µ1 < µ2 (einseitig)

H0 : µ1 = µ2 , H1 : µ1 6= µ2 (zweiseitig)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Prüfgröÿe 236

I Prüfgröÿe des t -Test für zwei unabhängigen Stichproben:

x̄ 1 − x̄ 2
t=
sx̄ 1 −x̄ 2
I Dabei bezeichnet sx̄ −x̄ die Standardabweichung der
1 2
Mittelwertdierenzen.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Standardabweichung der Mittelwertsdierenzen 237

I Der Nenner der t -Statistik ist


s
sp2
 
1 1
sx̄ 1 −x̄ 2 = +
n1 n2

I Dabei wird die Varianz der Rohwerte aus beiden Stichproben


zusammen (daher sog. gepoolte Varianz) folgendermaÿen
geschätzt:
(n1 − 1)s12 + (n2 − 1)s22
sp2 =
(n1 − 1) + (n2 − 1)
I Dabei bezeichnet n1 und n2 die Gruppengröÿen.

I Falls n1 = n2 ergibt sich die vereinfachte Formel:

s12 + s22
sp2 =
2

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 238

I Es soll überprüft werden, ob Frühaufsteher oder Spätaufsteher


belastbarer sind (zweiseitiger Test, α = 0,05).
I Neun Früh- und neun Spätaufsteher wurden untersucht.

I Rohdaten:

Früh Spät

86 97
91 87
96 113
103 93
121 115
86 108
121 123
105 124
112 93

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 239

Erster Schritt: Prüfgröÿe berechnen

I Man erhält: x̄ 1 = 102,333 und x̄ 2 = 105,889 sowie


s12 = 187,500 und s22 = 190,861
I Da n1 = n2 ergibt sich mit der vereinfachten Formel:
sp2 = (187,500 + 190,861)/2 = 189,181
I Durch Einsetzen dieses Wertes ergibt sich:

s  
1 1
sx̄ 1 −x̄ 2 = 189,181 · + = 6,484
9 9

I Also ergibt sich als Wert der Prüfgröÿe:

x̄ 1 − x̄ 2 102,333 − 105,889
t= = = −0,548
sx̄ 1 −x̄ 2 6,484

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 240

Zweiter Schritt: Kritischen Wert aus der Tabelle ablesen


Fall c) t < tα/2 (n1 + n2 − 2) oder t > t1−α/2 (n1 + n2 − 2) bzw.
| t | > t1−α/2 (n1 + n2 − 2)
I Anzahl der Freiheitsgrade: n1 + n2 − 2 = 9 + 9 − 2 = 16.
I Der kritische t -Wert lautet also:
t1−α/2 (n1 + n2 − 2) = t0.975 (16) = 2,120.
Kontrolle:

I Da | − 0,548| = 0,548 6> 2,12 wird die Nullhypothese nicht


abgeleht.

I Es lässt sich also kein signikanter Unterschied in der


Belastbarkeit zwischen Früh- und Spätaufstehern nachweisen.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 241

Zum Vergleich derselbe Test mit dem Statistik-Programm R


berechnet:

Two Sample t-test


data: frueh and spaet
t = -0.5484, df = 16, p-value = 0.591
alternative hypothesis: true difference in means
is not equal to 0
...
sample estimates:
mean of x mean of y
102.3333 105.8889
Der p-Wert ist nicht kleiner als 5%, d.h. die Nullhypothese muss
beibehalten werden.
Annahmen des t -Test für unabhängigen Stichproben 242

I Unabhängige Stichproben.

I Die beiden Populationsvarianzen sind gleich, d. h. σ12 = σ22 .


I Die Rohwerte in beiden Populationen, aus denen die
Stichproben gezogen werden, sind normalverteilt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Test für zwei verbundene Stichproben
Wo sind wir? 244

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle


3.1 Einführung
3.2 Power und Eektstärke
3.3 Tests und Kondenzintervalle für Mittelwerte
Ein-Stichproben t -Test
t -Test für zwei unabhängige Stichproben
t -Test für zwei verbundene Stichproben
3.4 Nicht-parametrische Tests
3.5 χ2 -Unabhängigkeitstest

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
t -Test für verbundene Stichproben (Beobachtungspaare) 245

I Es werden Beobachtungspaare untersucht, wobei eine


Beobachtung in die erste und die andere in die zweite Gruppe
gehört.
I Beispiele für Beobachtungspaare:
I Messwiederholung: Messung an derselben Person vor und nach
der Behandlung (im Experiment: within-subjects Design statt
between-subjects Design)
I Testergebnisse für linkes und rechtes Auge derselben Person
I Ehepaare, Geschwister
I Matched Pairs (in Fall-Kontroll-Studien)
I Es ist davon auszugehen, dass die Beobachtungen eines Paares
sich ähnlicher sind als Beobachtungen, die kein Paar bilden.

I Berücksichtigung des Ausgangsniveaus.


Hypothesen 246

I Die Hypothesen lauten wie beim t -Test für unabhängige


Stichproben:

H0 : µ1 = µ2 , H1 : µ1 > µ2 (einseitig)

H0 : µ1 = µ2 , H1 : µ1 < µ2 (einseitig)

H0 : µ1 = µ2 , H1 : µ1 6= µ2 (zweiseitig)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Dierenzen 247

I Durch die paarweise Zuordnung der Beobachtungen ist es jetzt


aber möglich, die Dierenz di für jedes Beobachtungspaar
(z.B. Messung vor und nach Treatment) zu bilden:

di = xi 1 − xi 2

I Die Nullhypothese gleicher Mittelwerte entspricht dann


Dierenzen mit Mittelwert 0:

H0 : µ d = 0 , H 1 : µ d > 0 (einseitig)

H0 : µ d = 0 , H 1 : µ d < 0 (einseitig)

H0 : µd = 0, H1 : µd 6= 0 (zweiseitig)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Prüfgröÿe 248

I Die aus den Dierenzen bestimmte Prüfgröÿe lautet


entsprechend:


 
d̄ d̄ d̄
t= = sd = n
sd̄ √
n
sd

I Die Standardabweichung der Dierenzen wird dabei in der


üblichen Form geschätzt:

1 (di − d̄ )2
s
Pn
i=
sd =
n−1

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 249

I Es soll überprüft werden, ob Examenskandidaten in der Lage


sind, ihre eigene Leistungsfähigkeit richtig einzuschätzen.

I Vor Durchführung einer Klausur mit 70 Aufgaben sollen


15 Kandidaten angeben, wie viele Aufgaben sie glauben richtig
lösen zu können.

I Die Anzahl der tatsächlich richtig gelösten Aufgaben wird mit


der eingeschätzten Anzahl durch einen t -Test für
Beobachtungspaare verglichen.

I Wir bezeichnen die eingeschätzte Anzahl mit xi 1 und die


Anzahl tatsächlich richtig gelöster Aufgaben mit xi 2 .
I Wir gehen davon aus, dass die Dierenzen zwischen den
eingeschätzten und den tatsächlichen Leistungen
normalverteilt sind.

I Die H1 wird ungerichtet formuliert (α = 0,05).

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 250

Vpn xi 1 xi 2 di
1 40 48 -8
2 60 55 5
3 30 44 -14
4 55 59 -4
5 55 70 -15
6 35 36 -1
7 30 44 -14
8 35 28 7
9 40 39 1
10 35 50 -15
11 50 64 -14
12 25 22 3
13 10 19 -9
14 40 53 -13
15 55 60 -5

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 251

Erster Schritt: Prüfgröÿe berechnen

I Das Mittel der 15 Dierenzen lautet


P
d̄ = i di /n = −96/15 = −6,4
I Für die Standardabweichung der Dierenzwerte berechnen wir
sd = 7,854
I Somit ergibt sich als Prüfgröÿe
√ √
t= 15 · d̄ /sd = 15 · (−6,4/7,854) = −3,156
Zweiter Schritt: Kritischen Wert aus der Tabelle ablesen
Fall c) t < tα/2 (n − 1) oder t > t1−α/2 (n − 1) bzw.
| t | > t1−α/2 (n − 1)
I Anzahl der Freiheitsgrade: n − 1 = 14
n ist die Anzahl der Dierenzen =
Anzahl der Beobachtungspaare =
z.B. Anzahl der an der Studie beteiligten Ehepaare bzw.
Anzahl der Versuchspersonen bei Messwiederholungen
c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 252

I Kritischer Wert: t1−α/2 (n − 1) = t0.975 (14) = 2,145


Kontrolle:

I | − 3,156| = 3,156 > 2,145 ⇒ H0 ablehnen

I Es besteht ein signikanter Unterschied zwischen


eingeschätzten und den tatsächlichen Leistungen.

I (An den Mittelwerten sieht man: im Mittel unterschätzen die


Personen ihre Leistung.)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Annahmen des t -Test für verbundene Stichproben 253

I Für die Dierenzen gelten die gleichen Annahmen wie beim


Ein-Stichproben t -Test:
I Um den Test durchführen zu können, muss eine Stichprobe
von Beobachtungspaaren vorliegen, deren Dierenzen di
normalverteilt sind.

I Die wahre Varianz der Dierenzwerte, σd2 , braucht für die


Testdurchführung nicht bekannt zu sein, da sie durch sd2
geschätzt werden kann.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Groÿe Stichproben 254

I Alle drei besprochenen t -Tests lassen sich auch bei kleinem


Stichprobenumfang anwenden, wenn ihre Annahmen 
insbesondere die Annahme der Normalverteilung der Werte in
den Gruppen  erfüllt sind.

I Wenn der Stichprobenumfang ausreichend groÿ ist, halten die


t -Tests das festgelegte Signikanzniveau aber auch dann ein,
wenn die Werte in den Gruppen nicht normalverteilt sind.

I Natürlich sind groÿe Stichprobenumfänge ohnehin


wünschenswert, da dann die Power höher ist.

I Als grober Orientierungspunkt wird oft angegeben, dass in der


Praxis mehr als 30 Beobachtungen pro Gruppe vorliegen
sollten, um t -Tests zuverlässig einsetzen zu können.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Nicht-parametrische Tests
Parametrische und nicht-parametrische Tests 256

I Parametrische Tests machen bestimmte Verteilungsannahmen.


Beispielsweise gehen t -Tests von normalverteilten Werten in
den Gruppen aus.

I Nicht-parametrische Tests werden auch als verteilungsfrei


bezeichnet, weil sie in der Regel keine Annahmen über die
Verteilung der Werte machen.

I Nicht-parametrische Tests können eingesetzt werden, wenn die


Verteilungsannahmen der parametrischen Tests verletzt sind.
I Wie beim t -Test gibt es die Varianten:
I für zwei unabhängige Stichproben: Wilcoxon-Rangsummentest
(äquivalent: Mann-Whitney U -Test)
I für zwei verbundene Stichproben: Wilcoxon-Test für
verbundene Stichproben
Beispiel 257

I Verlangsamt ein Medikament die Reaktionszeiten der


Versuchspersonen?

I Diese Alternativhypothese soll auf dem 5% Signikanzniveau


getestet werden.

I An einem Reaktionszeit-Messgerät werden dazu 10 Personen,


die das Medikament eingenommen haben (Gruppe 1), und
10 Personen, die einen Placebo erhalten haben (Gruppe 2),
getestet.

I Da Reaktionszeiten häug nicht normalverteilt sind, soll ein


nicht-parametrisches Verfahren verwendet werden.

I zwei unabhängige Stichproben ⇒ Wilcoxon-Rangsummentest


Wilcoxon-Rangsummentest 258

I Idee: Anstatt die Werte der Personen direkt zu vergleichen


wird nur die Reihenfolge der Werte berücksichtigt.

I Beispiel: Haben die Personen, die das Medikament bekommen


haben, längere Reaktionszeiten? Dann haben ihre
Reaktionszeiten die höheren Ränge ⇒ höhere Rangsumme.

I Der Rang ist die Platzierung eines Wertes, wenn man alle
Werte (aus beiden Gruppen) in aufsteigender Reihenfolge
sortiert.
Beispiel 259

Mit Medikament Mit Placebo

Reaktionszeit Rangplatz Reaktionszeit Rangplatz


(ms) (ms)

85 3 96 8
106 13 108 15
118 18 86 4
138 20 84 2
90 6 99 10
112 17 101 11
119 19 78 1
107 14 97 9
95 7 87 5
103 12 109 16

Rangsumme T1 = 129 Rangsumme T2 = 81


Beispiel 260

I Aus den Rang-Summen kann die Prüfgröÿe W (entspricht der


Mann-Whitney U -Statistik) berechnet werden.

I Aus deren exakter Verteilung (oder mithilfe einer


Normalverteilungs-Approximation) lassen sich p-Werte
bestimmen.

I Für das Beispiel ergibt sich:

Wilcoxon rank sum test


...
W = 74, p-value = 0.03763
alternative hypothesis: true location shift
is greater than 0
I Der p-Wert ist kleiner als 5%, d.h. die Nullhypothese kann
abgelehnt werden.

I Das Medikament verlangsamt die Reaktionszeiten signikant.


Wilcoxon-Rangsummentest 261

I Sind die Annahmen des t-Tests erfüllt, hat der Wilcoxon-


Rangsummentest eine etwas geringere Power als der t-Test,
ansonsten eine höhere.

I Der t-Test ist sensitiv gegen eine reine Mittelwertsverschiebung


(bei gleicher Varianz und Normalverteilung in beiden Gruppen).

I Der Wilcoxon-Rangsummentest ist sensitiv gegen eine


Verschiebung der gesamten Verteilung in Lage und Form.

0.5

0.4

0.3

0.2

0.1

0.0

−4 −2 0 2 4

y
χ2 -Unabhängigkeitstest
Wo sind wir? 263

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle


3.1 Einführung
3.2 Power und Eektstärke
3.3 Tests und Kondenzintervalle für Mittelwerte
3.4 Nicht-parametrische Tests
3.5 χ2 -Unabhängigkeitstest

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
χ2 Unabhängigkeitstest 264

I Werden zwei nominalskalierte Variablen betrachtet, interessiert


oft ob ein Zusammenhang zwischen den Variablen besteht.

I Wir bezeichnen die Variablen mit A und B und bezeichnen die


Kategorien jeder Variable mit Ai bzw. Bj .
I Zur Erinnerung: Bei Unabhängigkeit gilt

P(A ∩ B) = P(A) · P(B)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Hypothesen 265

I H0 : Die beiden Variablen sind unabhängig.

I H1 : Die beiden Variablen sind nicht unabhängig, d.h. es


besteht ein Zusammenhang zwischen A und B.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 266

Sind die Variablen Geschlecht und Fuÿballfan unabhängig


voneinander?

beobachtete Häugkeiten nij :

Fuÿballfan
njan nein
Frau 25 25 50
Geschlecht
Mann 35 15 50
60 40 100
Punktnotation 267

I Häugkeiten am Beispiel einer 2 × 2-Tabelle:

n11 n12 n1·


n21 n22 n2·
n·1 n ·2 n

I Randhäugkeiten der Zeilen:


P
I n1· = n11 + n12 = Pj n1j
I n2· = n21 + n22 = j n2j
I Randhäugkeiten der Spalten:
P
I n·1 = n11 + n21 = Pi ni 1
I n·2 = n12 + n22 = i ni 2
n = n11 + n12 + n21 + n22 =
P P
I Stichprobenumfang:
i j nij
c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Erwartete Häugkeiten 268

I Bei Unabhängigkeit würden sich die Wahrscheinlichkeiten für


jede Zelle als Produkt der Randwahrscheinlichkeiten ergeben.

I Es gilt also für die unter Unabhängigkeit erwarteten


Häugkeiten:

ni· · n·j
mij =
n

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 269

Sind die Variablen Geschlecht und Fuÿballfan unabhängig


voneinander?

unter Unabhängigkeit erwartete Häugkeiten mij :

Fuÿballfan
ja nein
Frau 50 · 60/100 50 · 40/100 50
Geschlecht
Mann 50 · 60/100 50 · 40/100 50
60 40 100

ergibt:

Fuÿballfan
njan nein
Frau 30 20 50
Geschlecht
Mann 30 20 50
60 40 100
Prüfgröÿe 270

I Zur Berechnung der Prüfgröÿe werden die in der Stichprobe


beobachteten Häugkeiten nij mit den unter Unabhängigkeit
erwarteten Häugkeiten mij verglichen:

(nij − mij )2
k X
l
χ2 =
X

i= 1 j=1
mij

I Ist die Summe der quadrierten Abweichungen groÿ, weicht die


gemeinsame Verteilung der beiden Variablen stark von der
unter Unabhängigkeit erwarteten Verteilung ab.
I Entsprechend ist der Ablehnbereich der Nullhypothese:

χ2 > χ21−α ((k − 1) · (l − 1))

k = Anzahl Zeilen
wobei:
l = Anzahl Spalten
Beispiel 271

I Erster Schritt: Prüfgröÿe berechnen:

(25 − 30)2 (25 − 20)2


χ2 = +
30 20
(35 − 30)2 (15 − 20)2
+ + = 4,167
30 20

I Zweiter Schritt: Kritischer Wert aus der χ2 -Tabelle:

χ20.95 ((2 − 1) · (2 − 1)) = χ20.95 (1) = 3,84

I Kontrolle: 4,167 > 3,84 ⇒ Nullhypothese ablehnen!

I Es liegt ein signikanter Zusammenhang zwischen Geschlecht


und Fuÿballfan-Sein vor.
Annahmen des χ2 -Test 272

I Die Beobachtungen stammen aus einer einfachen


Zufallsstichprobe.

I Alle erwarteten Häugkeiten mij sind gröÿer als 5.

I Wenn letzteres nicht erfüllt ist, ist die asymptotische


χ2 -Verteilung der Prüfgröÿe nicht mehr gewährleistet. In
diesem Fall sollte Fishers exakter Test angewendet werden, der
auf einer Permutation der Zellenhäugkeiten bei gegebenen
Randhäugkeiten basiert.
Vereinfachte Prüfgröÿe für 2 × 2-Tafeln 273

I In 4-Felder-Tafeln lässt sich die Prüfgröÿe auch mit einer


einfacheren Formel berechnen:

n · (ad − bc)2
χ2 =
(a + b) · (c + d) · (a + c) · (b + d)

mit den Bezeichnungen:

a b a+b
c d c+d
a+c b+d n
Vereinfachte Prüfgröÿe für 2 × 2-Tafeln 274

I Für unser Beispiel:

· (25 · 15 − 25 · 35)2
χ2 =
100
= 4,167
50 · 50 · 60 · 40

Es ergibt sich also auch mit der einfacheren Formel derselbe


Wert für die Prüfgröÿe und dieselbe Testentscheidung.
Exkurs: Weitere Zusammenhangs-Maÿe für 2 × 2-Tafeln 275

I Neben χ2 (Wertebereich: 0 bis ∞) gibt es noch diverse weitere


Zusammenhangs-Maÿe für nominalskalierte Merkmale.

I χ2 drückt nur die Stärke des Zusammenhangs aus, einige


andere Maÿe auch die Richtung des Zusammenhangs,

I z.B. der Phi-Koezient (Wertebereich: −1 bis 1):

ad − bc
φ= p
(a + b) · (c + d) · (a + c) · (b + d)

I Ein weiteres bekanntes Zusammenhangs-Maÿ für 2 × 2-Tafeln


ist der Odds Ratio.
Beispiel 276

Fuÿballfan
njan nein
Frau 25 25 50
Geschlecht
Mann 35 15 50
60 40 100

χ2 = 4,167
zeigt Zusammenhang zwischen Geschlecht und Fuÿballfan-Sein.

25· 15 − 25 · 35
φ= √ = −0.204
50 · 50 · 60 · 40

zeigt zusätzlich die Richtung des Zusammenhangs, nämlich dass


Frauen im Verhältnis weniger häug Fuÿballfans sind als Männer.
Kovarianz und Korrelation
Wo sind wir? 278

1. Deskriptive Statistik

2. Wahrscheinlichkeitstheorie

3. Tests und Kondenzintervalle

4. Kovarianz und Korrelation

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Kovarianz 279

2
I Die Stichproben-Varianz sx beschreibt die Streuung der Werte
in Richtung einer Variablen X.
I Die Stichproben-Kovarianz sxy beschreibt die Streuung der
Werte in Richtung zweier Variablen X und Y.
I Sie charakterisiert den linearen Zusammenhang zwischen zwei
metrischen Variablen.
Pn
sxy = i= 1 (xi − x̄ ) · (yi − ȳ )
n−1
I Die Kovarianz ist symmetrisch, d. h.: sxy = syx
Positive Kovarianz 280

–x

a positive Kovarianz
6

4 –y
y

0
0 1 2 3 4 5 6 7
x
–x
inhaltliches Beispiel: X = Lernzeit, Y = Punktezahl in Klausur
b negative Kovarianz
6 c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Negative Kovarianz 281

inhaltliches Beispiel: X = Dosis Medikament, Y = Blutdruck

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
0
Unabhängige
0 1 Variablen
2 3 4 5 6 7 282
x
–x

c Kovarianz = 0
6

5
–y
4
y

0
0 1 2 3 4 5 6 7
x
inhaltliches Beispiel: X = Schuhgröÿe, Y = Punktezahl in Klausur

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Eigenschaften der Kovarianz 283

I Die Kovarianz ist von den Messeinheiten beider Variablen


abhängig.

I Sie ist deshalb zur Beschreibung des Zusammenhangs


unterschiedlicher Merkmale wenig geeignet.

I Für lineare Transformationen der Form u =a+b·x gilt

su,y = sa+b·x,y = b · sx,y

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Korrelation 284

I Es wurde deshalb ein weiteres Maÿ zur Kennzeichnung von


Zusammenhängen entwickelt, das gegenüber
Maÿstabsveränderungen der untersuchten Merkmale invariant
ist, der Korrelationskoezient r :
sxy
r=
sx · sy

I Der Korrelationskoezient r wird manchmal auch


Korrelationskoezient nach Bravais-Pearson oder
Produkt-Moment-Korrelation genannt.

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Korrelation und z -Werte 285

I Die Korrelation kann auch mit Hilfe von z -Werten dargestellt


werden:

I Die Korrelation zweier Variablen entspricht der Kovarianz der


z -standardisierten Variablen (denn deren Standardabweichung
ist 1).

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Wertebereich 286

I Der Wertebereich des Korrelationskoezienten ist das Intervall


von −1,0 bis +1,0.
I Eine Korrelation von +1,0 entspricht einem perfekten positiven
Zusammenhang.

I Eine Korrelation von −1,0 entspricht einem perfekten


negativen Zusammenhang.

I Ist die Korrelation null, besteht kein linearer Zusammenhang.

I Die Korrelation ist invariant gegenüber linearen


Transformationen der Merkmale, d. h. falls u = a + b · x, dann
gilt:
ruy = rxy
I Die Korrelation ist wie die Kovarianz symmetrisch, d. h.:
rxy = ryx

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Kovarianz vs. Korrelation 287

Kovarianz: 0.92 , Korrelation: 0.55 Kovarianz: 92.24 , Korrelation: 0.55 Kovarianz: 92243.39 , Korrelation: 0.55
90

90
● ● ●
● ● ●
● ● ● ● ● ●
●● ●● ●●

80000
● ● ●
80

80
● ● ● ● ● ● ● ● ●
● ● ●
Gewicht in kg

Gewicht in kg
● ● ● ●

Gewicht in g
● ● ● ● ● ● ● ●
● ● ● ● ● ● ● ● ●
● ● ● ● ● ● ● ● ●
70

70
● ● ● ● ● ● ● ● ●
● ● ●
● ●● ● ●● ● ● ● ●●● ● ●● ● ●● ● ● ● ●●● ● ●● ● ●● ● ● ● ●●●
● ● ● ●
● ●● ● ● ●
● ●● ● ● ●
● ●● ● ●

60000
● ● ● ● ● ●
● ● ● ● ● ●
●● ●● ●●
● ● ● ●● ● ● ● ●● ● ● ● ●●
60

60
● ● ●
●● ● ● ●● ● ● ● ● ●● ● ● ●● ● ● ● ● ●● ● ● ●● ● ● ● ●
● ● ● ● ● ● ● ● ● ● ● ●
● ● ●● ● ● ●● ● ● ●●
● ● ●
● ● ●●● ● ● ● ●●● ● ● ● ●●● ●
● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
● ● ●
50

50
● ● ● ● ● ●
● ● ● ● ● ● ● ● ● ● ● ●
● ● ●
● ● ●
● ● ●

40000
● ● ●
● ● ● ● ● ●
40

40

1.2 1.4 1.6 1.8 120 140 160 180 120 140 160 180
Grösse in m Grösse in cm Grösse in cm
Zur Unterhaltung 288

Korrelation: 0,08

Quellen: Neue Zürcher Zeitung, http://www.meteoschweiz.ch, 2014


Korrelation und Unabhängigkeit 289

I Sind zwei Variablen voneinander unabhängig, ist die Kovarianz


sowie die Korrelation zwischen ihnen null.

I Aus einer Kovarianz bzw. Korrelation von null kann man aber
umgekehrt nicht einfach die Unabhängigkeit der Variablen
folgern, weil der Korrelationskoezient nur lineare
Zusammenhänge aufdecken kann. Bei einer Korrelation von
null kann deshalb immernoch ein nicht-linearer Zusammenhang
vorliegen.
Berechnung über Summen 290

I Zur Berechnung von Hand kann auch folgende Formel


verwendet werden:
   
P P P
n · i xi · yi − i xi · i yi
r = s 2   2 
P 2 P 2
 
P P
n · i xi − i xi · n · i yi − i yi

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 291

I Wir berechnen die folgenden Summen für die x und y


Variablen:

x y x2 y2 x ·y
2 1 4 1 2
1 2 1 4 2
9 6 81 36 54
5 4 25 16 20
3 2 9 4 6
Summen: 20 15 120 61 84

I Nun können wir die Summen bzw. ihre Quadrate in die Formel
für die Korrelation einsetzen.
I Man erhält:

5 · 84 − 20 · 15
r=p = 0,949
(5 · 120 − 400) · (5 · 61 − 225)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Korrelation und Kausalität 292

I Vom Vorliegen einer Korrelation in einer Beobachtungsstudie


kann man nicht auf einen kausalen Zusammenhang schlieÿen!
I Aus zwei Gründen:
I Die Richtung des Zusammenhangs  was ist die Ursache, was
die Wirkung  lässt sich nicht an der Korrelation ablesen.
(⇒ längsschnittliches Design)
I Drittvariablen (sog. konfundierte Variablen) können den
Zusammenhang verursachen.
(⇒ randomisiertes, kontrolliertes Experiment)
Beispiele aus der Zeitung 293

I Menschen mit einer bestimmten Hirnstruktur sind häuger


alkoholabhängig
I naive Interpretation: aufgrund der Hirnstruktur werden sie
alkoholabhängig
I auch möglich: aufgrund des Alkoholmissbrauchs verändert sich
die Hirnstruktur
I Kinder, die oft vorgelesen bekommen, kriegen als Erwachsene
bessere Jobs
I naive Interpretation: Vorlesen macht erfolgreich
I Konfundierung: Kinder, deren Eltern hohen Bildungsstand
haben, bekommen mehr vorgelesen aber erhalten auch bessere
Schulbildung, Nachhilfe, Klavierunterricht, Sprachreisen etc.,
die sich wiederum positiv auf die Jobchancen auswirken
Zur (etwas makaberen) Unterhaltung 294

Korrelation: 0.992082

Quelle: http://www.tylervigen.com/, 2014


Ein-Stichprobentest für H0 : % = 0 295

I Wir wollen die Nullhypothese H0 : % = 0 überprüfen, d.h. dass


in der Population kein linearer Zusammenhang zwischen den
Variablen besteht.

I Ob eine empirisch ermittelte Korrelation r mit der H0 : % = 0


zu vereinbaren ist, lässt sich mit folgender Prüfgröÿe testen:


r · n−2
t= √
1 − r2

mit df = n − 2
I Hypothesen:
H1 : % > 0
H1 : % < 0
H1 : % =
6 0

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Beispiel 296

I In einer Untersuchung mit n = 18 Versuchspersonen ergibt


sich zwischen den Variablen Umfang des Wortschatzes und
Erreichte Punktzahl in einem Rechtschreib-Test eine
Korrelation von r = 0,62.
I Die zweiseitige Alternative % 6= 0 soll auf einem
Signikanzniveau von 1% geprüft werden.
I Erster Schritt: Prüfgröÿe berechnen:

0,62 · 18 −2
t= p = 3,161
1 − 0,622
I Zweiter Schritt: Kritischer Wert aus der t -Tabelle
Fall c) t < tα/2 (n − 2) oder t > t1−α/2 (n − 2) bzw.
| t | > t1−α/2 (n − 2)
t0.995 (16) = 2,921
I Kontrolle: 3,161 > 2,921 ⇒ Nullhypothese ablehnen!
I Es liegt ein signikanter Zusammenhang zwischen Wortschatz
und Rechtschreib-Test vor.
c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).
Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Wiederholung: Signikanz vs. Eektstärke
Wiederholung: Signikanz vs. Eektstärke 298

I Wenn ein Zusammenhang signikant ist, bedeutet das nicht


automatisch, dass es sich um einen starken Zusammenhang
handelt.

I Wie bereits besprochen, hängt die Power eines statistischen


Tests nicht nur von der Eektstärke (z.B. Gröÿe des
Unterschieds, Stärke des Zusammenhangs) ab, sondern vor
allem auch von der Stichprobengröÿe.

I Gröÿere Stichproben erlauben bessere Schätzung ⇒ Tests


haben höhere Power.
Unterscheidung 299

I deskriptive (beschreibende) Statistik

Ziel: Daten aus einer Stichprobe beschreiben

Wert des Korrelationskoezienten aus einer Stichprobe, z.B.


r = 0,8

I induktive (schlieÿende) Statistik

Ziel: von einer Stichprobe auf (andere Stichproben aus der)


Grundgesamtheit schlieÿen

Kann ein Wert dieser Gröÿe nur durch die Zusammensetzung


der Zufalls-Stichprobe zustande kommen, auch wenn in der
Grundgesamtheit gar kein Zusammenhang vorliegt? D.h.:
H0 : ρ = 0
Unterscheidung 300

I signikant = überzufällig

D.h. wenn in der Grundgesamtheit gar kein Zusammenhang



vorliegen würde, wäre es sehr unwahrscheinlich , dass ein Wert
dieser Gröÿe nur durch die Zusammensetzung der Zufalls-
Stichprobe zustande kommt.

Man würde also erwarten, auch in den meisten anderen


Stichproben aus derselben Grundgesamtheit einen
Zusammenhang zu nden.

I signikant heiÿt aber nicht notwendigerweise: starker,


inhaltlich relevanter Zusammenhang

∗ d.h. Wahrscheinlichkeit kleiner als Signikanzniveau α


Signikanz vs. Eektstärke 301

zweiseitiger Test für H0 : ρ = 0 auf 5%-Niveau

I Stärke des Zusammenhangs: r = 0,8


Stichprobengröÿe: n = 100
⇒ Zusammenhang signikant

I Stärke des Zusammenhangs: r = 0,8


Stichprobengröÿe: n=5
⇒ Zusammenhang nicht signikant

I Stärke des Zusammenhangs: r = 0,08


Stichprobengröÿe: n = 100
⇒ Zusammenhang nicht signikant

I Stärke des Zusammenhangs: r = 0,08


Stichprobengröÿe: n = 5000
⇒ Zusammenhang signikant
Rangkorrelation
Rang-Korrelation nach Spearman 303

Der Korrelationskoezient nach Bravais-Pearson r:


I setzt ein metrisches Skalenniveau voraus,

I unterschätzt den Zusammenhang von x und y, wenn dieser


nicht-linear ist,

I reagiert empndlich auf Ausreiÿer.

Der Rang-Korrelationskoezient nach Spearman rs


I wird auch bei ordinalskalierten Daten angewendet,

I spricht auch auf nicht-lineare monotone Zusammenhänge an,

I ist robust gegen Ausreiÿer.

rs = +1 bedeutet, dass y mit steigendem x streng monoton steigt.


rs = −1 bedeutet, dass y mit steigendem x streng monoton fällt.
rs = 0 bedeutet, dass kein monotoner Zusammenhang besteht.
Rang-Korrelation nach Spearman 304

Die Rang-Korrelation rs ist deniert als die Korrelation der


Rangplätze der Messwerte, d.h.:

I Rang-Korrelationskoezient nach Spearman rs =


Korrelationskoezient nach Bravais-Pearson r angewendet auf
die Ränge:   
P P P
n· i rg (xi )·rg (yi )− i rg (xi ) · i rg (yi )
rs = v
u  2    2 
t n·P rg (x )2 − P rg (x ) 2
u P P
i i i i · n· i rg (yi ) − i rg (yi )

Dabei ist rg (xi ) der Rang von xi und rg (yi ) der Rang von yi
(die Ränge werden für die x -Werte und die y -Werte getrennt
vergeben).
Rang-Korrelation nach Spearman 305

I Vereinfachte Berechnung (nur verwenden sofern keine


Bindungen vorliegen):

n
(rg (xi ) − rg (yi ))2
X
6 ·
i= 1
n · (n2 − 1)
rs = 1 −
Beispiel 306

Messwerte xi 33 15 17 11 40 22
Rangplätze rg (xi ) 5 2 3 1 6 4

Messwerte yi 47 32 29 28 56 38
Rangplätze rg (yi ) 5 3 2 1 6 4

Damit ergibt sich für die Rang-Korrelation:

6 · [02 + (−1)2 + 12 + 02 + 02 + 02 ]
rs = 1 − = 0.943
6 · (36 − 1)

c 2010, Springer-Verlag Berlin Heidelberg. Aus J. Bortz & C. Schuster (2010).


Statistik für Human- und Sozialwissenschaftler. Springer: Heidelberg. www.lehrbuch-psychologie.de
Bindungen 307

I Treten mehrere gleiche Werte auf, spricht man von Bindungen


(ties).

I Die Rangvergabe bei Bindungen wird mit Durchschnittsbildung


über die in Frage kommenden Ränge gelöst, d. h. es wird
jedem der Werte der durchschnittliche Rang zugeordnet.

I Beispiel:

Messwerte xi 1.09 2.17 2.68 2.17 4.5 3.02


Hilfszählung 1 2 4 3 6 5
Rangplätze rg (xi ) 1 2,5 4 2,5 6 5

Beim Vorliegen von Bindungen stimmt die vereinfachte Berechnung


nur näherungsweise, deshalb sollte die ausführliche Formel
verwendet werden.