Beruflich Dokumente
Kultur Dokumente
XC di XC di
F- t F- t
PD
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Statistik Übersicht
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Einleitung
Dieses Dokument wurde im HS15 im Umfang der Prüfungsvorbereitungen erstrellt. Nun soll es mit all denen geteilt
werden, die einen Nutzen daraus ziehen können.
1. Der Aufbau dieser Übersicht ist an den Foliensatz von Frau Strobl vom HS14 angeleht.
2. Verweise auf Folien können bei anderen Foliensätzen nicht übereinstimmen.
3. Das Arbeiten/Lernen mit dieser Übersicht ersetzt nicht den Besuch der Vorlesung, vor allem da der
wichtigste Teil dieser Statistikvorlesung aus dem Lösen der Übungen besteht.
kleiner Tipp: druckt euch möglichst bald die Formelsammlung aus und arbeitet von Anfang an damit.
Daswird euch das Leben um einiges erleichtern.
4. Diese Übersicht wurde nach bestem Wissen und Gewissen erstellt, wobei keine Haftung für Fehler
übernommen wird.
5. Solltet ihr einen Fehler entdecken, bitte ich euch diesen zu melden, damit er bereinigt werden kann.
6. Gerne könnt ihr Verbesserungsvorschläge und konstruktive Kritik anbringen, um dieses Dokument zu
verbessern.
Sieht diese Aktion als Anregung dafür, eure eigenen Unterlagen zu Teilen, um andere Studierende bei ihrem Studium
zu unterstützen.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Ordinalskala: Daten können rangiert/ in Reihenfolge gebracht werden, Abstände zwischen Gruppen ist
unklar, Grundoperationen sind <, =, >
Bildungsstand: Matura < Bachelor < Master < Doktor
• Absolutskala: enthält die meisten Informationen, diese Werte dürfen nicht transformiert werden da ein
sinnloses Ergebnis dabei herauskommen würde, der Mittelwert ist sinnvoll
Anzahlen und Wahrscheinlichkeiten, Anzahl Kinder, gekaufte Produkte,
Regenwahrscheinlichkeit
• Mittelwert:
o alle Werte aufsummiert, geteilt durch Anzahl Werte
o Summe aller Differenzen von x- x̅ = 0
o Mittelwert ist mathematisch sehr genau
o Mittelwert ist jedoch sensitiv gegenüber extrem hohen Werten
xi; (2, 6, 8, 0) hat Mittelwert von 4, x i (2, 6, 8, 100) hat Mittelwert von 29
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a Median: k e r- s o ft w a
Modalwert/Modus:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Variationsbreite:
o = die Differenz zwischen dem kleinsten und dem grössten erhobenen Wert
o wird auch Range genannt
o ist sensitiv gegenüber Ausreissern
o gut um unplausible Werte zu entdecken
o kein sehr nützliches Mass zur Charakterisierung der Variabilität
Mass ist zwar nicht sehr nützlich, jedoch kann es dabei helfen unplausible Werte zu entdecken
• Interquartilsbereich (IQR):
o = Bereich der mittleren 50% aller Werte
o dabei werden sowohl die oberen, als auch die unteren 25% der Werte abgeschnitten
o der IQR drückt die Länge des Bereichs aus über den die mittleren 50% der Rohwerte verteilt sind,
womit er direkt mit der Varianz (s2) zusammenhängt
• lineare Transformation:
o Umrechnen von einer Einheit in eine andere, was es ermöglicht, unterschiedliche Werte miteinander
zu Vergleichen
o dabei verändert sich die Grundwerte wie folgt:
• z-Transformation:
o z-Wert gibt an, wie viele Standardabweichungen ein Wert vom Mittelwert entfernt ist
o deshalb muss man die Differenz zwischen Messwert und Durchschnittswert durch ihre
Standartabweichung Teilen.
o der z-Wert ist ein optimales „Werkzeug“ um Werte aus verschiedenen
Messmethoden miteinander zu vergleichen, da die Werte Massstabsfrei
sind
o z-Werte sind dimensionale Zahlen-> direkt vergleichbar
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Diagramme
• Kreisdiagramm:
o gut geeignet für nominalskalierte Eigenschaften (Geschlecht, Augenfarbe, politische Parteien, ect.)
o sehr übersichtlich
o Feinheiten sind jedoch kaum erkennbar, weshalb Prozentzahlen die Interpretation erheblich
erleichtert
• Balkendiagramm:
o selben Punkte, wie beim Kreisdiagramm, nur das Balkendiagramm viel angenehmer zu lesen ist
• Boxplot:
o ist nur für metrische Skalen geeignet
o optimales Diagramm zur Darstellung von Lage und Streuung der Messwerte
o dabei werden die mittleren 50% der Verteilung (IQR) in einer „Box“ dargestellt, in der der Median
eingezeichnet ist
o Werte ausserhalb des IQR werden durch „Whiskers“ (Schnurrhaare) dargestellt, die 1.5x die Länge
des IQR haben und auf der letzten gemessenen Wert enden (zB Q3 + 1.5 x IQR)
o Werte, die weder im IQR noch im Bereich der Whiskers liegen, werden ausserhalb durch
Punkte dargestellt
• Histogramm:
o Ist nur für metrische Skalen geeignet
o repräsentiert Werte in einer flächentreuen Darstellung
o dazu werden die Werte in (möglichst) gleich breite
Intervalle eingeteilt die nicht zu breit/schmal sein
sollten
o Anzahl und breite der Kategorien werden so gewählt,
dass Form der Verteilung gut erkennbar ist
Verteilungsformen:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Wahrscheinlichkeitstheorie
• Wahrscheinlichkeiten:
o das Verhältnis zwischen günstigen Ereignissen: möglichen Ereignissen
o wird meist als P(A) dargestellt (oder anderen Variablen in der Klammer)
o ergibt eine Zahl im Rahmen 0 ≤ P(A) ≤ 1 oder eine Prozentzahl zwischen 0 und 100
o Veranschaulichungen von Ereignissen durch Venn-Diagramm
• disjunkt/nicht disjunkt:
o disjunkt = beide Teilmengen haben keine Schnittmenge und sind immer abhängig voneinander
es kann klare Voraussage gemacht werden, wenn nicht A, dann B
o nicht disjunkt = beide Teilmengen haben eine Schnittmenge und können voneinander abhängig sein
(was jedoch nicht zwingend sein muss)
• Zusammen ∪/Gemeinsam ∩:
o ∪ = Zusammen, also werden alle Elemente von beiden Gruppen zusammengenommen
Würfelgruppe A (2, 4, 5, 6), Würfelgruppe B (1, 3, 4, 5), Gruppe A ∪ B (1, 2, 3 , 4, 5, 6)
Eselsbrücke: ∪ für Topf wo man alles hineinwerfen kann, ∪ wie unit = Verband oder Einheit
o ∩ = Gemeinsam, also nur die Elemente die gemeinsam in beiden Gruppen vorkommen
Würfelgruppe A (2, 4, 5, 6), Würfelgruppe B (1, 3, 4, 5), Gruppe A ∩ B (4, 5)
Eselsbrücke: ∩ leben gemeinsam unter demselben Dach
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr e
ar
.
.
ac ac
k e r- s o ft w a
• -s o ker ft w
Additionstheorem:
o = die Wahrscheinlichkeit, das A oder B, oder beide gemeinsam eintreten ergibt sich aus der
Wahrscheinlichkeit von A und B, abzüglich der Wahrscheinlichkeit, dass beide Ereignisse gemeinsam
eintreten (Schnittmenge)
Schnittmenge muss abgezogen werden, da ansonsten ein Teil doppelt gezählt wird
o sind die Ereignisse disjunkt, entfällt das Abziehen der Schnittmenge, da es diese nicht gibt
disjunkte Ereignisse: P(A u B) = P(A) + P(B)
➔ da sich die Ereignisse gegenseitig ausschliessen wenn sie disjunkt sind, können sie ja
nicht gemeinsam auftreten
• komplementäre Wahrscheinlichkeit:
o ist die Wahrscheinlichkeit, dass ein Ereignis nicht eintritt
o entspricht dem Wert von 1 – P(A)
o Wahrscheinlichkeit entspricht der „Chance“, dass das gezogene Ereignis zur Schnittmenge gehört
o Wahrscheinlichkeit entspricht der „Chance“, dass das gezogene Ereignis zur Schnittmenge gehört
o Die Wahrscheinlichkeit des gemeinsamen Auftretens von A und B ist gleich der
Wahrscheinlichkeit für das Auftreten von A, multipliziert mit der Wahrscheinlichkeit von B,
wenn A schon eingetreten ist
• bedingte Wahrscheinlichkeit:
o = Wahrscheinlichkeit, dass B auftritt, wenn A bereits aufgetreten ist
o ergibt sich aus der gemeinsamen Wahrscheinlichkeit von A und B, geteilt durch die
Wahrscheinlichkeit von A
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a Disjunktheit vs. Unabhängigkeit: k e r- s o ft w a
o disjunkt = abhängig
o nicht disjunkt ≠ unabhängig, was heisst, das nicht disjunkte Ereignisse trotzdem abhängig
voneinander sein können
o das ist der Fall wenn:
o Ereignisse sind unabhängig, wenn das Eintreten des einen Ereignisses die Wahrscheinlichkeit des
Eintretens des anderen Ereignisses nicht beeinflusst.
o Zwei Ereignisse sind unabhängig, falls das Eintreten des einen Ereignisses keinerlei
Effekt auf die Wahrscheinlichkeit für das Eintreten des anderen Ereignisses hat.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Satz von Bayes:
o Mithilfe des Satzes von Bayes, lassen sich bedingte Wahrscheinlichkeiten errechnen
o in unserem Fall hauptsächlich für die Frage benutzt, wie wahrscheinlich eine Person bei einem
positiven Testergebnis auch Krank ist P(K|T)
o folgende Werte spielen eine Rolle:
= Wahrscheinlichkeit, dass Person krank ist
= Wahrscheinlichkeit, dass Test bei Erkrankung positiv ist
= Wahrscheinlichkeit, dass Test negativ bei nicht Erkranken
Wahrscheinlichkeitsverteilungen
• Zufallsvariablen
o Eine Zufallsvariable ist eine Funktion, die Ereignissen reelle Zahlen zuordnet
o Zufallsvariablen können diskret oder stetig sein
➔ Diskret: Ereignisse fallen in Kategorien -Binomialverteilung
➔ Stetig: Werte können beliebig genau sein -Normalverteilung
Wahrschinlichkeitsfunktion
• diskrete Zufallsverteilung: (diskret)
o es können nur bestimmte Werte Aufteilen wie Alter,
Würfelzahlen oder Einkommenskategorien
o für jeden Wert besteht eine gewisse Wahrscheinlichkeit
o alle Wahrscheinlichkeiten aufsummiert ergeben 1
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
o Varianz von Wahrscheinlichkeitsverteilungen (σ2) = Mass zur Interpretation von Streuung der
Werteverteilung
-> entspricht der quadrierten Differenz der Möglichkeiten und des Erwartungswertes, Multipliziert
mit ihrer entsprechenden Wahrscheinlichkeit
o Verteilungsfunktion = Angabe, wie viel (in Prozent) vom ganzen, bis zu einem bestimmten Wert
bereits abgedeckt ist
-> entspricht der Summe aller Wahrscheinlichkeiten bis zum erhobenen Wert
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Binomialverteilung:
o betrachtet eine Zufallsverteilung die nur zwei Werte annehmen kann (Gewinn oder Verlust)
diese Variablen bezeichnet man als binäre oder dichotome Variablen
o Kurzbeschreibung der Binomialverteilung: B (n; π)
o n = Anzahl der Versuche
o x = Anzahl der Erfolge
o π = Erfolgswahrscheinlichkeit
o Praktisches: sollte nach der Wahrscheinlichkeit von maximal 3 Erfolgen gefragt werden, ist es nötig,
die Summe von drei Binomialverteilungen mit x = 1, 2, 3 zu errechnen.
Ist nach weniger als 48 Erfolgen (von 50 Versuchen) gefragt, wird ähnlich vorgegangen, nur dass man
in diesem Fall von der Gegenwahrscheinlichkeit ausgeht, also 1-P(50)-P(49)-P(48)
• stetige Zufallsvariablen:
o haben die Charakteristik, dass es eine unbegrenzte Anzahl an Werten geben
kann
o einzelnen Werten kann man keine Wahrscheinlichkeit zuordnen, weshalb ihre
Wahrscheinlichkeiten nur in Intervallen berechnet werden können = Dichte
o da stetige Variablen überabzählbar viele Werte annehmen können, kann
einzelnen Werte keine positive Wahrscheinlichkeit zugeordnet werden
o -> Wahrscheinlichkeit eines einzelnen reellen Wertes geht gegen Null
o Darum kann man stetigen Zufallsvariablen nur Intervalle mithilfe der
Dichtefunktion zugeordnet werden
man rechnet wie Wahrscheinlich es ist, das der Wert zu den höheren
95 % gehört
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Normalverteilung:
o ist eine unimodale, symmetrische Kurve
o zeigt die Wahrscheinlichkeitsverteilung einer bestimmten
Grösse anzeigt ( Mittelwerte, ect.)
o diese Wahrscheinlichkeiten müssen mithilfe eines Integrals
über ein Intervall berechnet werden
in unserem Fall können wir alle Werte aus einer z-Wert
Tabelle ablesen (nur bei Standardnormalverteilungen)
o Notation: N(μ, σ2), wobei μ für den Mittelwert und σ2 für die
Standartabweichung steht
o Die Verteilungsfunktion der Normalverteilung kann
nicht als einfache Formel ausgedrückt werden.
o Deshalb werden die Flächenanteile der
Standardnormalverteilung tabelliert.
o Flächenanteile unter Normalverteilungen mit beliebigen
Werten für µ und σ 2 können mit Hilfe der z-
Transformation auf die tabellierten Flächenanteile der
Standardnormalverteilung zurückgeführt werden ⇒ nur
eine Tabelle nötig.
• Standardnormalverteilung:
o wenn eine Normalverteilung z-Transformiert wird, ergibt sie die Standardnormalverteilung
o z-Transformation: -> Verteilung
-> Daten
o Standardnormalverteilungen haben die Eigenschaft das μ = 0 und σ2 = 1 ( rote Kurve, Grafik oben)
o daraus resultiert die Notation: N(0, 1)
o z-Werte haben den Mittelwert 0 und die Standardabweichung 1
o Wenn die Rohwerte normalverteilt sind, folgen die z-Werte einer Standardnormalverteilung.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Stichproben und Grundgesamtheit
• Grundgesamtheit:
o umfasst alle potenziell untersuchbaren Einheiten, die ein
gemeinsames Merkmal aufweisen ( alle Lehrer aus Zürich)
o eine Stichprobe Umfasst eine Teilmenge der Grundgesamtheit
• einfache Zufallsstichprobe:
o alle Mitglieder der Grundgesamtheit haben dieselbe Chance
gezogen zu werden
o es ist deshalb notwendig, dass alle Mitglieder der
Grundgesamtheit bekannt sind
o die Auswahl muss zufällig sein Lose aus Urne, computergenerierte Zufallszahlen, ect.
• Stichprobenverteilung:
o eine theoretische Verteilung, die eine mögliche Ausprägung eines
statistischen Kennwertes (Mittelwert, Anzahl Erfolge, Median,
Varianz, IQR, ect.) und deren Auftretenswahrscheinlichkeit beim
Ziehen von vielen Zufallsstichproben beschreibt.
o Jeder dieser Kennwerte besitzt seine eigene
Stichprobenverteilung zB Verteilung aller Mittelwerte von
allen Stichproben
o hilft z.B. dabei, einen „wahren“ Mittelwert zu finden, da
Mittelwerte aus Stichproben immer eine gewisse Ungenauigkeit
bergen, da die Möglichkeit besteht, dass man es gerade mit einer
alten/jungen Stichprobe zu tun hat
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Zentraler Grenzwertsatz
Zentraler Grenzwertsatz: Die Verteilung einer Summe (und damit auch eines Mittelwertes) von n
unabhängig und identisch verteilten Zufallsvariablen geht mit wachsendem Stichprobenumfang n in eine
Normalverteilung über.
Aufgrund des zentralen Grenzwertsatzes sind wir in der Lage, auch dann Aussagen über die Form der
Stichprobenverteilung des Mittelwerts zu machen, wenn wir keine normalverteilte Population
vorauszusetzen können – in diesem Fall aber nur, wenn der Stichprobenumfang groß ist.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
•
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Konfidenzintervall (KI):
o wird immer nach einem bestimmten Sicherheitsgrad
errechnet ( 95%, 99%, 99.9%)
o ein Konfidenzintervall (KI) von 95% beinhaltet/bedeckt mir
der Wahrscheinlichkeit von 95% den wahren Mittelwert
-> daraus ergibt sich, dass das KI bei einem höheren
Sicherheitsgrad grösser wird
• Man unterscheidet zwischen Punkt- und
Intervallschätzung. Beispiele für
Punktschätzer sind x¯ für µ und s 2 für σ 2 .
Zu jedem Punktschätzer kann man ein
Konfidenzintervall kostruieren, um einen
Eindruck von der Unsicherheit der Schätzung
zu erhalten.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
o Praktisches:
▪ je kleiner σ2, umso „enger“ fällt das Konfidenzintervall aus
▪ je grösser n, umso „enger“ fällt das Konfidenzintervall aus, da n relevant für die Schätzung
von s x̅ ist
▪ je kleiner α, umso „breiter“ fällt das Konfidenzintervall aus, da eine erhöhte Sicherheit
gegeben werden muss, dass der wirkliche Mittelwert sich im KI befindet
• Das Konfidenzintervall gibt durch seine Lage und Breite einen Eindruck über den Wert und die
Unsicherheit der Schätzung.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Tests und Konfidenzintervalle
Die durchschnittliche Leistung von Schülern, die nach der neuen Lehrmethode unterrichtet werden,
wird als µ bezeichnet.
1 - β = power
• Signifikanzniveau:
o α bezeichnet die festgelegte Obergrenze für die Wahrscheinlichkeit für einen Fehler 1. Art
-> üblicherweise liegt α bei 5%, wobei auch 1% verwendet werden kann (abhängig vom Test)
o der Fehler 2. Art kann jedoch nicht direkt mathematisch kontrolliert werden
• Prüfgrösse:
um zu entscheiden ob H0 angenommen oder abgelehnt werden darf, wir aus den Daten der
Stichprobe eine Prüfgrösse berechnet, die den interessierenden Unterschied wiederspiegelt
-> die Verteilung der Prüfgrösse muss bekannt sein, weshalb es sich anbietet, eine
standardnormalverteilte Grösse zu verwenden
Die Prüfgröße spiegelt den interessierenden Unterschied wieder (z.B. Verbesserung der
durchschnittlichen Leistung durch neue Lehrmethode).
Die Verteilung der Prüfgröße unter der Nullhypothese muß zur Berechnung des Tests
bekannt sein (aus theoretischen Annahmen oder Simulationen am Computer).
Wir verwenden oft z-Werte als Prüfgrösse
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
•
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Ablehnungsbereich:
o wenn sich unsere Prüfgrösse im Ablehnungsbereich befindet, darf H0 abgelehnt werden, was
bedeutet, dass H1 angenommen wird
o die Form des Ablehnungsbereiches hängt davon ab, ob die Alternativhypothese gerichtet (ein
kritischer Wert) oder ungerichtet (zwei kritische Werte) ist.
o Beim Computer haben wir den p-Wert und wir lehnen H0 ab, wenn der p-Wert kleiner
ist als α
o Der zweiseitige Test hat aber weniger Power zum Nachweis einer Verbesserung:
-> Beispiele ab Folie 183
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Signifikanz und praktische Relevanz:
o ein signifikantes Testergebnis bedeutet: es ist unwahrscheinlich, dass ein Unterschied dieser Grösse
nur durch Zufall zustande gekommen ist
o Jeder noch so kleine Unterschied kann z.B. mit extrem grossen Stichproben als signifikant
nachgewiesen werden
o Statistische Signifikanz darf nicht mit praktischer Relevanz verwechselt werden!
o Zur Größe des Unterschieds ⇒ Effektstärke
• p-Wert:
o entspricht der Wahrscheinlichkeit, diesen oder einen (in Richtung der Alternativhypothese)
extremeren Wert für die Prüfgrösse unter der Nullhypothese zu beobachten
-> eigentlich gibt der p-Wert an, wie hoch das „Signifikanzniveau“ der erreichten Prüfgrösse
ist
o zur Testentscheidung kann der p-Wert mit α verglichen werden, wobei man H0 ablehnen kann wenn
p-Wert < α
• Power (Teststärke)
o gibt an, mit welcher Wahrscheinlichkeit ein tatsächlicher Unterschied auch entdeckt wird
o Power ist die Wahrscheinlichkeit, dass man H0 ablehnt, wenn H1 zutrifft. Deshalb kann man sagen
das Power = 1 – β
o α bezeichnet die Wahrscheinlichkeit eines Fehlers 1. Art (man lehnt H0 ab, obwohl sie
eigentlich zutrifft).
o β bezeichnet die Wahrscheinlichkeit eines Fehlers 2. Art (man behält H0 bei, obwohl
eigentlich H1 zutrifft).
o 1 − β bezeichnet die Power (man leht H0 zu Recht ab, wenn H1 zutrifft).
o Die Power gibt also an, mit welcher Wahrscheinlichkeit ein tatsächlicher Unterschied
auch entdeckt werden kann.
o Praktisches:
▪ Power steigt bei grösserem Stichprobenumfang
▪ Power steigt bei grösserer Effektstärke
▪ Power sinkt bei tieferem Signifikanzniveau
▪ der einseitige Test hat eine höhere Power als der zweiseitige
▪ Die Power steigt bei größerem Unterschied |µ − µ0|. Große Effekte sind leichter
nachzuweisen.
▪ Wie bereits besprochen, hängt die Power eines statistischen Tests nicht nur von der
Effektstärke (z.B. Größe des Unterschieds, Stärke des Zusammenhangs) ab,
sondern vor allem auch von der Stichprobengröße.
▪ Größere Stichproben erlauben bessere Schätzung ⇒ Tests haben höhere Power.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Standardisierte Effektstärke
• Für weitere Berechnungen wird aus dem inhaltlich interessierenden
Unterschied (z.B. Verbesserung um 3 Punkte) die standardisierte
Effektstärke (= interessierender Unterschied in
Standardabweichungen) berechnet:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• ein-Stichproben t-Test:
o ist vergleichbar mit dem z-Test, nur dass beim z-Test die
Populationsstreuung bekannt sein muss, was in der
Regel nicht der Fall ist
o beide Tests überprüfen die Hypothese H0: μ = μ0
o t-Verteilung wird über Freiheitsgrade genauer festgelegt
-> Freiheitsgrad = degree of freedom = df
o für grosse Stichprobenumfang (n > 30) ist die t-
Verteilung der Standardnormalverteilung sehr ähnlich
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr e
ar
.
.
ac ac
k e r- s o ft w a
• -s o ker ft w
Konfidenzintervall (KI) des t-Tests:
o ist dem KI des z-Tests sehr ähnlich, abgesehen davon, dass der Standardfehler des Mittels σ x̅ durch sx
ersetzt wird und nun der t-Wert aus einer (anderen) Tabelle abgelesen wird (vorher z-Wert)
o daraus ergibt sich:
-> Beispiel auf Folie 222
o Hypothesen:
-> es gibt kein μ0 mehr, da die Mittelwerte hier
stets miteinander verglichen werden
o Prüfgrösse:
▪ die Prüfgrösse t ergibt sich aus der Differenz der Mittelwerte x1 und x2
geteilt durch die Standartabweichung der Mittelwertdifferenz
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• t-Test für verbundene Stichproben (Beobachtungspaare):
o es werden Beobachtungspaare untersucht, wobei eine Beobachtung in die erste und die andere in
die zweite Gruppe gehört
o Beobachtungspaare können sein:
▪ Ehepaare oder Geschwister
▪ Testergebnisse für linkes/rechtes Auge derselben Person
▪ Messwiederholungen, also Messung vor und nach einer Behandlung
o Es wird davon ausgegangen, dass Beobachtungen eines Paares sich ähnlicher sind also voneinander
unabhängige Beobachtungen
o Hypothesen:
-> es gibt kein μ0 mehr, da die Mittelwerte
hier stets miteinander verglichen werden
-> Hypothesen sind gleich wie bei
unabhängigen Stichproben
o Differenzen:
▪ da uns der Unterschied zwischen zwei verschiedenen Messungen interessiert, sind die
Differenzen (di) von xi1 und xi2 interessant für weitere Berechnungen
▪ die Nullhypothese gleicher
Mittelwerte entspricht dann den
Differenzen mit Mittelwert 0
o Prüfgrösse:
▪ die Prüfgrösse (t) ergibt sich aus dem Quotient vom
Mittelwert der Differenzen und der Standartabweichung
der Differenzen, multipliziert mit der Wurzel der
Stichprobengrösse
▪ die Standartabweichung der Differenzen ähnelt (vom
mathematischen Weg) stark der Varianz
▪ Beispiel ab Folie 244
• Grosse Stichproben:
o alle besprochenen t-Tests lassen sich auch bei kleinem Stichprobenumfang anwenden, wobei die
Annahme der Normalverteilung der Werte innerhalb der Gruppe erfüllt sein muss
o die Normalverteilung der Gruppenwerte ist ab einer Stichprobengrösse von n < 30 keine Bedingung
mehr, da es sich von alleine ergibt
o Wenn der Stichprobenumfang ausreichend groß ist, halten die t-Tests das festgelegte
Signifikanzniveau aber auch dann ein, wenn die Werte in den Gruppen nicht normalverteilt
sind.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Parametrische Tests
Parametrische Tests machen bestimmte Verteilungsannahmen.
Beispielsweise gehen t-Tests von normalverteilten Werten in den Gruppen aus.
• Rang-Tests
Idee von Rang-Tests: Anstatt die Werte der Personen direkt zu vergleichen wird nur die Reihenfolge der
Werte berücksichtigt.
Beispiel: Haben die Personen, die das Medikament bekommen haben, längere Reaktionszeiten? Dann
haben ihre Reaktionszeiten die höheren Ränge.
Der Rang ist die Platzierung eines Wertes, wenn man alle Werte (aus beiden Gruppen) in aufsteigender
Reihenfolge sortiert.
Aus den Rang-Summen T1 und T2 kann die Prüfgröße W berechnet werden.
Aus deren exakter Verteilung oder mithilfe einer Normalverteilungs-Approximation
(bereits ab n1 oder n2 > 10) lassen sich p-Werte bestimmen.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
χ 2 -Unabhängigkeitstest
• χ² Unabhängigkeitstest:
o χ² wird „chi-quadrat“ ausgesprochen
o es wird getestet ob die Variablen voneinander unabhängig H0 sind oder nicht H1
o die Variablen werden mit A und B bezeichnet und in Kategorien Ai und Bj eingeteilt
-> i bezeichnet die Zeile, während j für die Spalte steht
o die erwartete Häufigkeit mij ergibt sich aus dem Produkt von ni. und n.j geteilt durch n
▪ bei den Quotienten handelt es sich um die quadrierte Differenz des wirklichen Wertes und
dem erwarteten Wert, geteilt durch die erwartete Wert
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Kovarianz (sxy):
o die Stichprobenvarianzx beschreibt die Streuung der Werte in Richtung einer Variablen x
o die Stichprobenkovarianz sxy beschreibt die Streuung der Werte in Richtung zweier Variablen
x und y
-> zeigt den linearen Zusammenhang zwischen zwei Variablen
o die Kovarianz wird wie folgt berechnet:
o Eigenschaften:
▪ kann Werte von +∞ bis - ∞ einnehmen
▪ ist kaum für Vergleiche geeignet, da Wert stark von Messeinheit abhängt
▪ Die Kovarianz ist symmetrisch, d. h.: sxy = syx
▪ Die Kovarianz ist von den Messeinheiten beider Variablen abhängig.
▪ Sie ist deshalb zur Beschreibung des Zusammenhangs unterschiedlicher Merkmale
wenig geeignet.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
-> die grosse Formel auf der rechten Seite entspricht der kleinen auf der linken, mit dem
Unterschied, dass die rechte ausgeschrieben ist
o die einfachste Art über diesen Weg zu rechnen, besteht daraus eine Wertetabelle zu erstellen, in der
alle gesuchten Werte abzulesen sind, damit man sie nur noch in die Formel einsetzen kann
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr e
ar
.
.
ac ac
k e r- s o ft w a
• -s o ker ft w
Korrelation und Kausalität
o aufgrund einer Korrelation kann nicht auf einen kausalen Zusammenhang geschlossen werden
-> da die Richtung nicht bekannt ist
-> da man nicht weiss, ob eine Drittvariable den Zusammenhang verursachen
Rangkorrelation
ODER
o Bindungen sind Werte die mehrfach auftreten. Falls Bindungen auftreten, muss die komplexe
Formel zur Berechnung des Rangkorrelationskoeffizienten benutzt werden
-> Für den Fall, das zwei Werte den Rang 2 haben (was bedeutet, dass Rang 3 übersprungen wird
und der nächste Rang 4 wäre), berechnen wir den „Durchschnittsrang“ der Ränge, die eigentlich
hätten vergeben werden sollen. Anschliessend gibt man beiden Werten diesen Rang, also 2.5.
Dasselbe wird bei mehreren Werten mit demselben Rang durchgeführt
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
lineare Einfachregression:
o will den Zusammenhang zwischen den Ergebnissen von zwei Tests durch eine Gerade beschreiben
o Gleichung einer Regressionsgerade:
o die
Gerade ist eine vereinfachte Darstellung des Zusammenhangs von x und y
o tatsächliche Werte der einzelnen Personen können zufällig nach oben oder unten abweichen (ε)
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Einfachregression
• Man hat Werte von zwei Tests von zB 5 Vpn und will ihren Zusammenhang grafisch darstellen durch
eine Gerade
• Achsenabschnitt ist β0
• Steigung ist β1
➔ Achsenabschnitt und Steigung werden auch als Regressionsparameter oder
Regressionskoeffizient bezeichnet:
• Die Gerade ist eine vereinfachte Darstellung des Zusammenhangs zwischen x und y (lineare
Approximation)
• Man kann unendlich viele Geraden, die man durch die „Punktewolke“ legen könnte
• Ziel der Einfachregression ist es, diejenige Gerade zu finden, die die Daten im Sinne des sog.
"Kleinstquadratschätzers" optimal darstellt
• Um eine Gerade zu finden, benötigt man ein Kriterium. Für die Einfachregression heisst dieses
Kleinst-Quadrate-(KQ)-Kriterium.
Es erfüllt folgende zwei wichtige Aspekte
➔ Die Abweichungen der Daten und der Gerade mitteln sich zu null.
➔ Die quadratischen Abweichungen zwischen Daten und Gerade sind minimal
Eine mit dem KQ-Kriterium ermittelte Gerade ist eine "lineare Bestapproximation".
• kleinste-Quadrate-Schätzung (QK-Schätzer):
o damit gerade gefunden werden kann, die am nächsten an allen Punkten (grafisch betrachtet)/Daten
liegen, wird die Summe der kleinsten quadratischen Abweichung vom Wert yi zu dem
vorhergesagten yi-Dach gesucht
o die einfachste Art diese Formel verwenden, besteht darin, eine Wertetabelle zu erstellen in der alle
gesuchten Werte abzulesen sind, damit man sie nur noch in die Formel einsetzen kann
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Vorhersagegeleichung:
• Nicht extrapolieren!
Eine Extrapolation ist die Prognose für Personen, deren Werte ausserhalb des untersuchten
Wertebereichs liegt
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Residuen (εi):
o geben die Differenz zwischen den wirklich gemessenen/erhobenen Werten und den durch die
Regression berechneten Werte an
o εi kann somit auch als „Varianz die mit Regressionsmodell nicht erklärt werden kann“ bezeichnet
werden
o dadurch entsteht für die tatsächlich beobachteten Werte folgende Formel:
o Praktisches:
▪ die Summe aller Residuen muss null ergeben
▪ je kleiner die Summe der quadrierten Residuen geteilt durch ihre
Freiheitsgrade (= Standardschätzfehler) umso genauer ist das
Regressionsmodell
o
• Standardschätzfehler (sε-Dach):
o gibt an, wie weit im Mittel die beobachteten/gemessenen y-Werte von der Regressionsgeraden
abweichen
o die Formel des Standardschätzfehlers ähnelt stark der Formel für die Standardabweichung:
• Streuungszerlegung:
o teilt die Abweichung von den einzelnen y-Werte (yi) zum Mittelwert (y-quer) in zwei Teile auf:
▪ die Differenz zwischen dem errechneten y-Wert aus dem Regressionsmodell (yi-quer) und
dem Mittelwert der gemessenen y-Werte (y-quer)
▪ die Differenz zwischen dem gemessenen y-Wert (y-quer) und dem aus dem
Regressionsmodell errechneten y-Wert (yi-quer).
o aus diesen drei Differenzen lassen sich Quersummen bilden, die für die Weiterverarbeitung der
Daten relevant sein werden
o die drei Quersummen lauten:
gesamt
erklärt
nicht erklärt
R.Wespi Seite 30 von 32
hange E hange E
XC di XC di
F- t F- t
PD
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Bestimmtheitsmass (R2): Determinationskoeffizient
o gibt den Anteil der durch das Regressionsmodell erklärten Streuung verglichen an der gesamten
Streuung an (wird als Prozent-/Dezimalzahl angegeben)
o Praktisches:
▪ je kleiner die nicht durch Regressionsmodell erklärte Rest-Streuung (Quadratsumme von εi),
umso grösser fällt die durch das Regressionsmodell erklärte Streuung aus, wodurch das
Bestimmtheitsmass (R2) ebenfalls grösser wird
▪ in der einfachen linearen Regression entspricht das Bestimmtheitsmass (R2) der quadrierten
Korrelation zwischen x und yxy(r 2)
▪ dasselbe trifft für die Korrelation zwischen beobachtetem und vorhergesagtem Wert y und
y-Dach (ryy-Dach) zu, was für uns bisher jedoch nicht wichtig war
▪ Das R2 ist das Standardmass zur Beurteilung der Güte einer
Regressionsgleichung.
▪ In der Einfachregression ist die identisch mit der Beurteilung der Güte der x-
Variable zur Vorhersage der y-Variable.
▪ Multipliziert man das R2 mit 100%, so kann man die Aussage treffen, wieviel
Varianz die x-Variable an der y-Variable erklärt.
▪ In der Praxis sucht man oft Prädiktoren die eine hohe Erklär- oder Prognosekraft
haben (z.B. wenn es einfach/kostengünstig ist den Prädiktor zu erheben, aber nicht
die Kriteriumsvariable).
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Tests und Konfidenzintervalle
• In der Einfachregression betrifft die wichtigste Frage, ob der Prädiktor (x) das Kriterium (y)
vorhersagen kann. Dies kann in dreierlei Form getestet werden.
o Man kann anhand des Standardfehlers des Steigungskoe-zienten testen, ob der
Steigungskoe-zient signifikant von null verschieden ist.
o Man kann testen, ob das Konfidenzintervall des Steigungskoe-zienten die null enthält.
o Man kann testen, ob der Determinationskoeffzient signifikant von null verschieden ist.
In der Einfachregression ergeben alle drei Tests immer dasselbe Ergebnis.
Ergibt die Testung ein signifikantes Ergebnis, so kann man schliessen, dass der Prädiktor einen
linearen Zusammenhang mit dem Kriterium hat, der verschieden von null ist.
o lasst euch nicht von den komplizierten/komplexen Formeln verwirren. In der Prüfung
werden die meisten Werte bereits gegeben sein, wonach die Berechnung der Prüfgrösse ein
Kinderspiel ist.
o Beispiel auf Folie
• Beispiel Berechnung
Es soll auf dem 5%-Niveau getestet werden, ob die Steigung signifikant von 0 abweicht.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Konfidenzintervall für β1
Analog z.B. zum Einstichprobentest (s. Folie 229 in Teil 1 der Statistik 1) kann man ein
Konfidenzintervall für den Steigungskoeffzienten anhand des geschätzten Parameters und seines
Standardfehlers bestimmen.
Linearität: Die Daten lassen sich durch ein lineares Modell beschreiben.
Homoskedastizität: Die Varianz der zufälligen Abweichungen ist überall gleich gross (aka
Varianzhomogenität)
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Test 1: Residuenplot Streudiagramm von yˆ gegen εˆ Grafische Beurteilung der Breite der Streuung
(von links nach rechts): Ist sie konstant, gilt die Homoskedastizität.
Partialkorrelation
• Drittvariablen:
o sind verantwortlich für Scheinkorrelationen
-> je mehr Polizisten, umso höher ist die Kriminalität, wobei die Stadtgrösse (Störvariable) nicht
beachtet wird
o Scheinkorrelationen können aufgedeckt werden, indem ihre Störvariable im Versuch durch
den Versuchsaufbau ausgeklammert wird, oder mathematisch aus den Daten
herauspartialisiert wird
o Z.B. kann man als Versuchsleiterin dafür sorgen, dass in allen Bedingungen
dieselbe Raumtemperatur herrscht.
o Drittvariablen können auch durch Randomisierung kontrolliert werden, indem sie
gleichmässig auf die verschiedenen Versuchsgruppen verteilt werden.
o Scheinkorrelationen können sich ergeben, wenn der Zusammenhang zweier
Variablen x0 und x1 durch eine weitere Variable x2 verursacht wird.
o Also ohne Experiment weiterhin keine Kausalaussagen möglich.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Partialkorrelation
Die Partialkorrelation bietet eine Möglichkeit, den Zusammenhang zwischen der Abstraktionsfähigkeit
x0 und der sensomotorischen Koordinationsfähigkeit x1 um den Einfluss des Alters x2 zu bereinigen.
➔ Man sagt auch x2 wird herauspartialisiert
➔ Formal schreibt man dann:
Die partielle Korrelation rx0x1·x2 lässt sich mithilfe der bivariaten Korrelationen zwischen den
beteiligten Variablen errechnen:
Die Partialkorrelation kann man darstellen anhand des Pfaddiagramms oder des
Venn-Diagramms
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Semipartialkorrelation
Neben der Partialkorrelation spielt in der multiplen Regression, die wir als nächstes behandeln werden,
die Semipartialkorrelation eine wichtige Rolle. Konzeptionell sind beide Korrelationen sehr ähnlich.Der
Unterschied besteht darin, dass die Drittvariable nur aus einer Variablen herauspartialisiert wird und
nicht aus beiden. Für die Semipartialkorrelation macht es oft Sinn (ist aber nicht zwingend notwendig),
zwischen abhängigen und unabhängigen Variablen zu unterscheiden.
Beispiel:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
•
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Partielle Korrelation (Variante 1):
o bei dieser Variante werden die Residuen aus der Regression von x0 und x2 sowie die Residuen aus
der Regression von x1 und x2 berechnet
o anschliessend wird die Korrelation dieser Residuen nach Bravais-Pearson berechnet, woraus die
partielle Korrelation von x0 und x1 entsteht (rx x .x ).
0 1 2
Multiple Regression
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
o bei der multiplen linearen Regression wird eine y-Variable (AV) mit mehreren x-Variablen
(Einflussgrössen/UV) in Verbindung gesetzt. Dabei hat jedes „x“ seinen eigenen Einfluss auf „y“,
welcher mit dem entsprechenden „β“ dargestellt wird. In diesem Fall gilt nichtmehr, dass die
Korrelation zwischen x und y dem entsprechenden Steigungskoeffizienten entspricht.
-> durch die multiple Regression können Drittvariablen direkt im Modell kontrolliert werden, indem
man ihren Einfluss zu einer eigenen Variabel macht.
Ziel ist die Vorhersage einer abhängigen Variablen durch einen Satz von relevanten
Prädiktoren. Dabei wird die Korrelation zwischen den Prädiktoren berücksichtigt, d.h. es
wird vermieden, dass redundante Informationen verwendet werden. Dies erlaubt einen
besseren Vergleich der Bedeutsamkeit einzelner Prädiktoren zur Vorhersage.
In der multiplen Regression beinhalten die Steigungskoeffzienten weitere Informationen, ähnlich dem
Prinzip der Partialkorrelation: Sie geben den Einfluss der jeweiligen Prädiktoren auf das Kriterium (y)
an, wenn für die verbliebenen Prädiktoren kontrolliert wird.
• zwei Einflussgrössen:
o bei der multiplen Regression lassen sich unendlich viele verschiedene Variablen einbringen, wobei in
unserem Fall stets zwei verwendet werden.
o die Modellgleichung dazu:
-> es fällt auf, dass die Gleichung lediglich mit einem β2 und einem xi2 ergänzt wurde
o dadurch, dass mehr Faktoren in das Regressionsmodell kommen, werden die Formeln für
die entsprechenden Grössen etwas komplexer:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Interpretation:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
•
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Standardschätzfehler für die multiple Regression:
o ergibt sich aus der Summe der quadrierten Residuen geteilt durch die
Anzahl Probanden minus die Anzahl der Probanden minus 1
Wie in der einfachen linearen Regression kennzeichnet der
Standardschätzfehler die mittlere Abweichung der
vorhergesagten Werte yˆi von den tatsächlich beobachteten
Werten yi .
Individuelle Abweichungen werden weiterhin als Residuen
bezeichnet:
• Bestimmtheitsmass (R2) und korrigiertes Bestimmtheitsmass (R2korr ) in der multiplen linearen Regression:
o das normale Bestimmtheitsmass (R2) lässt sich gleich berechnen wie bei der einfachen linearen
Regression (siehe Seite 34)
o da R2 für jede Einflussgrösse im Regressionsmodell grösser wird, muss das Bestimmtheitsmass
korrigiert werden um seine Aussagekraft nicht zu verlieren. Dabei wird die Stichprobengrösse (n)
und die Anzahl der Einflussgrössen (p) mitberücksichtigt:
o Der Wert von R2 steigt immer weiter an, wenn zusätzliche Einflussgrössen ins Modell
aufgenommen werden. Bei der Beurteilung der Güte des Modells sollte aber auch
dessen Komplexität berücksichtigt werden, da ein zu komplexes Modell zwar die Daten
aus der Stichprobe gut beschreibt, aber nicht auf die Grundgesamtheit übertragbar ist.
Der korrigierte Determinationskoe-zient R2 korr berücksichtigt deshalb auch den
Stichprobenumfang n und die Anzahl der Einflussgrössen p:
• F-Test: Omnibustest
o gilt als allgemeiner Signifikanztest, der überprüft, ob ein oder mehrere Unterschiede/Grösse im
getesteten Regressionsmodell signifikant ausfallen
o Können die Voraussetzungen des Regressionsmodells als erfüllt gelten, kann man die
globale Nullhypothese
Oder äquivalent R2 = 0
o dabei wird das Bestimmtheitsmass mit dem Stichprobengrösse (n) und der Anzahl Einflussgrössen
(p) verrechnet
o dieser Test gibt lediglich an, ob sich im gesamten Modell eine signifikante Grösse befindet, wobei
daraus nicht ersichtlich ist, wo dieser liegt.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Multiple Regression: Spezifische Themen
• Multikollinearität
Eines der grössten Probleme in der praktischen Anwendung der multiplen Regressionsanalyse tritt
auf, wenn Prädiktorvariablen hoch miteinander korrelieren. In diesem Fall beinhalten sie zum grossen
Teil redundante Informationen zur Vorhersage der Kriteriumsvariable. Dieses Problem wird
Multikollinearität genannt.
Typische Konsequenzen von Multikollinearität: Instabile, kleine Steigungskoe-zienten βˆ j
Grosse Standardfehler der Steigungskoeffizienten (s βˆ j )
Mögliche Lösungsmöglichkeiten: Kombination von Prädiktorvariablen (z.B. mehrere Intelligenztests
aufsummieren):
Redundante Prädiktoren eliminieren Alternative Schätzverfahren verwenden (kommt in der letzten
Vorlesungsstunde: „Lasso“)
Der V IF liegt zwischen 0 und +∞. Als Daumenregel weist ein V IF > 10 auf ein Multikollinearitäts-
problem für den jeweiligen Prädiktor hin.
Vorwärtsselektion:
R.Wespi Seite 44 von 32
hange E hange E
XC di XC di
F- t F- t
PD
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac
k e r- s o ft w a Ziel: Auswahl von einem relevant Set von q Prädiktoren aus einem grossen Pool von insgesamt pa c k e r - s o ft w a
Prädiktoren.
Als letzte verbliebene Variable würde nun x2 in das Modell aufgenommen werden. Ob x1 und x2 in
das Modell tatsächlich aufgenommen würden, liegt an dem vorher festgelegten Kriterium, wie z.B.
dem F-Test. Hier sollte nur das Vorgehen der Vorwärtsselektion demonstriert werden, wir berechnen
an dieser Stelle nicht diese Tests. Wichtige Anmerkung: Obwohl x2 eine grössere Korrelation zu y hatte
als x1, wurde trotzdem x1 in das Modell gewählt. Dies liegt daran, dass die Korrelation der Prädiktoren
untereinander berücksichtigt wurde (hier: zu x3). Es wurde also der Prädiktor ausgewählt der die
meiste, nicht redundante Information zum Modell hinzufügt.
➔ Wenn man zu viele Prädiktoren erhält: Overfitting
➔ Wenn man zu wenige Prädiktoren erhält: Underfitting
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
grösser wird.
Interpretation: Im Vergleich zu Männern ist bei Frauen die beliebtheit des Produktes (in diesem
Beispiel) im Mittel um β2 Einheiten höher, wenn die Qualität des Produktes gleich bleibt
-> es unterscheidet sich im Endeffekt lediglich der Achsenabschnitt (jedoch nur solange keine
Intearaktion vorliegt!)
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr e
ar
.
.
ac ac
k e r- s o ft w a
• -s o ker ft w
Interaktion mit kategorialen Einflussgrössen:
o Interaktion bedeutet, dass nicht nur zwei verschiedene Haupteffekte (β1 /β2) vorliegen, sondern sich
diese Effekte auch gegenseitig beeinflussen. Deshalb wird bei Regressionsmodellen mit Interaktion
ein dritter Regressionskoeffizient (β3) hinzugefügt, der sowohl mit x1 als auch mit x2 multipliziert
wird. Daraus ergibt sich nicht nur ein anderes β0, es wird auch die Steigung β1 verändert, da β3 dazu
addiert-wird:
o Interpretation: wenn eine Regression mit Interaktion vorliegt, dürfen die Haupteffekte nicht mehr
separat interpretiert werden, da dabei relevante Informationen verloren gehen
-> Regressionsmodelle mit Interaktionen werden auch als „moderierte Regression“ bezeichnet, da
eine Einflussgrösse eine andere „moderiert“
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Formuliert man die Gleichung um, sieht man, wie x2 den Zusammenhang mit x1 moderiert:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Suppressor-Variablen:
o Variable, die den Vorhersagebeitrag einer anderer Variablen erhöht, indem sie irrelevante Varianzen
in der anderen Variablen unterdrückt
o sind selbst nicht oder nur schwach mit der Zielgrösse korreliert, jedoch meist stark mit einer oder
mehreren Einflussgrössen
o Suppressor-Variablen unterdrücken den nicht-interessierenden Teil der Varianz anderer
Einflussgrössen.
o Wenn sie in das Regressionsmodell aufgenommen werden, zeigen die übrigen
Einflussgrössen einen (stärkeren) Effekt und die Vorhersage der Zielgrösse verbessert
sich.
o Suppressor-Variablen sind selbst nicht oder nur schwach mit der Zielgrösse korreliert,
aber dafür mit einer oder mehreren der anderen Einflussgrössen.
Einfaktorielle Varianzanalyse
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr e
ar
.
.
ac ac
k e r- s o ft w a
• -s o ker ft w
Bezug zu Tests für Vergleiche von 2 Mittelwerten
Z.B. t-Test: Vergleich der Mittelwerte von 2 Gruppen Varianzanalyse:
Vergleich der Mittelwerte von mehr als 2 Gruppen (ein Faktor mit > 2 Stufen oder mehrere Faktoren)
Fragestellung: Bestehen überhaupt Unterschiede zwischen den Gruppen? Danach Posthoc-Analysen:
welche Gruppen unterscheiden sich?
o
• Notation:
o i = 1 bezeichnet die Faktorstufe p
o m bezeichnet die Personen innerhalb der Faktorstufe i
o wenn allen Faktorstufen gleich viele Personen zugeteilt werden spricht man von einem balancierten
Versuchsplan
o bei balancierten Versuchsplänen benötigt n keinen Index i zur Kennzeichnung der Faktorstufe, also
gilt: ni = n
o um individuelle Werte zu bezeichnen, werden zwei Indices benötigt, i für die Faktorstufe und m für
die Person:
• Hypothesen:
H0 : µ1 = µ2 = µ3 = µ4
➔ Wenn zB Schüler unterrichtet werden, unterscheiden sich die Ergebnisse nicht der
Lernmethoden
H1 : µj 6= µk für mind. 1 j 6= k
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Quadratsummenzerlegung
Die Berechnung der einfaktoriellen Varianzanalyse geht von der Zerlegung der Gesamtstreuung der
abhängigen Variablen aus.
Welcher Anteil der Gesamtstreuung kann durch die verschiedenen Lehrmethoden erklärt werden?
Ist dieser Anteil gross, wird die H0 verworfen, d.h. die vier Lehrmethoden führen zu signifikant
unterschiedlichen Lernerfolgen.
Quadratsummen sind Kennwerte der Streuung und werden mit QS abgekürzt .
• Treatmentquadratsumme:
o es interessiert in diesem Fall nur der Teil der Streuung, der auf die vier verschiedenen
Methoden/Treatments zurückzuführen ist
o dazu wird die Summe der quadrierten Abweichungen der Gruppenmittelwerte vom
Gesamtmittelwert (für jede einzelne Person berechnet):
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Fehlerquadratsumme:
o in diesem Fall interessiert nur der Teil der Streuung, der auf die individuellen Unterschiede der
verschiedenen Probanden zurückzuführen ist
o dabei berechnet man die Summe der quadrierten
Abweichung von individuellen Messwerten und
Gruppenmittelwert
o in diesem Fall gibt es keine Unterscheidung des Rechenweges zwischen balancierten und
unbalancierten Designs
• Freiheitsgrade:
o gibt an, wie viele Werte in einer Wertegruppe frei wählbar sind, damit ein zum Beispiel ein
Mittelwert erreicht werden kann
o Konkret: es soll ein Mittelwert aus drei Zahlen gebildet werden, der angenommen 5 sein soll. Um
diesen Mittelwert zu erreichen, dürfen zwei Werte frei sein (z.B. 0, 0) wobei der dritte die
„Differenz“ zum Mittelwert ausmachen muss (in diesem Fall also 15). In diesem Beispiel haben wir
einen Freiheitsgrad von n-1, also 2, weshalb die dritte Zahl „nicht frei“ ist
o für QStot ergeben sich die Freiheitsgrade n * p – 1 = N - 1, also die Gesamtzahl an Probanden minus 1
o für QSA ergeben sich die Freiheitsgrade p - 1, was der Anzahl an Faktorstufen minus 1 entspricht
o für QSe ergeben sich die Freiheitsgrade N - p, was der Anzahl von allen Probanden minus der Anzahl
an Faktorstufen entspricht
• Grundgleichungen:
o Grundsätzlich gilt:
▪ QStot = QSA + QSe
-> Achtung: das gilt nicht für die mittleren Quadratsummen!
▪ Dftot = dfa + dfe
o diese Erkenntnis lässt sich in der Varianztabelle gut anwenden, da sie so aufgebaut ist, dass die
Werte rechts in der Tabelle aus den links stehenden zu errechnen sind
• Mittlere Quadratsumme:
o entsprechen dem Quotient aus den Quadratsummen und ihren jeweiligen Freiheitsgraden:
MQtot =
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Signifikanztest
Die H0 prüfen wir über den F-Test
Prüfgrösse:
mit dfA und dfe Freiheitsgraden.
Wenn tatsächlich Unterschiede zwischen den Gruppen bestehen, wird die mittlere Quadratsumme
des Treatments grösser als die mittlere Quadratsumme des Fehlers, d.h. grosse Werte von F
sprechen gegen die Nullhypothese.
• Varianztabelle:
o in der Varianztabelle werden alle Werte eingetragen die relevant sind für eine Varianzanalyse.
Ausserdem ist sie ein nützliches Hilfsmittel beim Errechnen der relevanten Grössen:
o Varianztabelle Allgemein:
Die Summe von QSA und QSe ergibt QStot der Quotient von MQA und MQe ergibt die Prüfgrösse F
-> es lässt sich von oben nach unten -> das lässt sich auch bei Interaktionen anwenden, wobei
rechnen, auch bei den Freiheitsgraden man in diesem Fall MQAB durch MQe teilt
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Für die Gültigkeit des F-Tests müssen folgende Annahmen erfüllt sein
Die abhängige Variable ist normalverteilt auf jeder Stufe des Faktors (äquivalent zu Normalität der
Residuen in der Regressionsanalyse)
Die Varianz der abhängigen Variable ist gleich gross über alle Stufen des Faktors hinweg
(äquivalent zu Homoskedastizität der Residuen in der Regressionsanalyse).
Die Ergebnisse einer Varianzanalyse sind
in vielen Fällen robust gegenüber Verletzungen dieser Annahmen. (D.h. der F-Test liefert nicht
komplett falsche Ergebnisse, wenn die Normalität oder Homoskedastizität etwas verletzt ist).
Posthoc Analysen
Führt eine Varianzanalyse zu einem signifikanten F-Wert, spricht dies dafür, dass es Unterschiede
zwischen den Faktorstufen gibt. Durch sog. Posthoc-Analysen im Anschluss an die Varianzanalyse
kann man herausfinden, zwischen welchen Faktorstufen bzw. durch welche Kombinationen von
Faktorstufen tatsächlich signifikante Unterschiede bestehen. Es gibt verschiedene Aspekte für die
Posthoc-Analysen, die berücksichtigt werden sollten:
1 Sind nur einfache Vergleiche zwischen je zwei Faktorstufen relevant?
2 Sollen komplexere Vergleiche stattfinden? Z.B. sind beide Behandlungsgruppen im Durchschnitt
besser als die Kontrollgruppe?
3 Sind die Tests geplant (a) oder datengetrieben (b)? Z.B. (a) Behandlung 1 vs. Behandlung 2 ist
von ihnhaltlichem Interesse. Oder für (b): Vergleich zweier Gruppen, die den grössten
Mittelwertsunterschied zeigen.
• Posthoc Tests:
o nachdem eine Varianzanalyse zu einem signifikanten Ergebnis kam, müssen sich mindestens zwei
Mittelwerte (also ein Effekt) signifikant unterscheiden
o durch die Post-hoc Tests wird ermittelt welche Mittelwerte sich unterscheiden
o dabei gibt es verschiedene Arten wie Mittelwerte miteinander verglichen
werden können, entweder alle Mittelwerte untereinander (Tukey-Kontraste)
oder alle nur mit einem (Dunnett-Kontrast)
o diese Vergleiche werden üblicherweise in einer Kontrastmatrix dargestellt:
• Einfache Posthoc-Vergleiche
➔ Beziehen sich auf Mittelwertsunterschiede zwischen zwei Gruppen bzw. Faktorstufen,
nachdem man herausfand, dass der F-Test signifikant war
o zB Unterscheiden sich Kontroll und Behandlungsgruppen?
➔ Es werden immer nur 2 Mittelwerte unterschieden, während die verbliebenen nicht
berücksichtigt werden
➔ Posthoc-Tests dind nicht robust
➔ Für die Freiheitsgrade des F-Tests wurde die Gesamtstichprobe (N = n1 + n2 + . . . + np)
verwendet und nicht nur die Anzahl der Personen in den beiden Gruppen (nj + nk).
→ Dies erhöht die Power des Tests im Vergleich zum einfachen t-Test.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Lineare Kontraste:
➔ Damit kann man einfache und komplexe Vergleiche zwischen Gruppenunterschieden zu
Testen
➔ Einfache Vergleiche beziehen sich auf zwei Mittelwerte
➔ Komplexe Vergleiche beziehen sich auf mehr als zwei Mittelwerte
• Kontraste:
o D entspricht der Summe von Gruppenmittelwerten multipliziert mit ihrem Kontrastfaktor (ci)
o die Summe aller Kontrastfaktoren (ci) muss dabei immer null ergeben (sonst wäre der Kontrast
einseitig)
o dabei sagt die Nullhypothese, dass D = 0 ist.
o Mithilfe eines F-Test für Kontraste lässt sich herausfinden ob ein Unterschied (D) signifikant ist
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Unter der jeweiligen Nullhypothese ist jedes Dj = 0. Mithilfe eines statistischen Tests kann man
entscheiden, ob ein Kontrast Dj signifikant von 0 abweicht. Die Nullhypothese, die mit einem Kontrast
überprüft wird, lautet allgemein formuliert:
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• Komplexe Kontraste
Der Vorteil der Formulierung der Vergleiche über Kontraste ist, dass man damit auch komplexere
Hypothesen testen kann.
Mithilfe eines Kontrasts kann z.B. auch überprüft werden, ob der Mittelwert über die drei
Einzelbehandlungen im Durchschnitt signifikant von dem in der Kombinationsbehandlung abweicht.
Man spricht hierbei vom Poolen der drei Treatmentstufen a1, a2 und a3.
Dies ist z.B. hier interessant, weil die drei Treatmentstufen a1, a2 und a3 etwas gemeinsam haben,
was sie von der Kombinationsbehandlung a4 unterscheidet.
➔ Eine wichtige Frage für Posthoc-Vergleich ist, wie viele Kontraste oder sonstige
Gruppenvergleiche man anstellen sollte. Theoretisch kann man unendlich viele Kontraste
testen. Das macht aber praktisch keinen Sinn.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
α bezeichnet hier die testwise error rate, d.h. den Fehler 1. Art für einen einzelnen Vergleich.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• orthogonale/unabhängige Kontraste:
o wenn das Produkt aller Kontrastmatrix-Faktoren (c) von jeder Gruppe (also jeweils für sich alleine) 0
ergeben, spricht man von unabhängigen oder orthogonalen Kontrasten
o ist das nicht der Fall spricht man von abhängigen Kontrasten
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Mehrfaktorielle Varianzanalyse
Effekt-Darstellung
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Ein signifikantes Ergebnis der Varianzanalyse besagt in diesem Fall, dass die Therapeutin den
Behandlungserfolg beeinflusst.
• Modell 1:
o das Modell lässt sich einfach dadurch erklären, dass der Messwert sich eines
Probanden einer bestimmten Treatmentstufe sich aus dem Populations-
Mittelwert der jeweiligen Stufe sowie der zufälligen Abweichung dieser Person ergibt
o dabei müssen hinsichtlich der Abweichungen (Residuen) folgende Annahmen erfüllt sein damit der
Test angewendet werden darf:
▪ die Fehlervarianz ist über alle Stufen homogen
▪ die Fehler sind in der Stufe normalverteilt
▪ die Fehler sind zwischen den Personen unabhängig
• Modell 2:
o man spricht vom Modell zwei der Varianzanalyse wenn die
Treatmentstufen durch einen Zufallsprozess ausgewählt wurden (wie
Lehrerin, Therapeutin, etc.)
o der Therapeuteneffekt ist definiert als Differenz zwischen dem durchschnittlichen Behandlungserfolg
(αi, Achtung, Verwechslungsgefahr!) und dem Gesamtmittelwert des Behandlungserfolges über alle
Therapeuten
-> haben die verschiedenen Therapeuten einen Einfluss auf die Therapie so haben sie auch
unterschiedliche αi. Daraus wird die Varianz der αi errechnetA(σ2 )
o über die zufälligen Grössen wird angenommen:
▪ die Treatmenteffekte sind normalverteilt, also αi ~ N (0,Aσ2 )
▪ die Fehlereffekte sind normalverteilt, also εim ~ N (0,eσ2 )
▪ Treatment- und Fehlereffekte sind voneinander unabhängig
• Intraklassenkorrelation:
o bezeichnet den durch den zufälligen Faktor erklärten Anteil der Streuung:
o dabei gilt:
o somit fällt die Intraklassenkorrelation umso höher aus, je kleiner die mittlere Quadratsumme der
Fehler ist (MQe)
o Beispiel siehe Folie 498
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
• mehrfaktorielle Varianzanalyse:
•
in einer Varianzanalyse werden die Daten nach verschiedenen Gesichtspunkten interpretiert. Einer davon ist
es, ob Haupteffekte oder und Interaktionen vorliegen. Um das festzustellen müssen die Effekte für sich
betrachtete werden, wofür die jeweiligen Mittelwerte berücksichtigt werde müssen:
Die mittleren Abweichungen vom Gesamtmittelwert sind für alle Stufen des Faktors A gleich null.
H0 : αi = 0 für alle i
Die mittleren Abweichungen vom Gesamtmittelwert sind für alle Stufen des Faktors B gleich null.
H0 : βj = 0 für alle j
Die Abweichungen vom Gesamtmittelwert sind für alle Gruppen gleich null (Wechselwirkung).
H0 : (αβ)ij = 0 für alle i, j
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Varianztabelle allgemein
➔ Bei mehrfaktoriellen Analysen wird typischerweise die Kontrolle des Fehlers der 1. Art
nicht experimentwise durchgeführt, sondern familywise. Dies bedeutet, dass z.B. eine
Bonferroni-Korrektur pro Faktor separat erfolgt.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Beide Haupteffekte auf einmal sind daran Eine Interaktion ist an den gekreuzten (oder Interaktionen sind unabhängig
zu erkennen, dass sowohl zwei zueinander auch aufeinander zulaufenden) Linien zu von Haupteffekten. Somit
parallel verlaufende Linien zu sehen sind erkennen. Durch eine Interaktion sind können Interaktionen und
und diese nicht parallel zu x-Achse jedoch die Haupteffekte (grafisch) kaum Haupteffekte in beliebigen
verkaufen. mehr zuverlässig zu erkenne. Kombinationen auftreten.
Aufgepasst!
Ob ein signifikanter Haupteffekt oder eine signifikante Interaktion vorliegt kann anhand einer Grafik nur spekulativ beantwortet werden, da für eine klare
Aussage ein F-Test durchgeführt werden muss (oder zumindest die Skalierung der Grafik mit einbezogen werden sollte).
In diesem Beispiel könnte es sich zum Beispiel um kleine Intervalle handeln die in der Grafik dargestellt werden, was dazu führen würde, dass die
Darstellungen und damit die Effekte überbewertet werden und in Wirklichkeit keinen signifikanten Effekt hervorbringen
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
➔ Die Prüfgrösse hängt davon ab, was für ein Modell auf meine Daten zutrifft
➔ Ich muss also wissen, was für Effekte vorhanden sind
Für einen zufälligen Faktor sind die Mittelwertunterschiede zwischen den zufälligen Faktorstufen
nicht von primärem Interesse. Stattdessen wird für jeden zufälligen Faktor die Varianz betrachtet.
Auch die Interaktion zwischen zufälligen Faktoren wird als zufällig betrachtet.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Bei den Treatmenteffekten αi (für die drei Tageszeiten) handelt es sich um feste Effekte
(weil es wirklich um die gewählte Tageszeit geht). Sie modellieren die Streuung
innerhalb der Personen. Dies wird within subjects-Faktor genannt.
Die Unterschiede zwischen den Personen werden durch die zufälligen Effekte Sm ∼ N(0, σ2 S )
modelliert. Sie modellieren die Streuung zwischen den Personen.
Dies wird between subjects-Faktor genannt. Auch die Fehler εim ∼ N(0, σ2 e ) sind
zufällig und enhalten alle weiteren, nicht durch das Modell erklärten Unterschiede (u.a. auch
Interaktionseffekte zwischen Treatment und Personen, die hier nicht gesondert modelliert werden
können).
Die Alternativhypothese würde bedeuten, dass scih Personen in ihrem Level unterscheiden.
Da es ein Zufallsfaktor ist, interessiert nicht konkret, welche zwei (oder mehr) Personen sich
konkret unterscheiden
Intraklassenkorrelation
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
Eine einfaktorielle Varianzanalyse mit Messwiederholungen lässt sich auch als zweifaktorielle
Varianzanalyse (Modell III, gemischte Effekte) betrachten, wenn man die Personen als Stufen eines
Zufallsfaktors betrachtet, d.h.:
Faktor A = fest (Tageszeiten)
Faktor S = zufällig (Personen)
Allerdings enthält jede Zelle dieses zweifaktoriellen Versuchsplans nur eine Beobachtung.
→ Deshalb können die Interaktionseffekte nicht getrennt von den Fehlern geschätzt werden.
Annahmen:
Sphärizität
→ Die Annahme ist hingegen häufig plausibel für Experimentaldaten, weil die Bedingungen
(Messzeitpunkte) permutiert/randomisiert für jede Person sind.
PD
or
or
!
!
W
W
O
O
N
N
Y
Y
U
U
Statistik-Übersicht – von Studenten für Studenten 20.09.2015
B
B
to
to
ww
ww
om
om
k
k
lic
lic
C
C
.c
.c
w
w
tr re tr re
.
.
ac ac
k e r- s o ft w a k e r- s o ft w a
-wenn man testen will, ob die Sphärizität verletzt ist oder wenn man eine Korrektur der
Signifikanztestung vornehmen will, dann mit dem Greenhouse Geiser „epsilon“