Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
verfasst von
Kim K.
2
Statistik Vorlesung
1. Vorlesung
Messen = Zuordnung von Zahlen zu Merkmalsausprägungen; empirisches Relativ wird in ein numerisches
Relativ abgebildet
Abbildungsfunktion = Regel, nach der diese Zuordnung erfolgt
Skala = numerisches Relativ
Homomorphe Abbildung = jedem Objekt aus dem empirischen Relativ wird genau eine Zahl im numerischen
Relativ zugeordnet; Relationen zwischen den Messobjekten werden durch Relationen zwischen zugeordneten
Zahlen ausgedrückt
Variable = Ergebnis der Messung
Datensatz = Zusammenfügen der Ergebnisse verschiedener Messungen
Skalenniveaus = 5 verschiedene; unterscheiden sich hinsichtlich der empirischen Relationen, die sie abbilden;
Messgenauigkeit/Aussagekraft der Daten steigt; Daten sollten auf einem möglichst hohen Skalenniveau erfasst
werden; hängt ab vom erhobenen Merkmal und der Abbildungsfunktion (Messvorschrift)
Nominalskala: gleich/verschieden
- Annahmen: Exklusivität (Unterschiedliche Merkmalsausprägungen unterschiedliche Zahlen) &
Exhaustivität (jeder beobachteten Merkmalsausprägung wird eine Zahl zugeordnet) „Homomorphe“
Abbildung
- Aussagen: Gleichheit/Verschiedenheit eines Merkmals
- Transformationen: alle eineindeutigen
- Bsp.: Geschlecht; klin. Diagnosen
Ordinalskala: größer/kleiner; zusätzlich:
- Annahmen: zugeordnete Zahlen repräsentieren Rangreihe der Merkmalsausprägung
- Aussagen: Größer / Kleiner Relationen
- Transformationen: alle monotonen
- Bsp.: Sitzreihe, Rangplätze
Intervallskala: Differenzen; zusätzlich:
- Annahmen: Gleich große Intervalle zwischen Zahlenwerten der Variable repräsentieren gleich große
Abstände in der Merkmalsausprägung
- Aussagen: Interpretation der Größe von Unterschieden zwischen Merkmalsausprägungen
- Transformationen: Alle linearen
- Bsp: Ratingskala (?), Temperatur (in °C)
Verhältnisskala: Verhältnisse; zusätzlich:
- Annahmen: Die Skala hat einen definierten/natürlichen Null-Punkt
- Aussagen: Interpretation des Verhältnisses von Merkmalsausprägungen
- Transformationen: Alle multiplikativen (Ähnlichkeitstransformationen)
- Bsp.: Alter, Reaktionszeit
Absolutskala: Maßeinheit; zusätzlich:
- Annahmen: Die Skala hat eine natürliche Maßeinheit
- Aussagen: Interpretation der Merkmalsausprägung selbst: Häufigkeiten!
- Transformationen: keine möglich
- Bsp.: Häufigkeiten
Bei der Erfassung vieler psychologischer Merkmale (z.B mittels Rating-Skalen): Intervallskalenniveau
3
2. Vorlesung
Deskriptive Statistik = Gruppe statistischer Methoden zur Beschreibung statistischer Daten anhand
statistischer Kennwerte, Graphiken, Diagrammen oder Tabellen; bezieht sich immer auf eine Stichprobe
Stichprobe = Personen, die tatsächlich untersucht bzw. beobachtet wurden
Inferenzstatistik = zieht aus Stichprobendaten Schlüsse auf zugrundeliegende Population
Urliste = alle Werte einer Stichprobe; Darstellung der Verteilung: Zusammenfassung in Häufigkeitstabelle
Oft hat ein Merkmal zu viele Ausprägungen, um für jede einzelne die Häufigkeit anzugeben Kategorien
Kategorien = disjunkt (keine Überlappung); direkt benachbart (keine Lücken); an Rändern sind „offene“
Kategorien (z.B. <50) erlaubt; alle geschlossenen Kategorien sind gleich breit; je größer Stichprobe, desto
mehr und desto schmalere Kategorien werden gebildet, in der Regel nicht mehr als 20
Scheinbare Kategoriegrenzen = Kategoriegrenzen enthalten Lücken, aber: wenn auf diskreter Variable
beruht keine „Zwischenwerte“ möglich Kategoriegrenzen ausreichend
Wahre Kategoriegrenzen = Intervalle werden mathematisch exakt angegeben; sollte immer bei
kontinuierlichen Variablen geschehen
Maße der zentralen Tendenz = geben an, wie ein Merkmal bei den meisten Mitgliedern einer Stichprobe bzw.
in dieser Stichprobe im Durchschnitt ausgeprägt ist;
- Modalwert (für mindestens nominalskalierte Daten)
- Median (für mindestens ordinalskalierte Daten)
- Mittelwert (für mindestens intervallskalierte Daten)
Modalwert (Mo) = Wert, der am häufigsten vorkommt; es kann auch mehrere geben; bei kategorisierten Daten
wird die Mitte der am häufigsten besetzten Kategorie angegeben; besonders bei nominalskalierten Daten
sinnvoll
Median = Wert, der geordnete Reihe der Messwerte in die obere und die untere Hälfte aufteilt; Anzahl der
Messwerte drüber und drunter gleich; ab Ordinalskalenniveau
Arithmetisches Mittel = Summe aller Messwerte geteilt durch deren Anzahl N; zulässig ab
Intervallskalenniveau
Rechtssteile Verteilung = AM, Median, Modalwert
Linkssteile Verteilung = Modalwert, Median, AM
Symmetrische Verteilung = alle mittig
Statistische Kennwerte = dienen der vereinfachten Darstellung von Daten
Maße der zentralen Tendenz lassen auch Rückschlüsse auf die Verteilungsform zu
3. Vorlesung:
Maße der Dispersion = beziehen sich auf „Variabilität“ einer Verteilung
Variationsbreite (Spannweite, Range) = Geringe Aussagekraft über Verteilung, da nur 2 Werte berücksichtigt
werden; hohe Empfindlichkeit gegenüber Ausreißerwerten
- Für kontinuierliche Variablen: Range = maximaler Wert – minimaler Wert
- Für diskrete Variablen: Range = maximaler Wert – minimaler Wert + 1 (entspricht Kategorienanzahl)
Quartile = Punkte einer Verteilung, die geordnete Liste von Werten in 4 Bereiche mit je 25% der SP einteilen;
Q2 entspricht Median; ab Ordinalskalenniveau
Interquartilabstand = Abstand zwischen dem 1. und dem 3. Quartil; Maß für den „Kernbereich“ einer
Verteilung; in ihm liegen 50% der SP; IQA = Q3 – Q1
Varianz (s2) = wichtigstes Maß für die Dispersion; jeder einzelne Wert wird berücksichtigt (wie weit ist jede
individuelle Merkmalsausprägung vom Mittelwert der Verteilung entfernt?); mittlere quadrierte Abweichung vom
Gesamtmittelwert; ab Intervallskalenniveau; durch Bildung der Quadrate schwer zu interpretieren
Standardabweichung (s) = Quadratwurzel aus der Varianz
Verteilungsformen = Range, Interquartilabstand, Varianz und Standardabweichung sind Maße für Variabilität
einer Verteilung; sagen aber noch nichts über konkrete Form der Verteilung aus Vergleich der Kennwerte
der zentralen Tendenz – Modus, Median, Mittelwert – erlaubt Rückschlüsse auf Verteilungsform
- rechtssteile Verteilung: AM < Median < Modus
4
4. Vorlesung
Bivariate Deskriptivstatistik = Beschreibung von zwei Variablen gemeinsam, also ihrem Zusammenhang;
statistische Kennwerte: Kovarianz und Korrelation; graphische Darstellung: Streudiagramm
Scatterplot/Streudiagramm = graphische Darstellung von Zusammenhängen zwischen zwei Variablen
positiver Zusammenhang = hoher X-Wert hoher Y-Wert
negativer Zusammenhang = hoher X-Wert niedriger Y-Wert
Form des Zusammenhang = z.B. linear (Y = aX+b) , quadratisch (Y = aX²+bX+c), kubisch
Richtung des Zusammenhangs = positiv (Y = aX+b; a>0), negativ (Y = aX+b ; a<0)
Stärke des Zusammenhangs = stark (Punkte nah beineinander), schwach (Punkte weit gestreut)
Kovarianz und Korrelation = Maße für die Stärke des linearen Zusammenhangs zwischen zwei Variablen; je
stärker der Zusammenhang, desto größer sind Kovarianz und Korrelation
- Positiv: hoher Wert auf einer Variable geht häufig mit hohem Wert auf der anderen Variable einher
- Negativ: hoher Wert auf einer Variable geht häufig mit niedrigem Wert auf der anderen Variable einher
Voraussetzungen:
- Intervallskalenniveau beider Variablen
- Normalverteilung beider Variablen
- Homoskedastizität (Normalverteilung von y für alle Untersuchungsobjekte, die gleichen x-Wert haben)
- es können nur lineare Zusammenhänge beschrieben werden
Kovarianz = „gemeinsame Varianz“; Maß für Zusammenhang zweier (mindestens intervallskalierter) Variablen;
unstandardisiertes Maß, d.h. sie hängt von der Skalierung der beteiligten Variablen ab; können weder (a) direkt
interpretiert noch (b) zwischen unterschiedlichen Untersuchungen verglichen werden
Produkt-Moment-Korrelation = Korrelationskoeffizient nimmt Werte zwischen +1 und -1 an; zeigen nur einen
statistischen Zusammenhang; können nicht als Beleg für Kausalität verwendet werden; nicht intervallskaliert;
5
zentrale Tendenz zweier Korrelationen ist nicht als deren arithmetisches Mittel berechenbar; Differenzen
(Abstände bzw. Intervalle) zwischen Korrelationskoeffizienten sind nicht interpretierbar (z.B. Unterschiede
zwischen zwei Korrelationskoeffizienten)
- r = +1 perfekt positiver Zusammenhang
- r = 0 kein Zusammenhang
- r = -1 perfekt negativer Zusammenhang
Zusammenhänge können bedeuten, dass…
- sich „A“ auf „B“ auswirkt.
- sich „B“ auf „A“ auswirkt.
- „A“ und „B“ beide von einem dritten Merkmal „C“ beeinflusst werden
Fishers Z-Werte = Transformation der Korrelationskoeffizienten in (annähernd) intervallskalierte Werte;
annähernd normalverteilt; berechnen oder in Tabelle nachschlagen
- Berechnung/Nachschlagen von Fishers Z für die einzelnen Korrelationen
- Berechnung des (gewichteten) Mittelwertes der Z-Werte
- Rücktransformation des arithmetischen Mittels in einen Korrelationskoeffizienten
Determinationskoeffizient (r²) = quadrierte Korrelation; relativer Anteil gemeinsamer Varianz zweier Merkmale
Latente Merkmale = nur indirekt über assoziierte manifeste Merkmale erfassbar (Bsp. Angst)
Dichotom = zweifach gestuft (z.B. männlich, weiblich)
Polytom = mehrfach gestuft (z.B. Diagnose: Schizophrenie, Depression, Angststörung, …)
Künstliche Dichotomisierung = ein ordinal- oder intervallskaliertes Merkmal wird in 2 Wertebereiche
aufgeteilt („gesplittet“) (z.B. am Median, sog. „Median-Split“)
Spearmans Rangkorrelation = Alle Variablen werden vor der Berechnung in eine Rangreihe (Rang 1 bis
N) transformiert; Wenn Rangplätze mehrfach besetzt sind („Rangbindung“), sollte sie nicht verwendet werden,
sondern Kendalls т
Voraussetzungen:
- zwei Variablen (x, y) als Rangreihe
- eine intervallskalierte und eine ordinalskalierte Variable
- bei intervallskalierten Variablen, wenn keine Normalverteilung vorliegt
Cramérs Index = Zusammenhang zweier polytomen nominalskalierten Variablen; Werte zwischen 0 und 1
5. Vorlesung
Lineare Regression = Ziel ist Vorhersage einer Variable y durch eine Variable x; nur möglich, wenn x und y
miteinander korrelieren; es wird eine Gerade ermittelt, die den Zusammenhang zwischen x und y beschreibt;
mit dieser kann zu jedem Wert von x ein Wert von y vorausgesagt werden
Kriteriumsvariable y = vorherzusagende Variable
Prädiktorvariable x = zur Vorhersage verwendete Variable
Allgemeine Geradenfunktion = y = bx + a (b = Steigung; a = y-Achsen-Abschnitt/Höhenlage)
Vorhersagefehler (Residuum) ei = Differenz zwischen geschätztem und tatsächlichem y-Wert
Methode der kleinsten Quadrate = a und b werden so gewählt, dass der quadrierte Vorhersagefehler über
alle Probanden minimal ist; Differenz der tatsächlichen von den vorhergesagten y-Werten wird also quadriert
Abweichungswerte sind immer positiv; große Abweichungen werden stärker berücksichtigt als kleine
Standardschätzfehler = Maß dafür, wie stark wahre y-Werte von vorhergesagten Werten abweichen;
Standardabweichung der Residuen; Streuung der y-Werte um die Regressionsgerade
- Je größer die Streuung des Kriteriums, desto größer der Standardschätzfehler
- Je größer die Korrelation zwischen Prädiktor und Kriterium, desto kleiner ist der Standardschätzfehler.
Kreuzvalidierung = Verfahren zur Überprüfung der „externen“ Validität (Generalisierbarkeit) einer
Regressionsgleichung; wichtig, da Regressionskoeffizienten häufig stichprobenabhängig sind; prüft Gültigkeit
der Gleichung für eine neue SP; Güte der Regressionsgleichung (z.B. Standardschätzfehler) für beide
Stichproben vergleichbar? 2 SP nötig (S1 und S2 oder nur aufgeteilte S1)
- Berechnung der Regressionsgleichung R1 anhand S1 und R2 anhand S2
- Anwendung der Regressiongleichung R1 auf S2 und R2 auf S1
- Vergleich der vorhergesagten Kriteriumswerte mit den wahren Kriteriumswerten in S2 und S1
- Regressionsgleichungen vergleichbar? Standardschätzfehler vergleichbar?
6
6. Vorlesung
Erklärte Varianz = Varianzanteil von Y, der durch X vorhergesagt/„aufgeklärt“ werden kann
Nicht-erklärbare Varianz= Y-Varianzanteil, der nicht mit X zusammenhängt; Varianz d. Regressionsresiduen
Multiple Korrelation = Zusammenhang mehrerer Variablen untereinander; Voraussetzung für Multiple
Regression
Partialkorrelation rxy.z = Zusammenhang zwischen x und y nach Eliminieren der Drittvariablen z; Regression
(Vorhersage von x und y durch Prädiktor z) Korrelation der Residuen (Restvarianz ohne Einfluss von z)
quadrierte Partialkorrelation r2xy|z = Anteil gemeinsamer Varianz, der von der Drittvariable unabhängig ist
Semipartialkorrelation ry(x|z) = Zusammenhang zweier Variablen x und y, nachdem eine Drittvariable z nur aus
einer der beiden Variablen herauspartialisiert wurde
quadrierte Semipartialkorrelation r²y(x|z) = Anteil der Varianz von y, den die Variable x zusätzlich zu einer
Drittvariable z erklärt
Multiple Korrelation Ry.xz = Summe der Semipartialkorrelationen
Multipler Korrelationskoeffizient R = vereinigter Zusammenhang aller Prädiktoren (x, z) mit dem Kriterium (y)
Multipler Determinationskoeffizient R² = Anteil der durch alle Prädiktoren gemeinsam aufgeklärten
Kriteriumsvarianz
Nullkorrelation = R = R² = 0 Kein Prädiktor klärt Varianz auf
Inkrementelle Validität = Variable besitzt inkrementelle Validität, wenn ihre Aufnahme als zusätzlicher
Prädiktor den Anteil aufgeklärter Varianz (R²) am Kriterium (substantiell) erhöht (=die Vorhersage verbessert)
7. Vorlesung
Zufallsexperiment = prinzipiell beliebig oft wiederholbarer Versuch, dessen Ergebnis vom Zufall abhängt
Wahrscheinlichkeit = Grenzwert des relativen Anteils „günstiger“ Ereignisse an den möglichen Ereignissen;
kann über relative Häufigkeiten geschätzt werden; p(A) ist ein „Schätzer“ für die Wahrscheinlichkeit π(A);
Schätzungsgenauigkeit wächst mit N („Gesetz der großen Zahlen“)
Laplacesches Prinzip = Wahrscheinlichkeit als relativer Anteil der „günstigen Fälle“ an allen möglichen
Ereignissen; variiert zwischen 0 und 1
Additionstheorem = p(A B) = p(A) + p(B) − p(A B)
Disjunkte Ereignisse = p(A B) = p(A) + p(B)
Bedingte Wahrscheinlichkeit = gibt an, wie wahrscheinlich ein Ereignis ist unter der Bedingung, dass ein
anderes Ereignis gegeben ist; p (A│B) = p(A B) / p(B)
Multiplikationstheorem = Wahrscheinlichkeit, dass zwei Ereignisse A und B gemeinsam eintreten
- p(A B) = p(B) . p(A│B)
- p(A B) = p(A) . p(B│A)
Stochastische Unabhängigkeit = Wahrscheinlichkeit für Ereignis A nicht vom Eintreten von Ereignis B
beeinflusst; p(A) = p (A│B) = p (A│non-B)
Bayes-Theorem = erlaubt es, die bedingten Wahrscheinlichkeiten p(A|B) und p(B|A) in Beziehung zu setzen
8. Vorlesung
diskrete Wahrscheinlichkeitsverteilung = gibt für jeden Wert der Variablen einer diskreten Variable (jedes
Ereignis des Zufallsexperiments) die Auftretenswahrscheinlichkeit an
stetige Wahrscheinlichkeitsdichteverteilung = beschreibt Zufallsexperiment mit unendlich vielen möglichen
Ereignissen; jedes einzelne Ereignis hat unendlich kleine WS; WS können immer nur in Bereichen (Intervallen)
angegeben werden; Kurve selbst beschreibt WS-Dichte; Fläche unter der Kurve gibt WS an; Gesamtfläche
unter Kurve = 1; Fläche für einen bestimmten Wertebereich von x gibt WS an, dass Ereignis in diesem
Wertebereich „landet“
Normalverteilung = „glockenförmiger“ Verlauf; symmetrisch; „normaler“ Exzess; wichtigste stetige WS-
Verteilung; wird von 2 Parametern definiert:
- Mittelwert (μ) gibt die Position des „Gipfels“ an
- Streuung oder Standardabweichung (σ) gibt die Breite der Verteilung an
Standardnormalverteilung (SNV) = Normalverteilung mit μ=0 und σ=1
7
9. Vorlesung
deskriptive Statistik = bezieht sich immer auf eine SP
Stichprobe = Personen, die tatsächlich untersucht/beobachtet wurde
Inferenzstatistik = zieht aus den in einer SP erhobenen Daten Schlüsse auf die zugrundeliegende Population
Stichprobenkennwerte = Mittelwert, Median, Standardabweichung, Varianz, …; können als Schätzer für
entsprechenden Populationskennwerte verwendet werden; Je größer SP, desto genauer die Schätzung
Stichprobenkennwerteverteilung (SKV) = „Verteilung der Mittelwerte“ von SP; aus einer SP ergibt sich jeder
Kennwert nur einmal immer wieder SP aus gleicher Population jedes Mal ein neuer Kennwert (z.B.
Mittelwert)
Zentraler Grenzwertsatz = SKV: asymptotisch normalverteilt; unendlich viele SP: SKV identisch mit einer NV
Mittelwert der SKV = identisch mit dem Mittelwert der Messwerte in der Population
Standard(schätz)fehler des Mittelwertes = Standardabweichung der SKV der Mittelwerte; gibt an, wie nah
empirischer SP-Mittelwert am Mittelwert der SKV und damit am Populationsmittelwert liegt; kann direkt
berechnet werden, ohne dass man mehrere SP erheben muss
Konfidenzintervall = Da Mittelwert der SKV unbekannt ist, wird ein Intervall um den SP-Mittelwert angegeben,
in dem dieser Mittelwert mit einer bestimmten WS liegt
Rückschluss von SP auf Population = Vorgehen:
- Erheben eines Merkmals an einer SP
- Berechnung des Stichprobenkennwertes (M)
- Berechnung des Standardfehlers des Mittelwerts
- mithilfe des Standardfehlers wird das Konfidenzintervall bestimmt darin befindet sich mit bestimmter
- WS der Mittelwert der SKV
- Dieser Mittelwert entspricht dem Mittelwert der Population
10. Vorlesung
Wichtige, zentrale Punkte:
- Der Populationsmittelwert entspricht dem Mittelwert der SKV des Mittelwerts
- Jeder Mittelwert einer SP entstammt einer SKV, deren Mittelwert dem Mittelwert des Merkmals in
der Population entspricht.
- Der Mittelwert der SKV ist unabhängig von der SP-Größe: Für ein gegebenes Merkmal in einer
gegebenen Population haben alle SKV denselben Mittelwert. (Der Mittelwert jeder SKV der
Mittelwerte entspricht dem Mittelwert des Merkmals in der Population.)
- Man sagt: „der Erwartungswert des SP-Mittelwerts entspricht dem Populationsmittelwert“, oder
„der SP-Mittelwert ist ein erwartungstreuer Schätzer des Populationsmittelwerts“, oder E(M) = μ
- Die SKV des Mittelwerts ist annähernd normalverteilt
- Verteilungsform der SKV des Mittelwerts ist unabhängig von Verteilungsform d Merkmals in
Population
- Ab einer Stichprobengröße von n>30 gilt die SKV des Mittelwerts als näherungsweise
normalverteilt
- Zentraler Grenzwertsatz: „Die Verteilung der SP-Mittelwerte aus SP des Umfanges n aus
derselben Population geht mit zunehmendem Stichprobenumfang in eine Normalverteilung
über.“
8
11. Vorlesung
z-Test = ein bestimmter Signifikanztest; bei großen SP (n>30); Prüfverteilung = SKV: Standardnormalverteilung
(z-Werte-Verteilung); bei n>30 gilt annähernd der zentrale Grenzwertsatz; 6 Schritte:
- 1) Formulierung der (inhaltlichen und statistischen) Hypothesen, Operationalisierung des Merkmals
- 2) Erfassung des Merkmals in einer SP
- 3) Berechnung des Standardfehlers des Mittelwerts
- 4) Berechnung des empirischen z-Werts
- 5) Festlegung Alpha-Niveau & Bestimmung des kritischen z-Werts
- 6) Entscheidung zwischen H0 und H1 über Vergleich empirischer – kritischer Wert
t-Test = ein bestimmter Signifikanztest; bei kleinen Stichproben (n≤30); Prüfverteilung = SKV: t-Verteilung;
n≤30 zu klein für zentralen Grenzwertsatz; Voraussetzung: Merkmal in Population normalverteilt; auch für
Vergleich zweier SP-Mittelwerte; 3 Varianten (für 1 SP, für 2 unabhängige SP und für 2 abhängige SP)
t-Test für unabhängige Stichproben = 6 Schritte:
- 1) Formulierung der (inhaltlichen und statistischen) Hypothesen, Operationalisierung des Merkmals
- 2) Erfassung desselben Merkmals in zwei unabhängigen SP
- 3) Berechnung des Standardfehlers der Mittelwertsdifferenz
9
12. Vorlesung
Ungerichtete Hypothese = keine Richtung des Unterschieds vorgegeben
Gerichtete Hypothese = Richtung des Unterschieds vorgegeben
Zwei Wege beim Signifikanztest = Entscheidung auf 2 Wegen möglich:
- 1) Vergleich empirische Prüfgröße – kritische Grenze(n)
- 2) Vergleich Überschreitungswahrscheinlichkeit – Signifikanzniveau
Überschreitungswahrscheinlichkeit p = Wahrscheinlichkeit, per Zufall einen extremeren Wert als die
gegebene Prüfgröße (z.B. empirischen t-Wert) zu erhalten, wenn die H0 gilt
t-Test für unabhängige SP = prüft WS, gegeben die H0, dass eine bestimmte Mittelwertsdifferenz auftritt; SKV
der Mittelwertsdifferenzen ist eine t-Verteilung mit df = n1 + n2 – 2; Voraussetzungen:
- 1) Intervallskalenniveau der Messung
- 2) Normalverteilung des Merkmals in Population (sonst: nonparametrisches Schätzverfahren, z.B. U-
Test)
- 3) „Varianzhomogenität“ (gleiche Varianzen in beiden Stichproben) (sonst: Korrektur der Freiheitsgrade
durch Welch-Test)
- 4) Unabhängigkeit der Stichproben (sonst: t-Test für abhängige SP)
Unabhängigkeit der SP = Ziehung eines Merkmalsträgers in 1. SP beeinflusst nicht Zugehörigkeit eines
Merkmalsträgers zur 2. SP
t-Test für abhängige SP = prüft WS, gegeben die H0, dass eine bestimmte mittlere Differenz auftritt; SKV der
Mittelwerte der Differenzen ist eine t-Verteilung mit df = n – 1; Voraussetzungen:
- 1) Intervallskalenniveau der Messung
- 2) Normalverteilung der Differenzen in Population
6 Schritte:
- 1) Statistische Hypothesen H0 und H1 ableiten
- 2) Signifikanzniveau α festlegen; ggf.: ein- vs. zweiseitiger Test?
- 3) Auswahl des Testverfahrens, Prüfung der Voraussetzungen, Bestimmung der zugehörigen SKV
- 4) Bestimmung des SP-Kennwerts (Untersuchung durchführen, Merkmal erfassen); Entscheidung für
H0, falls SP-Kennwert mit H1 inkonsistent (Bsp. einseitiger Test)
- 5) Bestimmung der Vergleichswerte (kritische Grenze(n) und Prüfgröße oder
Überschreitungswahrscheinlichkeit und Signifikanzniveau)
- 6) Entscheidung zwischen H0 und H1
13. Vorlesung
Alternativhypothese H1 = kann unspezifisch (z.B. μ1 > μ0) oder spezifisch sein, d.h. einen spezifischen Wert
enthalten (z.B. μ1 – μ0 = 3) spezifische: erlaubt die Kontrolle des Beta-Fehlers
Effektgröße = spezifischer Wert der spezifischen H1; gibt angenommene Größe des Effekts (z.B. Abstand
zwischen 2 Mittelwerten) in der Population an; kann anhand einer SP geschätzt werden; Zur Berechnung wird
der Mittelwertsunterschied und die Standardabweichung berücksichtigt
Effektgrößenmaß Delta = Abstand der Mittelwerte, normiert an der Streuung Abstand der Mittelwerte in
Standardabweichungs-Einheiten (vgl. z-Werte)
Empirische Effektgröße d = Schätzer für die Streuung: Gemittelte Streuung beider Stichproben; wächst mit
größerem Abstand der Mittelwerte und mit kleinerer Streuung; Cohen: „Daumenregel“:
- d ≥ .20: kleiner Effekt
- d ≥ .50: mittlerer Effekt
- d ≥ .80: großer Effekt
10
Teststärke (Power) = 1 – β ; Gegenstück zum β-Fehler; WS, mit der ein in der Population tatsächlich
existierender Effekt in einer empirischen Untersuchung auch entdeckt wird; Jede Untersuchung sollte hohe
Teststärke/kleinen β –Fehler haben; bei geringer Teststärke ist eine Entscheidung für H0 wenig aussagekräftig;
6 Einflussgrößen:
- 1) Höhe des Alpha-Niveaus: je größer Alpha, desto größer auch die Power
- 2) Art der Testung: bei zweiseitiger Testung ist Power geringer als bei einseitiger Testung, da dann erst
bei höherem kritischem Wert H1 angenommen wird (größerer β-Fehler)
- 3) Varianz des Merkmals: Je mehr Varianz ein Merkmal hat, desto geringer ist die Teststärke
- 4) Stichprobenumfang: Je größer die Stichprobe, desto höher ist die Power eines Tests
- 5) Effektgröße: Je größer der erwartete Effekt (z.B. Mittelwertsdifferenz), desto höher ist die Teststärke
- 6) Auswahl des statistischen Tests:
- SP: Tests mit abhängigen SP haben eine höhere Power als Tests mit unabhängigen SP
- Skalenniveau: Tests, die auf höherem Skalenniveau beruhen, haben idR eine höhere Power
Teststärke kann erhöht werden, indem:
- ein höherer α-Fehler akzeptiert wird
- eine gerichtete Hypothese formuliert wird
- die Merkmalsvarianz verringert wird
- der Stichprobenumfang erhöht wird
- für eine große Mittelwertsdifferenz gesorgt wird
- abhängige Stichproben verwendet werden
- ein statistisches Verfahren verwendet wird, dass das erhobene Skalenniveau ausnutzt
Festlegung/Berechnung:
- a priori: benötigte SP(n)-Größe wird aus Teststärke, α-Fehler und erwarteter Effektgröße berechnet
- post hoc: kann aus Effektgröße, Stichprobengröße und α-Fehler berechnet werden
14. Vorlesung
Einflussgrößen der Teststärke = direkte und indirekte:
- α-Fehler-Niveau (Signifikanzniveau) Lage des Entscheidungskriteriums
- Stichprobenumfang Standardabweichung der SKV
- Effektgröße Abstand und Standardabweichung der SKVn
- gerichtete Hypothese α-Fehler-Niveau/Signifikanzniveau
- Merkmalsvarianz Effektgröße, Standardabweichung der SKV
- Mittelwertsdifferenz Effektgröße
- un-/abhängige Stichprobe Standardabweichung der SKV
Optimaler Stichprobenumfang = Stichprobenumfang, der sicherstellt, dass eine gegebene Effektgröße mit
dem gewählten Signifikanzniveau und der gewählten Teststärke gefunden werden kann
Stichprobenumfangsplanung = 2 Arten:
- 1) a priori = Planung des Stichprobenumfangs; Effektgröße, α und Teststärke sind gegeben
- 2) post hoc = Teststärkeberechnung bei geg. SP; Effektgröße, α & Stichprobenumfang sind gegeben