Sie sind auf Seite 1von 7

Zusammenfassungen

1. Grundbegriffe
o Multivariate Methoden analysieren Relationen zwischen mehreren
(unabhängigen und abhängigen) Variablen.
o Mediation und Moderation sind zwei wichtige Beispiele für multivariate
Beziehungen zwischen Variablen. ► Mediation ≠ Moderation
Mediation Moderation
Bedeutung Vermittlung Lenkung
Variable beeinflusst die AV die Beziehung ziwschen AV und UV
Forschungsfrage Wie beeinflusst die UV die AV? Wann beeinflusst die UV die AV?
o Kovarianz (= linearer Zusammenhang zweier Variablen), Varianz (= Kovarianz
eines Wertes mit sich selbst) und Korrelation (= standardisierte Kovarianz)
sind konzeptuell eng verbunden und haben ähnliche Eigenschaften (u.a. die
Mittelwertsinvarianz).
o Korrelation impliziert keine Kausalität. Die Abwesenheit von Korrelation kann
jedoch ein Indiz für die Abwesenheit von Kausalität sein.

2. Multivariate Varianzanalyse
o MANOVA ist eine Erweiterung der ANOVA, in der mehrere abhängige
Variablen gemeinsam untersucht werden.
o Statt Quadratsummen werden SSCP(„square-sum and cross-product“)-
Matrizen benutzt.
o Die Treatment-SSCP-Matrix wird mit der Inversen der Fehler-SSCP-Matrix
multipliziert (ähnlich zu F-Test). Resultierende Matrix wird so transformiert,
dass die Variablen darin voneinander unabhängig sind.
o Die Elemente der Diagnoalen werden verrechnet zu Pillai‘s Trace, Hotellings
T2, Wilks‘ Lamda, und Roys Largest Root (= Testgrößen).
o Voraussetzungen: Multivariate Normalverteilung (= Normalverteilung jeder AV
einzeln und aller Linearkombinationen der AV) und Varianzhomogenität (=
Homoskedastizität).

3. Multiple Regression
o Multivariate Regressionen führen eine intervallskalierte auf mehrere
intervallskalierte (oder dichotome) Prädiktoren zurück.
o Multivariate Regression ist eine Erweiterung der bivariaten Regression mit
sehr ähnlicher Logik (Quadratsummen, F-Test, Varianzaufklärung).
o Stark kovariierende Prädiktoren sind problematisch (Multikollinearität =
voneinander abhängige Prädiktoren).
o Der Einfluss eines Prädiktors hängt davon ab, welche anderen Prädiktoren im
Modell sind (z.B. Suppression) und in welcher Reihenfolge sie ins Modell
eingehen (5 Regressionsmethoden: Einschluss, Schrittweise, Entfernen,
Rückwärts, Vorwärts).
o Korrelation, t-Test, F-Test, ANOVA usw. können durch Regressionen
berechnet werden und sind Spezialfälle des Allgemeinen Linearen Modells.

4. Logistische Regression
o Die binäre logistische Regression führt ein dichotomes Kriterium auf
kontinuierliche (= nominalskalierte) Prädiktoren durch Logarithmierung zurück.
o Im Gegensatz zur linearen Regression werden nicht die Werte des Kriteriums,
sondern die Wahrscheinlichkeit der Antworten vorhergesagt.
o Voraussetzungen und Probleme sind ähnlich zur linearen Regression.
Zusätzliche Probleme bereitet die perfekte Trennung.
o Erweiterungen der Methode erlauben auch nominalskalierte unabhängige
Variablen mit und ohne Messwiederholung (= multinomial logistische
Regression), ihre Interaktionseffekte, sowie nominalskalierte abhängige
Variablen (= loglineare Analyse = Erweiterung der Varianzanalyse mittels
Logarithmisierung).
o Die Grundidee ist dabei immer gleich: Die UVs werden durch eine Funktion
transformiert und sagen dann die Wahrscheinlichkeiten der Ausprägung der
AV voraus.

5. Strukturgleichungsmodelle
o Strukturgleichungsmodelle (SEM) kombinieren u.a. Korrelation, Regression
und konfirmatorische Faktorenanalyse.
o Man unterscheidet Messmodell und Strukturmodell.
o Messmodell: Teil des Modells der angibt, welche latenten Variablen auf
Grundlage welcher Indikatoren geschätzt werden sollen; er beschreibt also
konfirmatorische Faktorenanalysen. [Das Messmodell eines SEM besteht
aus allen konfirmatorischen Faktoranalysen zusammen. Es gibt an, mittels
welcher manifesten Variablen die latenten Variablen „gemessen“ wurden.]
o Strukturmodell: Regressionspfade zwischen den untersuchten Konstrukten
(in der Regel modelliert als latente Faktoren). [Das Strukturmodell eines
SEM besteht aus den Regressionsbeziehungen zwischen Variablen. Es
gibt an, „welche Struktur das Netz von Beziehungen zwischen den
untersuchten Variablen hat“.]
o Man unterscheidet endogene und exogene Variablen.
o Exogene Variablen: alle Variablen im Modell, die durch keine andere
Variable vorhergesagt werden (auf die kein Regressionspfeil zeigt).
[Exogene Variablen werden durch keine andere Variable vorhergesagt.]
o Endogene Variablen: alle Variablen im Modell, die durch mindestens eine
andere Variable vorhergesagt werden (auf die also mindestens ein
Regressionspfeil zeigt). [Endogene Variablen werden durch mindestens
eine andere Variable vorhergesagt, d.h. mindestens ein Regressionspfad
endet bei ihnen.]
o Man unterscheidet manifeste Variablen und latente Variablen.
o Manifeste Variablen: gemessene Variablen (Rechtecke). [Manifeste
Variablen sind alle Variablen, die tatsächlich gemessen wurden.]

o Latente Variablen: Faktoren, die auf Grundlage der manifesten


Faktorindikatoren geschätzt werden (Ovale). [Latente Variablen sind
Variablen, die nicht direkt gemessen wurden, sondern deren Werte aus
manifesten Variablen geschätzt werden (latent = verborgen). Sie werden
auch als latente Faktoren bezeichnet, da sie durch konfirmatorische
Faktorenanalysen gebildet werden.]

o [Faktorindikatoren sind alle Variablen, die zur Schätzung eines oder


mehrerer latenter Faktoren benutzt werden.]
o Auch komplexe SEM lassen sich effizient mithilfe von Pfadmodellen
darstellen.
o Korrelationspfade: beschreiben die Annahme, dass zwei Variablen nicht
unabhängig voneinander sind sondern kovariieren; hat im Diagramm zwei
Pfeilspitzen

o Regressionspfade: beschreiben die Annahme, dass eine Variable eine


andere statistisch vorhersagt; hat im Diagramm eine Pfeilspitze

o Residualvarianzen: Varianzanteil einer endogenen Variablen, der nicht


durch die Prädiktoren aufgeklärt wird

6. Modellschätzung
o In der Modellschätzung werden die Modellparameter iterativ (= schrittweise)
so bestimmt, dass die Likelihood (► Likelihood-Funktion L =
Wahrscheinlichkeit der empirisch gefundenen Daten unter der Bedingung,
dass ein Parameter einen bestimmten Wert hat) der empirisch gefundenen
Daten maximiert wird (= optimaler Parameterwert).
o Die residuale Varianz-Kovarianz-Matrix gibt an, wie stark die modellimplizierte
Varianz-Kovarianz-Matrix von der empirisch gefundenen Varianz-Kovarianz-
Matrix abweicht.
o Der χ2-Test der Modellanpassung (s.u.) prüft, ob die Summe der Residuen
von Null verschieden ist, ob also Modell und Daten voneinander abweichen.
o Die Freiheitsgrade berechnen sich dabei als Anzahl gegebener Informationen
minus Anzahl zu schätzender Informationen.
7. Modellfit
o Die Passung eines Modells auf die Daten wird durch den χ 2-Anpassungstest
und deskriptive Modellfitindizes angegeben. ► Modellgütekriterien (= guter
Fit)
o Chi2-Anpassungstest:
o p n. sig. = Modell passt gut auf die Daten
o niedriger Chi2-Wert = weniger Varianz = weniger Residuen
o CFI (Comparative Fit Index) > .95
o RMSEA (Root Mean Square Error of Approximation) < .05
o SRMR (Standardized Root Mean Square Resiudal) < .08
o Zwei genestete Modelle können durch den χ 2-Differenztest verglichen werden.
o Chi2-Differenztest:
o Voraussetzung: genestete Modelle (≠ genesteter Faktor), d.h.
sparsameres Modell ist durch einschränkende Annahme durch altes
Modell entstanden
o Differenz von 2 Chi2-Werten und deren df berechnen
o Anhand dessen p nachsehen ([in Excel: p = ChiVert(Chi 2; df)]
o n. sig. = Modellfits sind gleich, also sparsameres Modell nehmen
o sig. = altes Modell nehmen, da Modellfit sonst schlechter wird
o Absolute Werte sagen nichts aus
o AIC (Akaike Information Criterion) o Das Modell mit den niedrigsten Werten
o BIC (Bayesian Information Criterion) wählen („badness of fit indices“) > auf
Vorzeichen achten
o Zu den wichtigsten Voraussetzungen von SEM zählen grosse Stichproben,
unabhängige Messungen, (multivariate) Normalverteilung, unkorrelierte
Residuen, sowie theoretische und empirische Identifikation (df >= 0).

8. MPlus
o Das korrekte Anlegen des Mplus-Datensatzes erfordert große Sorgfalt und
muss überprüft werden. Eine Analyse besteht aus den drei Textfiles Inputdatei
(*.inp), Outputdatei (*.out) und Datensatz (*.dat). Alle Inputdateien und alle
Outputdateien bestehen stets aus denselben Abschnitten in derselben
Reihenfolge.
o Die drei wichtigsten Befehle lauten:
o with (Kovarianz bzw. Korrelation)
o on (Regression; wichtig: Ziel on Start)
o by (Messung)
o Bei der Interpretation der Outputdatei muss überprüft werden, ob der
Datensatz überhaupt korrekt eingelesen wurde.

9. Modellierungsstrategien
o Man unterscheidet die konvergente (= Wie gut messen alternative Maße
dasselbe Konstrukt?) und die diskriminante Validität (= Messen Maße, die
unterschiedliche Kosntrukte erfassen sollen, wirklich Unterschiedliches?) von
Faktorindikatoren.
o Latente Faktoren sind unteridentifiziert, sofern nicht mindestens eine
unstandardisierte Faktorladung auf 1 fixiert wird.
o Endogene latente Faktoren werden nicht als eigenständige Variablen
geschätzt. Sie gehen nicht in die Anzahl freier Parameter ein und können nicht
direkt mit anderen Variablen korreliert werden.
o Weitere MPlus Befehle sind:
o [ ] (Mittelwert)
o @ (Parameter fixieren; nach with, on oder by)
o ( ) (Parameter gleichsetzen; nach with, on oder by)

10. Modelltypen
o Einige der wichtigsten Modelltypen sind:
autoregressives Modell…
… ohne saisonalem Effekt … mit saisonalem Effekt

hierarchische Faktormodelle
z.B. Latent-State-Modell z.B. Latent-State-Trait-Modell

Cross-Lagged-Panel-Modell genestete Faktormodelle

mit und ohne Messinvarianz (s.u.)


o Messinvarianz liegt vor, wenn das Messmodell sich über Messzeitpunkte
hinweg nicht ändert. In dem Fall erfasst jeder latente Faktor an mehreren
Messzeitpunkten dasselbe Konstrukt in derselben Weise.
1. Anzahl der Faktoren und der signifikanten Ladungen (welcher Indikator
lädt auf welchem Faktor) bleibt gleich über die Messzeitpunkte ►
konfigurale Messinvarianz (configural measurement invariance)
2. + Faktorladungen λ bleiben gleich über die Messzeitpunkte ► schwache
faktorielle Messinvarinz (weak factorial measurement invariance)
3. + Intercepts α der Indikatoren bleiben gleich über die Messzeitpunkte ►
starke faktorielle Messinvarianz (strong factorial measurement invariance)
4. + Fehlerterme ε bleiben gleich über die Messzeitpunkte ► strikte faktorielle
Messinvarianz (strict factorial measurement invariance)

11. latente Klassenanalyse


o Latente Klassenanalysen schätzen die Werte von Personen auf einer
nominalskalierten latenten Klassenvariablen auf Grundlage von (binären,
nominal- oder intervallskalierten) Indikatorvariablen.
o Die latenten Klassen werden so gebildet, dass die Mitglieder einer Klasse
möglichst ähnliche Werte und die Mitglieder unterschiedlicher Klassen
möglichst unähnliche Werte auf den Indikatoren haben.
o Latente Transitionsanalysen schätzen die Häufigkeit von Transitionspfaden (=
Entwicklungsverläufe) zwischen den Klassen über die Zeit hinweg.
12. Mehrebenenmodelle
o Hierarchische Stichproben erfordern Mehrebenenmodelle.
o Intraklassenkorrelation quantifiziert den Einfluss der hierarchischen Struktur
auf die Messungen, d.h. es wirkt den Problemen der progressiven
Hypothesentests und der fehlerhaften Parameterschätzung entgegen.
o Auf Level 1 wird eine Regressionsgrade pro Level 2-Unit geschätzt.
o Yij = B0j+B1j*X1ij+B2j*X2ij+rij
o Auf Level 2 werden die Intercepts und Slopes dieser Regressionsgraden
vorhergesagt.
o B0j=G00+G01*Wj+u0j
o B1j=G10+G11*Wj+u1j
o B2j=G20+G21*Wj+u2j
o Grand-Mean-Zentrierung erlaubt es, Intercepts als Gruppenmittelwerte der
abhängigen Variablen zu interpretieren.

13. weitere Verfahren


o MPlus bietet die Möglichkeit zur FIML-Schätzung fehlender Messwerte, zum
Bootstrapping nichtnormaler Verteilungen und zu Poweranalysen mittels
Monte Carlo-Simulationen.
o Weitere Beispiele multivariater Verfahren sind:
o Diskriminanzanalyse (= Vorhersage der Kategorienzugehörigkeit)
o Survivalanalyse (= Vorhersage des Eintretens eines bestimmten
Ereignisses in einer Klasse)
o kanonische Korrelation (= 2 Sets von Variablen, diese sind innerhalb eines
Sets orthogonal zueinander und zwischen den Sets paarweise korreliert)
o Zeitreihenanalyse (= Analyse von Regelmäßigkeiten in Längsschnitten)
o Wachstumskurven (= Veränderungen über die Zeit hinweg)
o Latent Growth Curve Mixture Models (= Analyse homogener
Teilstichproben mit unterschiedlichen Wachstumskurven)