Sie sind auf Seite 1von 38

5 Faktorenanalyse

5.1 Problemstellung................................................................................. 260

5.2 Vorgehensweise ................................................................................ 269

5.2.1 Variablenauswahl und Errechnung der Korrelationsmatrix .............. 269

5.2.1.1 Korrelationsanalyse zur Aufdeckung der Variablen­


zusammenhänge ............................................................................... 269

5.2.1.2 Eignung der Korrelationsmatrix ........................................................ 272

5.2.2 Extraktion der Faktoren ..................................................................... 277

5.2.2.1 Das Fundamentaltheorem .................................................................. 278

5.2.2.2 Graphische Interpretation von Faktoren ............................................ 279

5.2.2.3 Das Problem der Faktorextraktion .................................................... 284

5.2.3 Bestimmung der Kommunalitäten ..................................................... 289

5.2.4 Zahl der zu extrahierenden Faktoren ................................................. 295

5.2.5 Faktorinterpretation ........................................................................... 298

5.2.6 Bestimmung der Faktorwerte ............................................................ 302

5.2.7 Zusammenfassende Darstellung der Faktorenanalyse ....................... 305

5.3 Fallbeispiel ........................................................................................ 308

5.3.1 Problemstellung................................................................................. 308

5.3.2 Ergebnisse ......................................................................................... 3 10.

5.3.3 SPSS-Kommandos ............................................................................ 324

5.4 Anwendungsempfehlungen............................................................... 325

5.4.1 Probleme bei der Anwendung der Faktorenanalyse .......................... 325

5.4.1.1 Unvollständig beantwortete Fragebögen:

Das Missing Value-Problem ............................................................. 325

5.4.1.2 Starke Streuung der Antworten: Das Problem der

Durchschnittsbildung ........................................................................ 326

5.4.1.3 Entdeckungs- oder Begt'Ündungszusammenhang: Exploratorische

.. versus konfirmatorische Faktorenanalyse ......................................... 330

5.4.2 Empfehlungen zur Durchfilhrung einer Faktorenanalyse ................. 330

5.5 Literaturhinweise............................................................................... 332

..:;ov n:lIUOrt:II11IlllIYSt:
Problemstellung 261
5.1 Problemstellung Abbildung 5.1: Anwendungsbeispiele der Faktorenanalyse
Problemstellung Merkmale Faktoren
I
Für viele wissenschaftliche und praktische Fragestellungen geht es darum, den Stadtanalyse Bevölkerungszahl, Bevölkerungs- und
Wirkungszusammenhang zwischen zwei oder mehreren Variablen zu untersuchen. Beschäftigtenzahl, Beschäftigtenfaktor,
Methodisches Hilfsmittel dafilr sind in der Regel die Regressions- und Korrelati­ Dienstleistungsangebot, Ausbildungs- und
onsanalyse. Reicht eine relativ geringe Zahl von unabhängigen Variablen zur Er­ Schulbildung, Wirtschaftsfaktor.
klärung einer abhängigen Variablen aus und lassen sich die unabhängigen Variab­ Häuserwert.
len relativ leicht ermitteln, so wirft diese Vorgehensweise kaum schwerwiegende Untersuchungen der Streckenplanung, Bildliche
Probleme auf. kognitiven Gruppierung von Fähigkeit,
In manchen - insbesondere naturwissenschaftlichen - Bereichen kommt man in 2
Fähigkeiten Symbolen,
der Tat häufig mit einer relativ kleinen Zahl von Variablen aus, um z.B. bestimmte Erkennung von
physikalische Effekte erklären bzw. prognostizieren zu können. Ähnlichkeiten,etc.
In den Sozialwissenschaften ist die Situation jedoch anders: 1. d. R. ist zur Erklä­ Wortschatz, Verbale
rung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene eine Schlußfolgerungs-
~, Fähigkeit.
Vielzahl von Einflußfaktoren (Variablen) zu berücksichtigen. Je größer jedoch die ,­ eigenschaften,
Zahl der notwendigen Erklärungsvariablen wird, um so weniger ist gesichert, daß Satzbau, etc.
diese auch tatsächlich alle unabhängig voneinander zur Erklärung des Sach­ 3
Kostenanalyse 18 Kostenarten Beeinflußbarkei t,
verhaltes notwendig sind. Bedingen sich die Erklärungsvariablen gegenseitig, dann
führt die Einbeziehung aller Variablen zu unbefriedigenden Erklärungswerten. differenziert nach Deckungsdringlich­
Eines der Hauptprobleme sozialwissenschaftlicher Erklärungsansätze liegt daher jeweils 5 Kosten- keit.
darin, aus der Vielzahl möglicher Variablen die voneinander unabhängigen eigenschaften.
Einflußfaktoren herauszukristallisieren, die dann weiteren Analysen zugrunde ge­ 4
Blutdruckmessung 1. SB DM, Systolischer
legt werden können. Genau das macht sich die Faktorenanalyse zur Aufgabe. Im 2. bis 12 SBDM, Blutdruck,
Gegensatz beispielsweise zur Regressionsanalyse versucht die Faktorenanalyse I. OBDM, Diastolischer
also, einen Beitrag zur Entdeckung von untereinander unabhängigen Be­ 2. bis 12 DBDM. Blutdruck.
schreibungs- und Erklärungsvariablen zu finden.
Gelingt es tatsächlich, die Vielzahl möglicher Variablen auf wenige, wichtige (SBDM = Systolische Blutdruckmessung;

Einflußfaktoren zurückzuführen (zu reduzieren), lassen sich für empirische Un­ DBOM = Diastolische Blutdruckmessung)

tersuchungen erhebliche Vorteile realisieren. So kann z.B. eine Vielzahl möglicher


Einflußfaktoren getestet werden und es muß erst im nachhinein entschieden wer­
den, welche Variablen oder Variablenbündel tatsächlich erklärungsrelevant sind. Veranschaulichen wir uns die Problemstellung noch einmal anhand eines konkre­
Darüber hinaus ermöglicht dieses Verfahren durch die Datenreduktion eine Er­ ten Beispiels. In einer Befragung seien Hausfrauen nach ihrer Einschätzung von
leichterung empirischer Forschungsarbeit. Emulsionsfetten (Butter, Margarine) befragt worden. Dabei seien die Marken Ra­
In Abbildung 5.1 sind einige Anwendungsbeispiele der Faktorenanalyse zusam­ ma, Sanella, Becel, Du darfst, Holländische Markenbutter und Weihnachtsbutter
mengestellt. Sie vermitteln einen Einblick in die Problemstellung, die Zahl und Art anband der Variablen Anteil ungesättigter Fettsäuren, Kaloriengehalt, Vitaminge­
der Merkmale, die aus den Merkmalen extrahierten Faktoren sowie die jeweiligen halt, Haltbarkeit und Preis auf einer siebenstufigen Skala von hoch bis niedrig be­
Untersuchungseinheiten. urteilt worden.

I
VgL Harman, H. H., 1976, S. 13 ff.
2
VgL Carroll, J. 8., 1993.
3 Vgl. Plinke, W., 1985, S. 118 ff.
4 ..
Vgl. Uberla, K., 1977, S. 264 ff.
262 Faktorenanalyse Problemstellung 263
Die nachfolgende Abbildung 5.2 zeigt einen Ausschnitt aus dem entsprechenden Wir jassen zusammen: Unsere Befragung liefert uns folgende Daten:
Fragebogen.

Abbildung 5.3: Ausgangsdaten im Beispiel


Abbildung 5.2: Fragebogenausschnitt

Beurteilen Sie bitte die Margarinemarke Rama an hand V, • . • V"


VARIABLEN (Anteil unges. Fettsäuren
..
folgender Eigenschaften: 0,
Person 1 .. • V.
OBJEKT
niedrig hoch (8_1 Pelllon 2
usw.) • • • V
f..-.----- -c-"

O. Person 3

Anteil ung. Fettsäuren L .


V, • . v.
Kaloriengehalt I .0,

Vitamingehalt

Haltbarkeit

Preis 1
2
I
3
I
4 5
I I
6 7
I
LJ
~ ,-"~

Es sei unterstellt, daß die ausgewählten Eigenschaften fiir die Beurteilung von
Emulsionsfetten auch als relevant angesehen werden können. Für die folgenden
Die Beantwortung des obigen Fragebogenausschnitts durch die 30 befragten Pro­ Betrachtungen verdichten wir nun die Werte aus Abbildung 5.3 durch Bildung der
banden liefert subjektive Eigenschaftsurteile der fünf Variablenftlr die Marga­ arithmetischen Mittel rur jede ObjektlVariablen-Kombination über alle 30 Befrag­
rinemarke Rama, so da~ eine (30 x 5)-Matrix entsteht. Diese Matrix kann der wei­ ten. Als Durchschnittswert der 30 befragten Probanden mögen sich bei dieser Be­
teren Analyse zugrunde gelegt werden. Wir haben dann 5 Eigenschaften und 30 fragung über alle Hausfrauen folgende Werte ergeben haben (Abbildung 5.4).
Fälle, wobei wir ft1r unsere Analyse unterstellen, daß die Befragtenurteile un­ Mißt man den Informationsgehalt einer Datenstruktur an der in ihr enthaltenen
abhängig voneinander sind. Streuung (Varianz) der Befragungswerte, so verliert man durch die Durch­
Will man jedoch die sechs Marken gleichzeitig analysieren, so werden häufig ftlr schnittsbildung einen Teil der ursprünglichen Informationen (Streuungen), und der
jede Eigenschaft pro Marke Durchschnittswerte über alle 30 Befragten gebildet. Informationsgehalt der Mittelwertmatrix in Abbildung 5.4 enthält jetzt nur noch
Wir erhalten dann eine (6 x 5)-Matrix, wobei die Marken als Fälle interpretiert die Streuung der durchschnittlichen Beurteilungen über die verschiedenen Emu­
werden. Bei einer ~olchen Durchschnittsbildung muß man sich allerdings bewußt ISionsjette.
sein, daß man bestimmte Informationen (nämlich die über die Streuung der Aus­ Ein erster Blick auf die Ausgangsdatenmatrix macht bereits deutlich, daß die Ei­
prägung zwischen den Personen) verliert. . genschaften (Variablen) XI bis x3 bei den Margarinemarken (Sanella, Becel und
Je größer die Streuung der Stichprobenwerte ist, um so problematischer ist der Du darfst, Ausnahme Rama) tendenziell höher bewertet wurden als bei den Butter­
Aussagewert bei einer solchen Vorgehensweise. Da in praktischen Fällen häufig sorten (Holländische Butter und Weihnachtsbutter), während die Eigenschaften x4
dennoch so vorgegangen wird, beziehen sich auch die nachfolgenden Ausfüh­ und Xs primär bei den Buttersorten höher ausgeprägt sind. Die Ausgangsdaten ge­
rungen auf die der (6 x 5)-Matrix zugrundeliegenden Durchschnittswerte über alle ben damit in diesem Beispiel bereits einen Hinweis darauf, daß zwei Gruppen (xl'
Personen. Im abschließenden Kapitel wird ein Lösungsvorschlag rur eine Al­ x2' x3 und x4' xS) ähnlich beurteilter Variablen existieren, die sich in der Beurtei­
ternative zur Durchschnittsbildung vorgestellt. lung untereinander aber unterscheiden. Damit läßt sich in diesem Beispiel bereits
aus der Datenstruktur ein Beziehungszusammenhang vermuten. Will man diese
Vermutung genauer überprüfen, so ist es erforderlich, auf ein statistisches Kriteri­
264 Faktorenanalyse Problemstellung 26S
um zurückzugreifen, das die Quantifizierung von Beziehungen zwischen Variablen Verzichtet man zunächst auf die Berechnung von Korrelationen und unterstellt die
erlaubt. Ein solches statistisches Kriterium stellt der Korrelationskoeffizient dar. Gültigkeit der o. g. dritten Interpretationsart, so können wir in obigem Beispiel von
Durch die Berechnung von Korrelationen zwischen allen Variablen läßt sich die der plausiblen Vermutung ausgehen, daß Xl bis x3 sowie x4 und x5 lediglich Be­
Stärke der Beziehungszusammenhänge zwischen allen Variablen berechn.en. schreibungen von zwei eigentlich "hinter diesen Variablen stehenden" Größen
(Faktoren) darstellen.
Diese Vermutung läßt sich graphisch, wie in Abbildung 5.5 dargestellt, ver­
Abbildung 5.4: Mittelwertmatrix für das 6-Produkte-Beispiel deutlichen.
Eigenschaften
Marken Xl X2 x3 x4 Xs Abbildung 5.5: Grundgedanke der Faktorenanalyse im Beispiel
Rama I I 2 I 2
Sanella 2 6 334
VARIABLEN FAKTOREN
Becel 4 5 445
Du darfst 5 6 623
Holländische Butter 2 3 3 5 7 x Anteil ungesät­
Weihnachtsbutter 3 4 4 6 7 , tigter Fettsäuren I~-"--. ___'-...,

............
wobei:
xI = Anteil ungesättigter Fettsäuren x, Kaloriengehalt r·.---.. .- . -.. :=~31 F1 GESUNDHEIT

x2 = Kaloriengehalt //~
x3 = Vitamingehalt

=
.,..",,,,/

x, Vitamingehalt //
x4 = Haltbarkeit
Xs = Preis

Dabei ist jedoch zu beacht«?n, daß Korrelationen grundsätzlich auf drei verschie­
I '. H"ba",,' ~._ _ _
F, WIRTSCHAFT­
dene Arten kausal interpretiert werden können. Wir wollen dies an dem Beispiel
der Variablen "Fettsäuren" und "Vitamingehalt" verdeutlichen:
I x• Preis ~......._ ........._ ­ LICHKEIT

1. Die Korrelation zwischen "Fettsäuren" und "Vitamingehalt" resultiert daraus,


daß sich durch die Erhöhung des Anteils ungesättigter Fettsäuren auch der
Vitamingehalt erhöht.
2. Die Korrelation zwischen "Fettsäuren" und "Vitamingehalt" resultiert daraus,
daß durch eine Erhöhung des Vitamingehalts auch der Anteil ungesättigter Ausgehend von den flinf Eigenschaften, die in der Befragung verwendet wurden,
Fettsäuren gesteigert wird. wird aufgrund der sich in den Daten manifestierenden Beziehungen zwischen xl
bis x3 bzw. x4 und Xs vermutet, daß eigentlich nur zwei unabhängige Beschrei­
3. Für die Korrelation zwischen "Fettsäuren" und "Vitamingehalt" ist eine hin­ bungsdimensionen für die Aufstrichfette existieren (die die Variationen in den Va­
ter diesen beiden Variablen stehende Größe kausal verantwortlich, d. h. diese riablen bedingen). Xl bis x3 könnten Z.B. Ausdruck eines Faktors sein, den man
hypothetische Größe stellt die Ursache für das Zustandekommen der Korrela­ etwa mit "Gesundheit" bezeichnen könnte, denn sowohl der Anteil ungesättigter
tion dar. Fettsäuren als auch Kaloriengehalt und Vitamingehalt haben "etwas mit der Ge­
An dieser Stelle wird bereits deutlich, daß aus inhaltlichen Überlegungen heraus sundheit zu tun". Ebenso können die Variablen x4 und Xs (Haltbarkeit und Preis)
entschieden werden muß, welche der obigen drei Interpretationsmöglichkeiten in Ausdruck für Wirtschaftlichkeitsüberlegungen sein. Man könnte also vermuten,
einer bestimmten Anwendungssituation Gültigkeit besitzt. Die Faktorenanalyse daß sich die Variablen Xl bis Xs in diesem konkreten Fall auf zwei komplexere Va­
unterstellt, daß immer die dritte Interpretationsvariante zutrifft. Nur wenn dem auf­ riablenbündel verdichten lassen. Diese "Variablenbündel" bezeichnen wir im fol­
grund sachlogischer Überlegungen zugestimmt werden kann, darf eine Fakto­ genden als Faktoren.
renanalyse angewendet werden.
266 Faktorenanalyse Problemstellung 267
Werden die im Ausgang betrachteten Eigenschaften zu Faktoren zusammengefaßt, Abbildung 5.6: Faktorwerte-Matrix
so ist unmittelbar einsichtig, daß gegenüber der Mittelwertmatrix in Abbildung 5.4 r-­
ein weiterer Informationsverlust entsteht, da i.d.R. weniger Faktoren alsursprilng­
Faktor 1 Faktor 2
liehe Eigenschaften betrachtet werden. Dieser Informationsverlust ist darin zu se­
hen, daß zum einen die Faktoren in der Summe nur weniger Varianz erklären kön­
nen als die fünf Ausgangsvariablen und zum anderen die Varianz einer jeden Aus­ Rama -1,21136 -1,25027
gangs größe in der Erhebungsgesamtheit ebenfalls durch die Faktoren i.d.R. nicht Sanella -0,48288 -0,26891
vollständig erklärt werden kann. Der Verlust an erklärter Varianz wird im Rahmen Becel 0,57050 0,19027
der Faktorenanalyse zugunsten der Variablenverdichtung bewußt in Kauf genom­ Du darfst 1,56374 -0,88742
men. Allerdings muß sich der Anwender vorab überlegen, in welchem Ausmaß Hall. Butter -0,63529 0,94719
dieser Erklärungsverlust (im Sinne eines Varianzverlustes) bei den einzelnen Aus­ Weihnachtsbutter 0,19530 1,26914
gangsvariablen toleriert bzw. wieviel Varianz durch die Faktoren bei einer be­
stimmten Variablen erklärt werden soll. Den Umfang an Varianzerklärung, den die
Faktoren gemeinsam fllr eine Ausgangsvariable liefern, wird als Komm~nalität be­
zeichnet. Die Art und Weise, mit der die Kommunalitäten bestimmt werden, ist Die Faktorwerte liefern nicht nur einen Anhaltspunkt für die Einschätzung der
unmittelbar an die Methode der Faktorenermittlung (Faktorextraktionsmethode) Margarinesorten bezüglich der gefundenen Faktoren, sondern erlauben darüber
gekoppelt. Je nachdem, welche Überlegungen der Kommunalitätenbestimmung hinaus (im Fall einer 2- oder 3-Faktorlösung) eine graphische Darstellung der
zugrunde liegen, werden unterschiedliche Faktorenanalyseverfahren relevant. Faktorenergebnisse. Durch solche "Mappings" lassen sich besonders gut die Po­
Ist eine Entscheidung über die HÖhe der Kommunalitäten der einzelnen Aus­ sitionen von Objekten (hier: Margarinemarken) im Hinblick auf die gefundenen
gangsvariablen getroffen, so muß weiterhin über die Anzahl der zu extrahierenden Faktoren visualisieren (vgl. Abbildung 5.7).
Faktoren entschieden werden, da das Ziel der Faktorenanalyse gerade darin zu se­
hen ist, weniger Faktoren als ursprüngliche Variable zu erhalten. Hier steht der
Anwender vor dem Zielkonflikt, daß mit einer geringen Faktorenzahl tendenziell Abbildung 5.7: "Mapping" der Faktorwerte
ein großer Informationsverlust (im Sfnne von nicht erklärter Varianz) verbunden
ist und umgekehrt. In unserem Beispiel hatten wir uns aufgrund einer Plau­
sibilitätsbetrachtung fllr zwei Faktoren entschieden. F 2.0
Ist schließlich die Anzahl der Faktoren bestimmt, .so ist es von besonderem In­ a Du darfst
teresse, die Beziehungen zwischen den Ausgangsvariablen und den Faktoren zu
kennen. Zu diesem Zweck werden "Korrelationen" berechnet, die ein Maß tür die
k
t
1.5 •
0
Stärke und die Richtung der Zusammenhänge zwischen Faktoren und ur­ r 1.0 f-
Becel
sprünglichen Variablen angeben. Diese Korrelationen werden als Faktorladungen
bezeichnet und in der sog. Faktorladungsmatrix zusarnmengefaBt. Abschließend 0.5 • Weihnachtsbutter
ist es dann von Interesse, wie die befragten Personen die Marken Rama:, SaneUa,
Becel, Du darfst, Holländische Markenbutter und Weihnachtsbutter im Hinblick 0.0 •
auf die beiden "künstlichen" Faktoren "Gesundheit" und "Wirtschaftlichkeit" be­ Sanella
urteilen würden. Gesucht ist also die entsprechende Matrix zu Abbildung 5.4, die
die Einschätzung der Marken bezüglich der beiden Faktoren "Gesundheit" und
-0.5 • Holl. Butter

"Wirtschaftlichkeit" enthält. Diese "Einschätzungen" werden als Faktorwerte be­ -1.0 Rama
zeichnet. Abbildung 5.6 zeigt die entsprechende Faktorwerte-Matrix für unser
-1.5
• I
kleines Ausgangsbeispiel. Die Darstellung enthält standardisierte Werte, wobei die
Ausprägungen als Abweichungen vom Mittelwert dargestellt sind. -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Faktor 2
268 Faktorenanalyse Vorgehensweise 269

Dabei wird deutlich, daß es sich bei diesem "mapping" um eine "relative" Darstel­ 5.2 Vorgehensweise
lung handelt: Die Faktorwerte werden als Abweichung vom auf Null nonnierten
Mittelwert dargestellt, so daß hohe positive Faktorwerte stark überdurchschnittli­ 5.;!.! Variablenauswahl und Errechnung der Korrelationsmatrix
che, hohe negative Faktorwerte stark unterdurchschnittliche Ausprägungen kenn­
zeichnen. Die Güte der Ergebnisse einer Faktorenanalyse ist von
Der in Abbildung 5.8 dargestellte knappe Aufriß der Faktorenanalyse enthält die der Zuverlässigkeit der Ausgangsdaten abhängig. Es
wesentlichen Teilschritte bei der Durchfiihrung einer Faktorenanalyse und ist un­ ~ muß deshalb besondere Sorgfalt auf die Wahl der Un­
ten als Ablaufdiagramm dargestellt. Entsprechend diesem Ablaufdiagramm sind (2) Extraktion der FaktorenI. tersuchungsmerkmale verwendet werden. Insbesondere
die nachfolgenden Betrachtungen aufgebaut. Allerdings ist zu beachten, daß sich , ist darauf zu achten, daß die erhobenen Merkmale auch
bei konkreten Anwendungen der Faktorenanalyse insbesondere die Schritte (2) (3) Bestimmung der für den Untersuchungsgegenstand relevant sind. Irrele­
und (3) gegenseitig bedingen und nur schwer voneinander trennen lassen. Aus di­ Kommunalitäten vante Merkmale sind vorab auszusortieren sowie als
daktischen Gründen wurde hier aber eine Trennung vorgenommen. ähnlich erachtete Kriterien müssen zusammengefaßt
werden. Insbesondere bei der Formulierung von
• Befragungsitems ist darauf zu achten, daß bereits die
Abbildung 5.8: Ablauf einer Faktorenanalyse Wortwahl der Fragestellungen das Antwortverhalten
der Befragten und damit die Streuung der Daten
(1) Variablenauswahl und u beeinflußt. Weiterhin sollten die Befragten einer rnög­
Errechnung der
Korrelationsmatrix ,
(6) Bestimmung der
Faktorwerte j lichst homogenen Stichprobe entstammen da die Höhe
•. '
der KorrelatIOnen ZWischen den Untersuchungsmerk- \
malen (Variablen) durch den Homogenitätsgrad der Befragungsstichprobe beein­
(2) Extraktion der Faktoren flußt wird.
Die oben aufgezeigten Sachverhalte schlagen sich insgesamt in den Korrela­
tionen nieder, die als Maß für den Zusammenhang zwischen Variablen errechnet
werden. Es wurden deshalb Prüfkriterien entwickelt, die es erlauben, Variablen­
(3) Bestimmung der zusammenhänge auf ihre Eignung für eine Faktorenanalyse zu überprüfen. Wir
Kommunalitäten werden deshalb im folgenden zunächst auf die Ermittlung von Korrelationen näher
eingehen und sodann ausgewählte (statistische) Prüfkriterien erläutern.

(4) Zahl der Faktoren


5.2.1.1 Korrelationsanalyse zur Aufdeckung der Variablenzusammenhänge

Faktoren, die als "hinter den Variablen" stehende Größen angesehen werden, re­
(5) Faktorinterpretation präsentieren den Zusammenhang zwischen verschiedenen Ausgangsvariablen. Be­
vor solche Faktoren ennittelt werden können, ist es zunächst erforderlich, die Zu­
sammenhänge zwischen den Ausgangsvariablen meßbar zu machen. Als me­
(6) Bestimmung der thodisches Hilfsmittel wird hierzu die Korrelationsrechnung herangezogen.
Faktorwerte Bereits anhand der Korrelationen läßt sich erkennen, ob Zusammenhänge zwi­
schen Paaren von Variablen bestehen, so daß Variablen als voneinander abhängig
und damit als "bündelungsfähig" angesehen werden können.
Für die Mittelwertmatrix (Abbildung 5.4) in obigem Beispiel läßt sich z.B. die
Korrelation zwischen x 1 (Anteil ungesättigter Fettsäuren) und x2 (Kaloriengehalt)
wie folgt berechnen:
vorgenenswelse L/1
~ IV t'aA.t.vJ.,",uAtJ.(U)0'''''

Abbildung 5.10: Korrelationsmatrix rur das 6-Produkte-Beispiel


Korrelationskoeffizient:
UNGEFETI KALORlEN VITAMIN HALTBARK PREIS
K
2:(Xkl-XI)'(XkZ -X 2) ------------.-------- .. ---_.--- .. --.--------,
k = I (1) UNGEFETT : 1.00000 :
r X,'X2 = -;===========
I K K KALORlEN : 0.71176 1.00000
2: (Xkl _X))2. 2:(XkZ -X2Y VITAMIN :'Q:~~P± ...... _Q.J.Q~~? __..... .1:9PP.QQ __ ... .:
k =I k =I HALTBARK 0.10894 0.13771 0.07825 ri~ööööö·-------------------

mit: PREIS 0.04385 0.06652 0,02362 : 0.98334 1.00000

Ausprägung der Variablen I bei Objekt k (in unserem Beispiel


Xkl
läuft k von 1 bis 6 (6 Marken»
In der Regel empfiehlt es sich, die Ausgangsdatenmatrix vorab zu standardisieren,
Xl
Mittelwert der Ausprägung von Variable 1 über alle Objekte k
da dadurch
xkZ
Ausprägung der Variablen 2 bei Objekt k

- die Korrelationsrechnung und die im Rahmen der Faktorenanalyse erforderli­


X2 Mittelwert der Ausprägung von Variable 2 über alle Objekte k
chen Rechenschritte erleichtert werden;
- Interpretationserleichterungen erzielt werden;
Setzt man in Formel (1) die entsprechenden Werte der Ausgangsdatenmatrix ein, - eine Vergleichbarkeit der Variablen ermöglicht wird, die in unterschiedlichen
so ergibt sich ein Korrelationskoeffizient von r••
""'1'.... 2
=0,71176. Um die im ein­ Maßeinheiten erhoben wurden (z.B. Einkommen gemessen in Euro und Verkauf
zeInen notwendigen Rechenschritte zu erleichtern, bedient man sich zur'Ermittlung von Gütern in Stck.).
der Korrelationskoeffizienten am besten der Hilfstabelle (Abbildung 5.9). Dabei Eine Standardisierung der Datenmatrix erfolgt durch die Bildung der Differenz
stellt Xl den Mittelwert über alle Marken rur die Eigenschaft "Ungesättigte Fett­ zwischen dem Mittelwert und dem jeweiligen Beobachtungswert einer Variablen
säuren" ((1+2+4+5+2+3}:6=2,83) und X2 ftlr die Eigenschaft "Kalorienge­ sowie der anschließenden Division durch die Standardabweichung. Dadurch wird
halt" ((1+6+5+6+3+4}:6=4,17) dar. sichergestellt, daß der neue Mittelwert gleich Null und die Standardabweichung
einer Variablen gleich Eins ist. Die Werte einer standardisierten Datenmatrix be­
zeichnen wir im folgenden nicht mehr mit x, sondern mit z.
Abbildung 5.9: Hilfstabelle zur Berechnung eines Korrelationskoeffizienten Standardisierte Variable

(x.. -x,) (x,,-l<:,) (x",-l(,)' (x,,-l<:,)' (x", -x, ).(x,,-J(,) Xk' -x


Zkj = J j

3.36110 10.02780 5.80555 Sj

Rama .1.83333 -3.16667


-0,83333 1,83333 0.69444 3.36110 ·1,52777
Sanella
1,16667 0,63333 1.36112 0,69444 0,97222 mit:
Becel
2,16667 1.83333 4.69446 3,36110 3,97222
Du darfst
·0,83333 -1,16667 0,69444 1.36111 0,97222
Holt Butter
0,02778 -0,02778 Xkj BeobachtungS'lVert der Variablenj bei Objekt k
Weihnechtsbutter 0,16667 -0,16667 0,02778

10,83334 18,83333 10,16666 Xj Durchschnitt aller Beobachtungswerte der Variablenj über alle Objekte
-.-.--_._----~--------_._~-~~------_.

6 6 sj Standardabweichung der Variablen j


(x",.x,)' I (x".x,)' I (x",-i!,).(x,,'x,)
k=1 k=1 Zkj Standardisierter Beobachtungswert der Variablen j bei Objekt k
10,16664
r,\." =V,Ö,833301.18,83333 = 0.71176
Aus der standardisierten Datenmatrix ergibt sich auch eine einfachere Berechnung
der Korrelationsmatrix R nach folgender Formel:

Berechnet man die Korrelationskoeffizienten über alle Eigenschaften, ergibt sich R=_I_.Z·.Z (2)
K-I
rur die Mittelwertmatrix die in Abbildung 5.10 abgebildete Korrelationsmatrix.
272 Faktorenanalyse
Vorgehensweise 273
wobei Z' die transponierte Matrix der standardisierten Ausgangsdatenmatrix Z
macht sich dies durch viele kleine Werte in der Korrelationsmatrix bemerkbar,
darstellt. I
,I womit eine sinnvolle Anwendung der Faktorenanalyse in Frage gestellt ist. Es ist
Der Leser möge selbst anhand des Beispiels die Gültigkeit der Formel überprü­
deshalb vorab eine Prufung der Variablen auf Normalverteilung, ZUmindest aber
fen. Dabei wird klar werden, daß die Korrelationsmatrix auf Basis der Aus­
auf Gleichartigkeit der Verteilungen empfehlenswert, obwohl die Faktorenanalyse
gangsdaten identisch ist mit der Korrelationsmatrix auf Basis der standardisierten selbst keine Verteilungsannahmen setzt.
Daten. Wird die Korrelationsmatrix aus standardisierten Daten errechnet, so sind
Bezogen auf unser 6-Produkte-Beispiel treten neben sehr hohen Werten (> 0,7)
in diesem Falle Varianz-Kovarianzmatrix und Korrelationsmatrix identisch. Für
insbesondere im unteren Teil der Matrix kleine Korrelationen auf (vgl. Abbildung
den Korrelationskoeffizienten läßt sich auch schreiben:
5.10), so daß die Korrelationsmatrix selbst kein eindeutiges Urteil über die Eig­
S nung der Daten zur Faktorenanalyse zuläßt.
rx ." ="1·"2 . S
- - mit: I " (xkl- x- ! )( Xk2-x- 2 )
x x =--t:... Es ist deshalb zweckmäßig, weitere Kriterien zur Prüfung heranzuziehen. Hierzu
1 2 S S I· 2 K -1 k
XI X2 bieten sich insbesondere statistische Prufkriterien an, die eine Überprüfung der
Korrelationskoeffizienten auf Eignung zur Faktorenanalyse ermöglichen. Es ist
Da wegen der Standardisierung die beiden Varia~zen im Nenner 1 sind, folgt, daß
durchaus empfehlenswert, mehr als ein Kriterium zur faktoranalytischen Eignung
Korrelationskoeffizient und Kovarianz \S"I.X2) identisch sind. der Datenmatrix anzuwenden, da die verschiedenen Kriterien unterschiedliche
Die Korrelationsmatrix zeigt dem Anwender auf, welche Variablen der Ausgangs­ Vor- und Nachteile haben. Im einzelnen werden durch SPSS folgende Kriterien
befragung offenbar mit welchen anderen Variablen dieser Befragung "irgendwie bereitgestellt:
zusammenhängen". Sie zeigt ihm jedoch nicht, ob
I. die Variablen sich gegenseitig bedingen Signifikanzniveaus der Korrelationen

oder Ein Signifikanzniveau überprüft die Wahrscheinlichkeit, mit der eine ZUvor formu­
lierte Hypothese zutrifft oder nicht. Für alle Korrelationskoeffizienten lassen sich
2. das Zustandekommen der Korrelationswerte durch einen oder mehrere hinter die Signifikanzniveaus anfilhren. Zuvor wird eine sogenannte Ho-Hypothese for­
den zusammenhängenden Variablen stehenden Faktoren bestimmt wird. muliert, die aussagt, daß kein Zusammenhang zwischen den Variablen besteht. Das
Angesichts der beiden klar trennbaren Blöcke der Korrelationsmatrix (vgL die ab­ Signifikanzniveau des Korrelationskoeffizienten berechnet anschließend, mit wel­
gegrenzten Vierecke) läßt sich vermuten, daß die Variablen XI bis x3 und x4/xS cher Irrtums wahrscheinlichkeit eben diese Ho-Hypothese abgelehnt werden kann.
durch zwei Faktoren "erklärt" werden könnten. Ein beispielhaftes Signifikanzniveau von 0,00 bedeutet, daß mit dieser Irrtums­
Ausgehend von dieser Hypothese stellt sich unmittelbar die Frage, mit welchem wahrscheinlichkeit die Ho-Hypothese abgelehnt werden kann, sprich zu 0,0% wird
Gewicht denn die beiden Faktoren an der Beschreibung der beobachteten Zusam­ sich der Anwender täuschen, wenn er von einem Zusammenhang ungleich Null
menhänge beteiligt sind. Es ist ja denkbar, daß der Faktor "Gesundheit" als alleini­ zwischen den Variablen ausgeht. Anders ausgedruckt: Mit einer Wahrscheinlich­
ger Beschreibungsfaktor filr die Variablen Xl bis x3 fast filr die gesamten Unter­ keit von 100% wird sich die Korrelation von Null unterscheiden.
schiede in der Ausgangsbefragung verantwortlich ist. Es kann aber auch sein, daß
er nur einen Teil der unterschiedlichen Beurteilungen in der Ausgangsbefragung
..
erklärt. Die größere oder geringere Bedeutung beider Faktoren läßt sich in einer
Gewichtszahl ausdrucken, die im Rahmen einer Faktorenanalyse auch als Eigen­
Abbildung 5.11: Signifikanzniveaus der Korrelationskoeffizienten im 6-Produkte­

Beispiel

wert bezeichnet wird.


KOrrelatlon.matrix

UNGEFETT KALORIEN
5.:U.l Eignung der Korrelationsmatrix I SignIfikanz (l-seitlg) UNGEFETT
,05632
VITAMIN HALTBARK PREIS
,00111 .411lSZ .46713
KAlORIEN ,05632 ,05924 ,39737 .45018
VITAMIN ,00111 ,05924 ,44144
Zu Beginn des Abschnittes 5.2.1 hatten wir bereits darauf hingewiesen, daß sich HALTBARK ,41862 ,39737 ,44144
.49229
PREIS .00021
die Eignung der Ausgangsdaten filr faktoranalytische Zwecke in der Korrelati­ 46713 45018 48229 00021
onsmatrix widerspiegelt. Dabei liefern bereits die Ausgangsdaten selbst einen An­
haltspunkt zur Eignungsbeurteilung der Daten zum Zwecke der Faktorenanalyse,
da die Höhe der Korrelationskoeffizienten durch die Verteilung der Variablen in
Für unser Beispiel zeigt Abbildung 5.11, daß sich genau diejenigen Korrelations­
der Erhebungsgesamtheit (Symmetrie, Schiefe und Wölbung der Verteilung)
koeffizienten signifikant von Null unterscheiden (niedrige Werte in Abbildung
beeinflußt wird. Liegt einer Erhebung eine heterogene Datenstruktur zugrunde, so
5.11), die in Abbildung 5.10 hbhe Werte (> 0,7) aufweisen, während die Korrela­
f

274 Faktorenanalyse
Vorgehensweise 275
tionskoeffizienten mit geringen Werten auch ein hohes Signifikanzniveau (Werte>
Maße durch die Größe der Stichprobe beeinflußt wird. Für unser Beispiel erbrach­
0,4) besitzen. Das bedeutet, daß sich Z.B. die Korrelation zwischen den Variablen te der Bartlett-Test eine Prüfgröße von 17,371 bei einem Signifikanzniveau von
"Vitamingehalt" und "Haltbarkeit" nur mit einer Wahrscheinlichkeit von
0,0665. Das bedeutet, daß mit einer Wahrscheinlichkeit von (1- 0,0655=)93,45%
(1- 0,44 =) 56% von Null unterscheidet.
davon auszugehen ist, daß die Variablen der Erhebungsgesamtheit korreliert sind,
Setzt man als kritische Irrtumswahrscheinlichkeit einen Wert von 0,05 fest, so wä­
Inverse der Korrelationsmatrix re für unser Beispiel die Nullhypothese anzunehmen und folglich die Korrelati­
Die Eignung einer Korrelationsmatrix für die Faktorenanalyse läßt sich weiterhin onsmatrix nur zufällig von der Einheitsmatrix verschieden. Das läßt dann den
an der Struktur der Inversen der Korrelationsmatrix erkennen. Dabei wird davon Schluß zu, daß die Ausgangsvariablen in unserem Fall unkorreliert sind,
ausgegangen, daß eine Eignung dann gegeben ist, wenn die Inverse eine Diago­ Allerdings sei an dieser Stelle nochmals darauf hingewiesen, daß die Anwen­
na/matrix darstellt, d. h. die Nicht-diagonal-Elemente der inversen Korrelati­ dung des Bartlett-Tests eine Prüfung der Ausgangsdaten auf Normalverteilung
onsmatrix möglichst nahe bei Null liegen. Für das 6-Produkte-Beispiel zeigt voraussetzt, die in unserem Fall noch erfolgen müßte.
Abbildung 5.12, daß insbesondere für die Werte der Variablen "Ungesättigte Fett­
säuren" und "Vitamingehalt" sowie "Haltbarkeit" und "Preis" hohe Werte auftre­ Anti-Image-Kovarianz-Matrix
ten, während alle anderen Werte relativ nahe bei Null liegen. Es existiert allerdings
Der Begriff Anti-Image stammt aus der Image-Analyse von Guttmann. 6 Guttrnann
kein allgemeingültiges Kriterium dafür, wie stark und wie häufig die Nicht-dia­
gonal-Elemente von Null abweichen dürfen. geht davon aus, daß sich die Varianz einer Variablen in zwei Teile zerlegen läßt:
das Image und das Anti-Image.
Das Image beschreibt dabei den Anteil der Varianz, der durch die verbleibenden
Abbildung 5.12: Inverse der Korrelationsmatrix im 6-Produkte-Beispie1 Variablen mit Hilfe einer multiplen Regressionsanalyse (vgl. Kapitel 1) erklärt
werden kann, während das Anti-Image denjenigen Teil darstellt, der von den übri­
Inverse KorrelationsmatrIx gen Variablen unabhängig ist.lDa die Faktorenanalyse unterstellt, daß den Variab­
len gemeinsame Faktoren zugrunde liegen, ist es unmittelbar einsichtig, daß Vari­
UNGEFETT KALORIEN VITAMIN HALTBARK PREIS
UNI.:iI:I"t:' 14,49910 -,60678 -13,19772 -5,58018 5,20353 ablen nur dann für eine Faktorenanalyse geerii' et sind, wenn das Anti-Image der
KALORIEN -,60678 2,17944 -,82863 -2,18066 2,04555 Variablen möglichst gering ausflillt.\Das ab bedJ:Jltet;.. daß die Nicht-diagonal­
VITAMIN -13,19772 -,82863 14,00000 4,79257 -4,40959 Elemente der Anti-Image-Kovarianz-Matrix m glichst nahe bei Null liegen müs­
HALTBARK -5,58018 -2,18066 4,79257 38,17871 -37,26624 sen bzw, diese Matrix eine Diagona/matrix darstellen sollte. Für das 6-Produkte­
PREIS 520353 204555 -440959 -3126624 3738542
Beispiel zeigt Abbildung 5.13, daß die Forderung nach einer Diagonalmatrix er­
fiiHt ist.

Bartlett-Test (test of spherlcity)


Abbildung 5.13: Anti-Image-Kovarianz-Matrix im 6-Produkte-Beispiel
Der Bartlett-Test überprüft die Hypothese, ob die Stichprobe aus einer Grundge­
samtheit entstammt, in der die Variablen unkorreliert sind.
s ' AnIl..JmIU_atrIzen

Gleichbedeutend mit dieser Aussage ist die Frage, ob die Korrelationsmatrix nur i Arili;linage-l<;ovananz UNül::/'1::
UNGEFETT KALORIEN VITAMIN HALTBARK PREIS
.06897 -,01920 -,06502
zuflillig von einer Einheitsmatrix abweicht, da im Falle der Einheitsmatrix alle KAlORIEN -,01920 ,45883
-,01008 ,00960
-,02716 -,02621 ,02511
Nicht-diagonal-Elemente Null sind, d. h. keine Korrelationen zwischen den Vari­ VITAMIN -,06502 ,,02716 ,07143 ,00897 -,00842
HALTBARK -,01008
ablen vorliegen. Es werden folgende Hypothesen formuliert: PREIS 00960
',02621 ,00697 ,02619 -,02611
02511 -00842 ·02611 02675
HO: Die Variablen in der Erhebungsgesamtheit sind unkorreliert.
H1: Die Variablen in der Erhebungsgesamtheit sind korreliert.
Als Kriterium dafilr, wann die Forderung nach einer Diagonalmatrix erfüllt ist,
Der Bartlett-Test setzt voraus, daß die Variablen in der Erhebungsgesamtheit einer schlagen Dziuban und Shirkey vor, die Korrelationsmatrix dann als für die Fak­
Norma/vertei/ung folgen und die entsprechende Prüfgröße annähernd Chi­
torenanalyse ungeeignet anzusehen, wenn der Anteil der Nicht-diagonal-Elemente,
Quadrat-verteilt ist. Letzteres aber bedeutet, daß der Wert der Prüfgröße in hohem
die ungleich Null sind (> 0,09), in der Anti-Image-Kovarianzmatrix (AIC) 25%

5 Vgl. Dziuban, C. D.lShirkey, E, C., 1974, S, 358 ff, • Vgl. Guttmann, L., 1953, S. 277 ff,
L.IO r aKlOrenanalyse Vorgehensweise 277

oder mehr beträgt.7 Das trifft in unserem Fall fil.r keines der Nicht-diagonal­ Abbildung 5.14: Anti-Image-Korrelations-Matrix im 6-Produkte-Beispiel
Elemente der Ale-Matrix zu, womit nach diesem Kriterium die Korrelationsmatrix
Antl.lmlge-Matrlun
fil.r faktoranalytische Auswertungen geeignet ist.
UNGEFETT KALORIEN VITAMIN HALTBARK PREIS
AntI-lmage'MrrelilllOn UNGEFETT .59680· :.10794 -.92633 -,23717 ,22350
Kaiser-Meyer-Olkin-Kriterium KALORIEN -.10794 ,87789" -,15001 -.23906 .22661
VITAMIN -,92633 -.15001 .59755" .20730 -,19274
HALTSARK -.23717 -.23906 .20730 .47060" -,98640
Während die Überlegungen von Dziuban und Shirkey auf Plausibilität beruhen, PREIS 22561 -19274 -95640 45701"
22350
haben Kaiser, Meyer und Olkin versucht, eine geeignete Prüfgröße zu entwickeln 8. Maß der StlchplObenelgnung
und diese zur Entscheidungsfindung heranzuziehen. Sie berechnen ihre PTÜfgröße,
die als "measure 0/ sampling adequacy (MSA)" bezeichnet wird, auf Basis der An­
ti-Image-Korrelationsmatrix.•Das MSA-Kriterium zeigt an, in welchem Umfang
Abbildung 5.14 macht deutlich, daß lediglich die Variable "Kaloriengehalt" mit
die Ausgangsvariablen zusammengehören und dient somit als Indikator dafil.r, ob
einem MSA-Wert von 0,87789 als "verdienstvoll" anzusehen ist, während alle üb­
eine Faktorenanalyse sinnvoll erscheint oder nicht..Das MSA-Kriterium erlaubt
rigen Variablen eher "klägliche" oder "untragbare" Ergebnisse aufweisen. Die va­
sowohl eine Beurteilung der Korrelationsmatrix insgesamt als auch einzelner Vari­

de Beurteilungen vor:
8
°
ablen; sein Wertebereich liegt zwischen und 1. Kaiser und Rice schlagen folgen­
riablenspezifischen MSA-Werte liefern damit rur den Anwender einen An­
haltspunkt dafür, welche Variablen aus der Analyse auszuschließen wären, wobei
sich ein sukzessiver Ausschluß von Variablen mit jeweiliger Prüfung der vorge­
stellten Kriterien empfiehlt.
MSA 2: 0,9 marvelous ("erstaunlich")
MSA 2: 0,8 meritorious ("verdienstvoll")
MSA 2: 0,7 middling ("ziemlich gut") 5.2.2 Extraktion der Faktoren
MSA 2: 0,6 mediocre ("mittelmäßig")
Die bisherigen Ausruhrungen haben verdeutlicht, daß
MSA 2: 0,5 miserable ("kläglich")
bei Faktorenanalysen große Sorgfalt auf die Wahl der
MSA <0,5 unacceptable ("untragbar")
Untersuchungsmerkmale und -einheiten zu verwenden
ist, da durch die Güte der Korrelationsmatrix, die den
Sie vertreten die Meinung, daß sich eine Korrelationsmatrix mit MSA < 0,5 nicht Startpunkt der Faktorenanalyse darstellt, alle Er­
9
rur eine Faktorenanalyse eignet. Als wünschenswert sehen sie einen Wert von gebnisse der Faktorenanalyse beeinflußt werden. Im
lO
MSA 2: 0,8 an. In der Literatur wird das MSA-Kriterium, das auch als Kaiser­ folgenden ist nun zu fragen, wie denn nun die Faktoren
Meyer-Olkin-Kriterium (KMK) bezeichnet wird, als das beste zur Verrugung ste­ rein rechnerisch aus den Variablen ermittelt werden
hende Verfahren zur Prüfung der Korrelationsmatrix angesehen, weshalb seine (4) Zahl der Faktoren können. Wir werden im folgenden zunächst das Fun­
1 r
Anwendun vor der Durchfuhrung einer Faktorenanalyse auf jeden Fall zu emp­ damentaltheorem der Faktorenanalyse darstellen und
Faktorinterp~etat~
fehlen ist. anschließend die Extraktion auf graphischem Wege
Bezogen auf unser 6-Produkte-Beispiel ergab sich rur die Korrelationsmatrix (5)
plausibel machen. Auf die Unterschiede zwischen
insgesamt ein MSA-Wert von 0,576, womit sich rur unser Beispiel ein riur "klägli­ konkreten (rechnerischen) Faktorextraktionsverfahren
ches" Ergebnis ergibt. Darüber hinaus gibt SPSS in der Diagonalen der Anti­ (6) Bestimmung der gehen wir dann im Zusammenhang mit der Bestim­
Faktorwerte
Image-Korrelationsmatrix aber auch das MSA-Kriterium rur die einzelnen Variab­ mung der Kommunalitäten (Abs~hnitt 5.2.3) ein.
len an.

7 Vgl. Dziuban, C. D.lShirkey, E. C., 1974, S. 359.


8 Vgl. Kaiser, H. F./Rice, J., 1974, S. 111 ff.
9 Vgl. Cureton, E. E./D'Agostino, R. B., 1983, S. 389 f.
10 Vgl. Kaiser, H. F., 1970, S. 405.
II Vgl Stewart, D. W., 1981, S. 57 f.; Dziuban, C. D.lShirkey, E. C., 1974" S. 360 f.
278 Faktorenanalyse Vorgehensweise 279

5.2.2.1 Das FundamentaItheorem Da Z aber im Rahmen der Faktorenanalyse durch P . A' beschrieben wird
(Z =P.A'), ist in (2) Z durch Fonnel (3c) zu ersetzen, so daß sich folgende Fonnet
Während die bisherigen Überlegungen die Ausgangsdaten und ihre Eignung für ergibt:
faktoranalytische Zwecke betrafen, stellt sich nun die Frage, wie sich die Faktoren
rechnerisch aus den Variablen ennitteln lassen. Zu diesem Zweck geht die Fakto­ R=_I_{P.A')'{P.A') (4)
renanalyse von folgender grundlegenden Annahme aus: K I

"Jeder Beobachtungswert einer Ausgangsvariablen Xj oder der stan­ Nach Auflösung der Klammem ergibt sich nach den Regeln der Matrixmultipli­
dardisierten Variablen Zj läßt sich als eine Linearkombination meh­ kation:
rerer (hypothetischer) Faktoren beschreiben."
r---"----..
Mathematisch läßt sich dieser Zusammenhang 'wie folgt fonnulieren: R=_I_.A,P'.P.A'=A-I_.p'.P.A' (5)
K-I ~
(3a)
Xkj =ajl 'Pkl +ap 'PIa + ... +ajQ 'PkQ
~

bzw. für standardisierte x-Werte


Da alle Daten standardisiert sind, läßt sich der _1_. pt.P Ausdruck in Formel (5)
K-l
'----y---J
(3b)
Zkj=ajI'Pkl+ a j2·PIa+..·+a jQ·PkQ=i:ajq'Pkq
q~l
auch als K(Jrrelationsmatrix der Faktoren (C) bezeichnen (vgl. Fonnel (2», so daß
sich schreiben läßt:
Die obige Fonnel (3b) besagt für das 2-Faktorenbeispiel nichts anderes, als daß
z.B. die standardisierten Beobachtungswerte für "Anteil ungesättigter Fettsäuren" R = A·C·A' (6)
und "Vitamingehalt" beschrieben werden durch die Faktoren P 1 und P2, so wie sie
Da die Faktoren als unkorreliert angenommen werden, entspricht C einer Einheits­
im Hinblick auf Marke k gesehen wurden <PIel bzw. Pk2), jeweils multipliziert mit
matrix (einer Matrix, die auf der Hauptdiagonalen nur Einsen und sonst Nullen
ihren Gewichten bzw. Faktorenladungen beim Merkmal j, also für Faktor 1 ajl und
enthält). Da die Multiplikation einer Matrix mit einer Einheitsmatrix aber wieder
für Faktor 2 a'2' die Ausgangsmatrix ergibt, vereinfacht sich die Fonnel (6) zu:
Oie Faktorradung gibt dabei an, wieviel ein Faktor mit einer Ausgangsvariablen
zu tun hat. Im mathematisch-statistischen Sinne sind Faktorladungen nichts ande­ R = A·A' (7)
res als eine Maßgröße für den Zusammenhang zwischen Variablen und Faktor,
und das ist wiederum nichts anderes als ein Korrelationskoeffizient zwischen Fak­ Die Beziehungen (6) und (7) werden von Thurstone als das Fundamentaltheorem
tor und Variablen. der Faktorenanalyse bezeichnet, da sie den Zusammenhang zwischen Korrelati­
Um die Notation zu verkürzen, schreibt man häufig den Ausdruck (3b) auch in onsmatrix und Faktorladungsmatrix beschreiben.
Matrixschreibweise. Identisch mit Fonnel (3b) ist daher auch folgende Ma­ Das Fundarnentaltheorem der Faktorenanalyse besagt nicht anderes, als daß sich
trixschreibweise, die die Grundgleichung der Faktorenanalyse darstellt: die Korrelationsmatrix durch die Faktorladungen (Matrix A) und die Korrelationen
zwischen den Faktoren (Matrix C) reproduzieren läßt. Für den Fall, daß man von
Z=p·A' (3c)
unabhängigen (orthogonalen) Faktoren ausgeht, reduziert sich das Fun­
damentaltheorem auf Fonnel (7). Dabei muß sich der Anwender allerdings bewußt
Aufbauend auf .diesem Grundzusammenhang läßt sich dann auch eine Rechen­
sein, daß das Fundamentaltheorem der Faktorenanalyse nach Fonnel (7) stets nur
vorschrift ableiten, die aufzeigt, wie aus den erhobenen Daten die vennuteten Fak­
unter der Prämisse einer Linearverknüpfung und Unabhängigkeit der Faktoren
toren mathematisch ennittelt werden können.
Gültigkeit besitzt.
Wir hatten gezeigt, daß die Korrelationsmatrix R sich bei standardisierten Daten
wie folgt aus der Datenmatrix Z ennitteln läßt:
5.2.2.2 Graphische Interpretation von Faktoren
R=_I_.Z"Z (2)
K-l Der Infonnationsgehalt einer Korrelationsmatrix läßt sich auch graphisch in einem
Vektor-Diagramm darstellen, in dem die jeweiligen Korrelationskoeffizienten als
Winkel zwischen zwei Vektoren dargestellt werden. Zwei Vektoren werden dann
Vorgehensweise 281
280 Faktorenanalyse
Abbildung 5.16: Werte rur den Cosinus
als linear unabhängig bezeichnet, wenn sie senkrecht (orthogonal) aufeinander ste­ (entnommen aus: Geliert, WJKüstner,H.lHellwich, M.fKästner, H.: Kleine Enzy­
hen. Sind die beiden betrachteten Vektoren (Variablen) jedoch korreliert, ist der klopädie Mathematik, Leipzig 1969. S. 799)
Korrelationskoeffizient also .;C 0, z.B. 0,5, dann wird dies graphisch durch einen
Grad CO! Grad cO!
Winkel von 60° zwischen den beiden Vektoren dargestellt. 45 0,7071 90 00000
Es stellt sich die Frage: Warum entspricht ein Korrelationskoeffizient von 0,5 44 7193 89 0175
genau einem Winkel von 60°? Die Verbindung wird über den Cosinus des je­ 43 7314 88 0349
weiligen Winkels hergestellt. 42 7431 87 0523
Verdeutlichen wir uns dies anhand des Ausgangsbeispiels (Abbildung 5.15): 41 7547 86 0698
40 07660 85 0872
In Abbildung 5.15 repräsentieren die Vektoren AC und AB z.B. die beiden Va­ 39 7771 84 1045
riablen "Kaloriengehalt" und "Vitamingehalt". Zwischen den beid~_yariablen 38 7880 83 1219
möge eine Korrelation von 0,5 gemessen worden sein. Der Vektor AC, der den 37 7986 82 1392
Kaloriengehalt repräsentiert und der genau wie AB aufgrund der Standardisierung 36 8090 81 1564
35 8192 80 01736
eine Länge von 1 hat, weist zu AB einen Winkel von 60° auf. Der Cosinus des 34 8290 79 1908
Winkels 60°, der die Stellung der beiden Variablen zueinander (ihre Richtung) an· 33 8387 78 2079
gibt, ist definiert als Quotient aus Ankathete und Hypothenuse, also als AD/ AC. 32 8480 77 2250
Da AC aber gleich 1 ist, ist der Korrelationskoeffizient identisch mit der Strecke 31 8572 76 2419
30 08660 75 2588
AD. 29 8746 74 2756
Wie Abbildung 5.16 ausschnitthaft zeigt, ist z.B. der Cosinus eines 60°-Winkels 28 8829 73 2924
gleich 0,5. Entsprechend läßt sich jeder beliebige Korrelationskoeffizient zwischen 27 8910 72 3090
zwei Variablen auch durch zwei Vektoren mit einem genau definierten Winkel zu­ 26 8988 71 3256
einander darstellen. Verdeutlichen wir uns dies noch einmal anband einer Korrela· 25 9063 70 0,3420
24 9135 69 3584
tionsmatrix mit drei Variablen (Abbildung 5.17). 23 9205 68 3746
22 9272 67 3907
21 9336 ·66 4067
Abbildung 5.15: Vektordarstellung einer Korrelation zwischen zwei Variablen ZO 0,9397 65 4226
19 9455 64 4384
c 18 9511 63 4540
17 9563 62 4695
16 9613 61 4848
15 9659 60 05000
14 9703 59 5150
13 9744 58 5299
12 9781 57 5446
11 9816 56 5592
10 09848 55 5736
9 9877 54 5878
8 9903 53 6018
7 9925 52 6157
6 9945 51 6293
5 9962 50 0,6428
A 0 B 4 9976 49 6561
\ ) 3 9986 48 6691
V 2 9994 47 6820
Standardisierte LOnge von 1 1 9998 46 6947
0 10000 45 7071
Vorgehensweise 283
282 Faktorenanalyse

Abbildung 5.17: Korrelationsmatrix


Je mehr Variable jedoch zu berücksichtigen sind, desto mehr Dimensionen werden
. benötigt, um die Vektoren in ihren entsprechenden Winkeln zueinander zu positio­
nieren. Die Faktorenanalyse trachtet nun danach, das sich über die Korrelations­

=r6,8660
~
koeffizienten gemessene Verhältnis der Variablen zueinander in einem möglichst
R 1 gering dimensionierten Raum zu reproduzieren. Die Zahl der benötigten Achsen
lO,1736 0,6428 gibt dann die entsprechende Zahl der Faktoren an.
Wenn man die Achsen als Faktoren ansieht, dann stellt sich unmittelbar die Fra­
ge: Wie werden diese Achsen (Faktoren) in ihrer Lage zu den jeweiligen Vektoren
(Variablen) bestimmt?
Dazu vergegenwärtigt man sich am besten das Bild eines halboffenen Schirmes.
R läßt sich auch anders schreiben (vgl. Abbildung 5.18).
Die Zacken des Schirmgestänges, die alle in eine bestimmte Richtung weisend die
Variablen repräsentieren, lassen sich näherungsweise auch durch den Schirmstock
darstellen. Vereinfacht man diese Überlegung aus DarstellungsgrQnden noch wei­
Abbildung 5.18: Korrelationsmatrix mit Winkelausdrucken
ter auf den 2-Variablen-Fall wie in AbbiIdu!!8...5.20, die einen Korrelationsko­
effizienten von 0,5 für die durch die Vektoren OA und OB dargestellten Variablen
repräsentiert, dann gibt der Vektor OC eine zusammenfassende (faktorielle) Be­

l
0° schreibung wieder. Die beiden Winkel von 30° zwischen Vektor I bzw. Vektor II
R= 30° 0° und Faktor-Vektor geben wiederum an, inwieweit der gefundene Faktor mit Vek­
80° 50° 0° tor (Variable) I bzw. II zusammenhängt. Sie repräsentieren ebenfalls Korrelations­
koeffizienten, und zwar die zwischen den jeweiligen Variablen und dem Faktor.
Diese Korrelationskoeffizienten hatten wir oben als Faktorladungen bezeichnet.
Der Leser möge die entsprechenden Werte selbst in einer Cosinus-Tabelle über­ Die Faktorladungen des 1. Faktors betragen also in bezug auf Variable I und Vari­
prüfen. able II: cos 30° = 0,8660.
Die der oben gezeigten Korrelationsmatrix zugrundeliegenden drei Variablen
und ihre Beziehungen zueinander lassen sich relativ leicht in einem zweidimen'
sionalen Raum darstellen (Abbildung 5.19). Abbildung 5.20: FaktorlOsung bei 2 Variablen

j
.
Abbildung 5.19: Graphische Darstellung des 3-Variablen-Beispiels
A
Vektor X2
Vektor Xl Vektorx3 Vektor x,

~---------_._------~---- ... C

Resultante

e
Vektor X,
284 Faktorenanalyse
Vorgehensweise 285
5.2.2.3 Das Problem der Faktorextraktion Linie in Abbildung 5.23). Diesen Vektor bezeichnen wir als Resultante. Er ist die
graphische Repräsentation des 1. Faktors.
Nachdem wir nun wissen, was eine Faktorladung inhaltlich bedeutet, ist zu fragen:
Wie findet man einen solchen Vektor (Faktor), der stellvertretend ftir mehrere zu­
sammenhängende Variable fungieren kann? Erinnern wir uns noch einmal des Abbildung 5.22: Graphische Darstellung des 5-Variablen-Beispiels
Ausgangsbeispiels. Aufstrichfette waren nach den ftinfMerkmalen
- Anteil ungesättigter Fettsäuren
- Kaloriengehalt
~
- Vitamingehalt
- Haltbarkeit Xs
- Preis Xl
bewertet worden l2 . Aus dieser Bewertung sei die Korrelationsmatrix in Abbildung
5.21 berechnet worden.

Abbildung 5.21: Spiegelbildlich identische KOlTelationsmatrix

x, X, x, x. x.

x, 70' 100'
X, 0,9848 90·
x. 0,3420 30'
x. 0,0000 10·
X. -0.1736

Abbildung 5.23: Graphische Darstellung des Schwerpunktes


Diese Korrelationsmatrix enthält in der unteren Dreiecks-Matrix die Korrelations­
werte, in der oberen (spiegelbildlich identischen) Dreiecks-Matrix die ent­ (Erste Re­
sprechenden Winkel. Graphisch ist der Inhalt dieser Matrix in Abbildung 5.22 dar­ sultante)
gestellt. X2
Das Beispiel wurde so gewählt, daß die Winkel zwischen den Faktoren in einer
zweidimensionalen Darstellung abgebildet werden können - ein Fall, der in der X, XI!

Realität allerdings kaum relevant ist.


Wie findet man nun den 1. Faktor in dieser Vektordarstellung?
Bleiben wir zunächst bei der graphischen Darstellung, dann sucht man den
Schwerpunkt aus den ftinf Vektoren. 45"12'
Der Leser möge sich dazu folgendes verdeutlichen:
In Abbildung 5.22 ist der Faktor nichts anderes als die Resultante der funfVekto­ -------.
ren. Würden die ftinfVektoren funf Seile darstellen mit einem Gewicht in 0, und o
Faktor­
vektor2
jeweils ein Mann würde mit gleicher Stärke an den Enden der Seile ziehen, dann
würde sich das Gewicht in eine bestimmte Richtung bewegen (vgl. die gestrichelte

Betrachtet man nun die jetzt gebildeten Winkel zwischen dem 1. Faktor und den
Ausgangsvektoren, dann hat man auch die gesuchten Faktorladungen gefunden.
12 Es werden hier andere Werte als im Ausgangsbeispiel verwendet, um zunächst eine ein­
deutige graphische Lösung zu ermöglichen.
286 Faktorenanalyse Vorgehensweise 287

Beispielsweise beträgt der Winkel zwischen 1. Faktor und 1. Variablen (Anteil un­ In einem solchen Fall, wenn die ermittelten (extrahierten) Faktoren die Unter­
gesättigter Fettsäuren) 55° 12'. Dies entspricht einer Faktorladung von 0,5707. Der schiede in den Beobachtungsdaten restlos erklären, muß die Summe der Ladungs­
Leser möge die übrigen Winkel selbst ausmessen. . quadrate rur jede Variable gleich 1 sein. Warum?
Schlägt er die Werte rur den Cosinus der jeweiligen Winkel in einer Cosinus­ I. Durch die Standardisierung der Ausgangsvariablen erzeugten wir einen Mit­
Tabelle nach, so wird er feststellen, daß sich die in Abbildung 5.24 gezeigten übri­ telwert von 0 und eine Standardabweichung von 1. Da die Varianz das Quadrat
gen Faktorladungen ergeben. der Standardabweichung ist, ist auch die Varianz gleich 1:
Ein zweiter Faktor, der ja vom 1. Faktor unabhängig sein soll, ergibt sich durch
die Errichtung eines Vektors in 0, der rechtwinklig zum 1. Faktor steht. Damit er­ ~~ 00
geben sich die in Abbildung 5.25 dargestellten Faktorladungen (der Leser möge 2. Die Varianz einer jeden Variablen j erscheint in der Korrelationsmatrix als
die Werte selbst überprüfen). Selbstkorrelation.
Man kann diese Überlegung an der graphischen Darstellung in Abbildung
5.15 deutlich machen. Wir hatten gesagt, daß die Länge der Strecke AD den
Abbildung 5.24: Einfaktorielle Ladungsmatrix
Korrelationskoeffizienten beschreibt, wenn AC standardisiert, also gleich 1 ist.
Im Falle der Selbstkorrelation fallen AC und AB zusammen. Die Strecke
Faktor - -
AB bzw. AC mit der normierten Länge vo!!..! ergibt den (Selbst-) Korrelati­
Xl 0,5707 onskoeffizienten. Die Länge des Vektors AB bzw. AC gibt aber definiti­
x2 0,7046
• onsgemäß die Ausprägungs-Spannweite der Ausgangsvariablen, also die Stan­
dardabweichung wieder. Wegen der Standardisierung ist diese jedoch mit dem
x3 0,9668
Wert 1 gleich der Varianz, so daß tatsächlich gilt:
x4 0,8211
0,7096
Sf = 1 = Ijj (9)
J
3. Es läßt sich zeigen, daß auch die Summe der Ladungsquadrate der Faktoren
gleich I ist, wenn eine komplette Reproduktion der Ausgangsvariablen durch
Wir haben das Beispiel so gewählt, daß alle Korrelationskoeffizienten zwischen die Faktoren erfolgt.
den Ausgangsvektoren (Variablen) im zweidimensionalen Raum darstellbar waren. Schauen wir uns dazu ein Beispiel an, bei dem zwei Variablen durch zwei
Damit können die Variationen in den Korrelationskoeffizienten vollständig über Faktoren reproduziert werden (Abbildung 5.26).
zwei Faktoren erklärt werden. Mit anderen Worten: Es genügen zwei Faktoren, um
die verschiedenen Ausprägungen der Ausgangsvariablen vollständig zu repro­
duzieren (deterministisches Modell). Abbildung 5.26: Zwei Variablen-Zwei Faktor-Lösung

Abbildung 5.25: ZweifaktorieHe Ladungsmatrix Resutlanie 2 (Faktor 2)

Faktor 1 Faktor 2

Xl 0,5707 -0,8211
o A Vektor x;

x2 0,7046 -0,7096

x3 0,9668 0,2554 120'


,<= fH • C Resultante 1 (Faktor 1)
x4 0,8211 0,5707

Xs 0,7096 0,7046
B Vektor x,

Die negativen Faktorladungen zeigen an, daß der jeweilige Faktor negativ mit der
entsprechenden Variablen verknüpft ist et vice versa.
Vorgehensweise 289
288 Faktorenanalyse
5.2.3 Bestimmung der Kommunalitäten
Die Faktorladungen werden durch den Cosinus der Winkel zwischen Aus­
gangsvektoren und Faktoren beschrieben. Oas bedeutet rur Variable I z.B.: (1) Variablenauswahl und In einem konkreten Anwendungsfall, bei dem vor dem
ElTechnung der
KOlTelationsmatrix Hintergrund des Ziels der Faktorenanalyse die Zahl der
Ladung des 1. Faktors: cos Winkel COA = OC / OA Faktoren kleiner als die Zahl der Merkmale ist, kann es
Ladung des 2. Faktors: cos Winkel DOA OO/OA (2) Extraktion der sein, daß die Summe der Ladungsquadrate (erklärte
Varianz) kleiner als I ist. Dies ist dann der Fall, wenn
Wenn obige Behauptung stimmt, müßte gelten: aufgrund theoretischer Vorüberlegungen klar ist, daß

[~J +[~~J
nicht die gesamte Varianz durch die Faktoren bedingt
(lOa)
=1 ist. Dies ist das sog. Kommunalitätenproblem.
Beispielsweise könnten die auf den Wert von I nor­
Überprüfung:
mierten Varianzen der Variablen "Kaloriengehalt" und
2 2 2
2
OC 00 üc +00 "Anteil ungesättigter Fettsäuren" nur zu 70 % auf den
(lOb) (5) Faktorinterpretatiln
- -2+ - ­
2 2
Faktor "Gesundheit" zurückzufiihren sein. 30 % der
OA OA OA
Varianz sind nicht durch den gemeinsamen Faktor be­
In Abbildung 5.26 in Verbindung mit dem Satz des Pythagoras gilt:
(6) Bestimmung der dingt sondern durch andere Faktoren oder durch Meß­
Faktorwerte ' .
-2 -2 -2
fehler (Restvarianz).
OA =OC + AC (IOc) Abbildung 5.27 zeigt die Zusammenhänge noch einmal graphisch.
Werden statt eines Faktors zwei Faktoren extrahiert, so läßt sich naturgemäß
Da nach Abbildung 5.26 AC GD, gilt auch:
mehr Gesamtvarianz durch die gemeinsamen Faktoren erklären, z.B. 80 % wie in
2 2 2
Abbildung 5.28. Den Teil der Gesamtvarianz einer Variablen, der durch die ge­
OA == OC +00 (IOd)
meinsamen Faktoren erklärt werden soll, bezeichnet man als Kommunalität h~ . Da
J
(IOd) eingesetzt in (lOb) ergibt dann:

-2 -2
i. d. R. die gemeinsamen Faktoren nicht die Gesamtvarianz erklären, sind die
OC +00 == 1 (lOe) Kommunalitäten meist kleiner als eins.
2 2
OC +00
4. Als Fazit läßt sich somit folgende wichtige Beziehung ableiten:
Abbildung 5.27: Die Komponenten der Gesamtvarianz bei der I-Faktorlösung
(11)
sJ = I'jj = aJl +aJ2+···+ a Jq = 1,
erklärte Varian:t
wobei ~l bis aj die Ladungen der Faktoren I bis q auf die Variable j angibt.
Das bedeutet m~ts anderes, als daß durch Quadrierung der Faktorladungen in
bezug auf eine Variable und deren anschließender Summation der durch die
Faktoren wiedergegebene Varianzerklärungsantei/ der betrachteten Variablen
rq
dargestellt wird: a? ist nichts anderes als das Bestimmtheitsmaß der Regres-
M .
sionsanalyse (vgl. Kapitel I in diesem Buch). Im Falle der Extraktion aller standardisierte Gesamtvarian:t = 1

möglichen Faktoren ist der Wert des Bestimmtheitsmaßes gleich 1.


290 Faktorenanalyse Vorgehensweise 291
Abbildung 5.28: Die Komponenten der Gesamtvarianz bei einer 2-Faktorlösung 100xIOO-Matrix) hat folglich eine deutlich geringer negative Auswirkung als im
Falle einer 2x2-MatrixY
In der Schätzung der Kommunalitäten ist der Anwender des Verfahrens nicht
2 2 2 völlig frei. Vielmehr ergeben sich theoretische Ober- und Untergrenzen für die je­
a j1 =0,7 8
j2 = 0,1 siRest= 0,2 weiligen Werte, die aber hier im einzelnen nicht dargestellt werden sollen. 14 Inner­
halb dieser Grenzen existiert jedoch keine eindeutige Lösung. Vielmehr ist eine
Reihe von Schätzverfahren entwickelt worden, die aber zu unterschiedlichen Er­
gebnissen gelangen können.
Kommunalitat H: = 0,8
(erl<1arte Varianz) Bei praktischen Anwendungen sind i. d. R. jedoch nur zwei Verfahren zur Kom­
munalitätenbestimmung von Bedeutung, die sich wie folgt beschreiben lassen:

1. Der Anwender geht von der Überlegung aus, daß die gesamte Varianz der Aus­
Das heißt aber nichts anderes, als daß für die Faktorenanalyse das Fundamen­
gangsvariablen durch die Faktorenanalyse erklärt werden soll und "setzt" somit
taltheorem in Gleichung (7) durch eine nicht erklärte Komponente zu ergänzen ist.
die Kommunalitäten auf 1. Damit wird durch die Faktorenanalyse keine expli­
Wählt man fur diesen Restterm, der potentielle Meßfehler und die spezifische Va­
zite Kommunalitätenschätzung vorgenommen.
rianz beschreibt, das Symbol U, dann ergibt sich für (7)
2. Für die Kommunalität wird durch den Anwender aufgrund inhaltlicher Überle­
R A·A'+U (7a) gungen ein bestimmter Schätzwert vorgegeben. In vielen Fällen wird dabei der
höchste quadrierte Korrelationskoeffizient einer Variablen mit den anderen Va­
Die Korrelationsmatrix R in (7a) spiegelt ebenfalls in identischer Weise die aus riablen (das entspricht dem höchsten Korrelationskoeffizienten einer Zeile bzw.
den empirischen Daten errechneten Korrelationen wider, wobei im Gegensatz zu Spalte mit Ausnahme der Hauptdiagonal-Werte) als Vorgabewert herangezo­
(7) hier eine explizite Unterscheidung zwischen gemeinsamen Faktoren (die sich gen. Die Begründung hierfür ist darin zu sehen, daß die Faktoren gemeinsam
in der Matrix A niederschlagen) und spezifischen Faktoren (die durch die Matrix U (mineestens) den gleichen Erklärungsbeitrag liefern, wie die höchste Korrelati­
repräsentiert werden) vorgenommen wurde. Dabei umfassen die spezifischen Fak­ on einer Variablen mit den verbleibenden Variablen ausmacht. Dieser Wert ist
toren die spezifische Varianz einer Variablen sowie die jeweiligen Meßfehler. i. d. R. jedoch zu niedrig, da nicht die Beziehungen zu den weiteren Variablen
Spezifische Faktoren werden häufig auch als EinzelrestJaktoren bezeichnet.
berücksichtigt werden. Dies ist der Fall bei Anwendung des multiplen Be­
Ein wichtiges Problem der Faktorenanalyse besteht nun darin, die Kommunali­
stimmtheitsmaßes. Als relevanter Wertebereich ergibt sich damit
täten zu schätzen, deren Werte der Anwender ja nicht kennt - er hat nur die Kor­
relationsrnatrix und sucht erst die Faktorladungen. Hierbei handelt es sich um ein I ~
2 2
~ R j ~ m:x rjk .
subjektives Vorab-Urteil des Forschers, mit dein er einer Vermutung Ausdruck
gibt. Setzt er die Kommunalität beispielsweise auf 0,8, so legt er damit fest, daß Wir hatten bereits zu Beginn die~es Abschnittes erwähnt, daß die Bestimmung der
nach seiner Meinung 80 % der Ausgangsvarianz durch gemeinsame Faktoren er­ Kommunalitäten eng mit Wahl des Faktorextraktionsverjahrens verbunden ist. Im
klärbar sind. Um den Schätzcharakter deutlich zu machen, werden die Kommu­ Rahmen der Faktorenanalyse ist eine Vielzahl von Extraktionsverfahren entwickelt
nalitäten häufig als Klammerwerte in die Haupt-Diagonale der Korrelationsmatrix worden, wobei zwei Verfahren von besonderer Bedeutung sind, deren Unterschei­
eingesetzt. Die so modifizierte Korrelationsmatrix fungiert dann als Ausgangsbasis dung eng mit der oben beschriebenen Vorgehensweise bei der Bestimmung der
fllr die oben beschriebene Faktorenextraktion. Kommunalitäten zusammenhängt: die Hauptkomponentenanalyse und die Haupt­
Hierbei läßt sich ein Zusammenhang zwischen der Anzahl verwendeter Variab­ achsenanalyse.
1en und der Bedeutung einer nahezu korrekten Einschätzung der Kommunalitäten
aufstellen: Je größer die Zahl an Variablen ist, desto unwichtiger sind exakt ge­ - Die Hauptkomponentenanalyse geht davon aus, daß die Varianz einer Ausgangs­
schätzte Kommunalitäten. Schließlich nimmt der prozentuale Anteil der diagonalen variablen vollständig durch die Extraktion von Faktoren erklärt werden kann, d.
Elemente einer Matrix bei einer steigenden Anzahl an unters~chten Variablen ab. h. sie unterstellt, daß keine Einzelrestvarianz (= spezifische Varianz + Meßfeh­
In einer 2x2-Matrix bilden die diagonalen Elemente noch 50 % aller Elemente, bei lervarianz) in den Variablen existiert. Das bedeutet, daß als "Startwert" bei der
einer IOxlO~Matrix sind dies nur noch 10 % (10 diagonale aus insgesamt 100 E­ Kommunalitätenschätzung immer der Wert 1 vorgegeben wird und die Kommu­
lementen), bei einer 100xl00-Matrix gerade einmal noch I %. Eine fehlerhafte
Eintragung in einem von 100. Elementen für eine Variable (im Falle einer
13 Vgl. Loehlin, J. C., 1998, S. 154.
14 ..
Vgl. Uberla, K., 1972, S. 155 ff.
292 Faktorenanalyse
Vorgehensweise 293
nalität von I auch immer dann vollständig reproduziert wird, wenn ebenso viele tiert. Diese Unterschiede schlagen sich nicht in der Rechentechnik, sondern in der
Faktoren wie Variable extrahiert werden. Werden weniger Faktoren als Variable Interpretation der Faktoren nieder:
extrahiert, so ergeben sich auch bei der Hauptkomponentenanalyse im Ergebnis
Kommunalitätenwerte von kleiner I, wobei der "nicht erklärte" Varianzanteil Bei der Hauptkomponentenanalyse lautet die Frage bei der Interpretation der Fak­
(1 - Kommunalität) jedoch nicht als Einzelrestvarianz, sondern als durch die toren:
Faktoren nicht reproduzierter Varianzanteil und damit als (bewußt in Kauf ge­ "Wie lassen sich die aufeinen Faktor hoch ladenden Variablen
nommener) Informationsverlust deklariert wird. durch einen Sammelbegriff (Komponente) zusammenfassen?"
- Die Hauptachsenana!yse hingegen unterstellt, daß sich die Varianz einer Varia­
blen immer in die Komponenten Kommunalität und Einzelrestvarianz aufteilt. Bei der Hauptachsenanalyse lautet die Frage bei der Interpretation der Faktoren:
Ziel der Hauptachsenanalyse ist es, lediglich die Varianzen der Variablen in Hö­ "Wie läßt sich die Ursache bezeichnen, die fiJr die hohen Ladungen
he der Kommunalitäten zu erklären. Das bedeutet, daß als "Startwert" bei der der Variablen aufdiesen Faktor verantwortlich ist?"
Kommunalitätenschätzung immer Werte kleiner 1 vorgegeben werden. Al­
Die Entscheidung darüber, ob eine Faktorenanalyse mit Hilfe der Hauptkompo­
lerdings besitzt der Anwender hier eine Eingriffsmöglichkeit:
Entweder besitzt der Anwender aufgrund inhaltlicher Oberlegungen Informa­ nenten- oder der Hauptachsenanalyse durchgefiihrt werden soll, wird damit allein
tionen darüber, wie groß die "wahren" Werte der Kommunalität sind oder er ü­ durch sach-inhaltliche Überlegungen bestimmt. Wir unterstellen im folgenden, daß
tUr unser Beispiel die Frage der "hypothetischen Erklärungsgrößen" beim Marga­
berläßt es dem Iterationsprozeß der Hauptachsenanalyse, die "Endwerte" der
Kommunalität zu schätzen, wobei als Kriterium "Konvergenz der Iterationen" rinekaufvon Interesse ist und zeigen im folgenden die Vorgehensweise der Haupt­
achsenanalyse bei iterativer Kommunalitätenschätzung auf.
herangezogen wird. Gibt der Anwender die Kommunalitätenwerte vor, so wer­
den diese immer in identischer Weise erzeugt, wenn ebenso viele Faktoren wie Kehren wir zu unserem Ausgangsbeispiel in Abbildung 5.4 und Abbildung 5.10
Variablen extrahiert werden. Werden hingegen weniger Faktoren als Variable zurück, so zeigt Abbildung 5.29 die Anfangswerte der Kommunalitäten, die von
extrahiert, so ergeben sich auch bei Vorgabe der Kommunalitäten im Ergebnis SPSS im Rahmen der Hauptachsenanalyse (bei iterativer Kommunalitätenschät­
zung) als Startwerte vorgegeben werden.
Kommunalitätenwerte, die kleiner sind als die Vorgaben, wobei die Differenz zu
den iVorgaben auch hier als nicht reproduzierter Varianzanteil und damit als In­
15
formationsverlust deklariert wird. Abbildung 5.29: Startwerte der Kommunalitäten im 6-Produkte-Beispiel
Obwohl sich Hauptkomponenten- und Hauptachsenanalyse in ihrer Rechentechnik
nicht unterscheiden (beides sind iterative Verfahren), sondern sogar als identisch Komm unalltlten
zu bezeichnen sind, so machen die obigen Betrachtungen jedoch deutlich, daß bei­
de Verfahren von vollkommen unterschiedlichen theoretischen Modellen ausge­ Anf:.l!:!9!ich
hen: UNGt:FETT .93103
Das Ziel der Hauptkomponentenanalyse liegt in der möglichst umfassenden Re­ KALORIEN ,54117
produktion der Datenstruktur durch möglichst wenige Faktoren. Deshalb wird VITAMIN ,92857
auch keine Unterscheidung zwischen Kommunalitäten und Einzelrestvarianz vor­ HALTBARK ,97381
genommen. Damit nimmt die Hauptkomponentenanalyse auch keine kausale Inter­ PREIS 97325
pretation der Faktoren vor, wie sie in Abschnitt 5.1 als charakteristisch tUr die Extraktionsmelhode: Hauptachsen-Faktorenanalyse.
Faktorenanalyse aufgezeigt wurde. In vielen Lehrbüchern wird deshalb die Haupt­
komponentenanalyse häufig auch als ein eigenständiges Analyseveifahren (neben
der Faktorenanalyse) behandelt. Demgegenüber liegt das Ziel der Hauptachsen­ •
analyse in der Erklärung der Varianz der Variablen durch hypothetische Größen SPSS verwendet als Startwerte tUr die iterative Bestimmung der Kommunalitäten
(Faktoren), und es ist zwingend eine Unterscheidung zwischen Kommunalitäten das multiple Bestimmtheitsmaß, das den gemeinsamen Varianzanteil einer Variab­
und Einzelrestvarianz erforderlich; Korrelationen werden hier also kausal interpre­ len mit allen übrigen Variablen angibt. Setzt man diese Werte in die Korrelations­
matrix der Abbildung 5.10 anstelle der Einsen in die Hauptdiagonale ein und :fuhrt
auf dieser Basis eine Faktorextraktion mit Hilfe der Hauptachsenanalyse durch
15 An dieser Stelle wird bereits deutlich, daß es sich bei der Hauptkomponenten- und der (auf die Darstellung der einzelnen Iterationsschritte sei hier verzichtet), so ergibt
Hauptachsenanalyse um idenJische Verfahren handelt, da die Hauptachsenanalyse bei sich bei (zunächst willkürlicher) Vorgabe von zwei zu extrahierenden Faktoren die
einer Vorgabe der Kommunalitätenwerte von 1 die Hauptkomponentenanalyse als Spe­ in Abbildung 5.30 dargestellte Faktorladungsmatrix.
zialfall enthält.
294 Faktorenanalyse
Vorgehensweise 295
Abbildung 5.30: Faktorladungen im 6-Produkte-Beispiel
Das aber bedeutet nichts anderes, als daß sich die beiden gefundenen Faktoren oh­
ne großen Inforrnationsverlust 'zur Beschreibung der fünf Ausgangsvariablen eig­
Faktoranmatrix· nen.
Faktor Wegen der unterstellten spezifischen Varianz und des damit verbundenen Pro­
1 2 blems der Kommunalitätenschätzung ist es klar, daß durch die Rechenregel
UNc.;EFt:TI ,94331 -,28039 R = A· A' die Ausgangs-Korrelationsmatrix R nicht identisch reproduziert wer­
KALORiEN ,70669 -,16156 den kann. Dies gilt auch filr die Kommunalitäten. Aus diesem Grunde kenn­
VITAMiN ,92825 -,30210 zeichnen wir die reproduzierte Korrelationsmatrix als R.
HALTBARK ,38926 ,91599
PREIS 32320 ,93608 5.2.4 Zahl der Faktoren
Extraktionsmethode: Hauptachsen-Faktorenanalyse.
a. 2 Faktoren extrahiert. Es werden 7 Iterationen benötigt. (1) Variablenauswatll und
Errechnung der Im vorangegangenen Abschnitt hatten wir uns will­
KorrelaUonsmatrix kürlich filr zwei Faktoren entschieden. Generell ist zu
bemerken, daß zur Bestimmung der Faktorenzahl keine
(2) Extraktion der Faktoren eindeutigen Vorschriften existieren, so daß hier der
Multipliziert man die Faktorladungsmatrix mit ihrer Transponierten, so ergibt sich
subjektive Eingriff des Anwenders erforderlich ist. Al­
(gemäß dem Fundamentaltheorem der Faktorenanalyse in Formel (7» die in dar­
lerdings lassen sich auch statistische Kriterien her­
gestellte (reproduzierte) Korrelationsmatrix. Abbildung 5.31 enthält im oberen Teil
anziehen, von denen insbesondere die folgenden als
mit der Überschrift "Reproduzierte Korrelation" in der Hauptdiagonalen die End­
bedeutsam anzusehen sind:
werte der iterativ geschätzten Kommunalitäten bei zwei Faktoren. Die nicht­
- Kaiser-Kriterium. Danach ist die Zahl der zu extra­
diagonal-Elemente geben die durch die Faktorenstruktur reproduzierten Korre­
lationen wieder. In der unteren Abbildung mit der Überschrift "Residuum" werden hierenden Faktoren gleich der Zahl der Faktoren mit
die Differenzwerte zwischen den ursprünglichen (Abbildung 5.10) und den repro­ Eigenwerten größer eins. Die Eigenwerte (Eigenva­
duzierten Korrelationen ausgewiesen. Dabei wird deutlich, daß in unserem Bei­ lues) werden berechnet als Summe der quadrierten
spiel keiner der Differenzwerte größer als 0,05 ist, so daß die auf der Basis der Faktorladungen eines Faktors über alle Variablen. Sie
(6) Bestimmung der
Faktorladungen ermittelte Korrelationsmatrix der ursprünglichen Korrela­ Faktorwerte sind ein Maßstab filr die durch den jeweiligen Faktor
tionsmatrix sehr ähnlich ist, sie also "sehr gut" reproduziert. erklärte Varianz der Beobachtungswerte. Der Begriff
Eigenwert ist deutlich vom "erklärten Varianzanteil" zu trennen. Letzterer be­
schreibt den Varianzerklärungsanteil, der durch die Summe der quadrierten La­
Abbildung 5.31: Die reproduzierte Korrelationsmatrix im 6-Produk.te-Beispiel dungen aller Faktoren im Hinblick auf eine Variable erreicht wird (theoretischer
oberer Grenzwert Kommunalität La? ), während der Eigenwert den Varianz bei-
Reproduzierte Korrelationen
q N .
UNGEFETT KALORIEN VITAMIN HALTBARK PREIS trag eines Faktors im Hinblick auf die Varianz aller Variablen beschreibt (La'? ).
! Reproduzierte Korre atlon UNGEFETT ,96845 .71193 .96034 .11035 ,04241 j N
KALORIEN ,71193 ,52552 b ,70480 .12709 ,07717
Abbildung 5.32 zeigt nochmals die Faktorladungsmatrix aus Abbildung 5.30
VITAMIN ,96034 .70480 ,95292 b ,08461 ,01722
HALTBARK .11035 .12709 ,08461 .99056b ,98325 auf, wobei in Klammem jeweils die quadrierten Faktorladungen stehen. Addiert
PREIS ,04241 .07717 ,01722 .'8325 ,98070b man die Ladungsquadrate je Zeile, so ergeben sich die Kommunalitäten der Vari­
Residuun1' UNGEFETi -,00017 ,00101 -.00141 ,00144 ablen (vgl. Abbildung 5.33). Von der Eigenschaft "Anteil ungesättigter Fettsäure"
KALORIEN -,00017 -,00083 ,01061 -,01005
VITAMIN ,00101 -,00083 -,00636 .00640
werden folglich (0,8898 + 0,07786 = 0,9684) 96,84 % der Varianz durch die zwei
HALTBARK -,00141 ,01001 -,00036 ,00010 extrahierten Faktoren erklärt. Die spaltenweise Summation erbringt die Eigenwerte
PREIS 00144 - 01005 00640 00010 der Faktoren, die in Abbildung 5.32 in der untersten Zeile abgebildet werden.
ExtrakHonsmethode: Hauptllchsen..faktorenanalyse.
a. Residuen werden zwischen beobachteten und reproduziel1en Korrelationen berecMet. E. gibt 0 (,0%) nichtrEidundante
Die Begründung filr die Verwendung des Kaiser-Kriteriums liegt darin, daß ein
Residuen mit Absolutwel1en > 0.05. Faktor, dessen Varianzerklärungsanteil über alle Variablen kleiner als eins ist, we­
b. Reproduzierte Kommunalltäten niger Varianz erklärt als eine einzelne Variable; denn die Varianz einer standardi­
sierten Variable beträgt ja gerade L In unserem Beispiel führt das Kaiser­
296 Faktorenanalyse Vorgehensweise 297
Kriterium zu der Extraktion von zwei Faktoren, da bei der Extraktion eines dritten Obwohl es dem Forscher prinzipiell selbst überlassen bleibt, welches Kriterium er bei
Faktors der entsprechende Eigenwert bereits kleiner 0,4 wäre. der Entscheidung über die Zahl zu extrahierender Faktoren zugrunde legt, kommt in
empirischen Untersuchungen häufig das Kaiser-Kriterium zur Anwendung.

Abbildung 5.32: Bestimmung der Eigenwerte


Abbildung 5.34: S,cree-Test im 6-Produkte-Beispiel
Faktorenmatrix

Faktor
! Eigen- Screeplot
wert 3,0

1 2
UNGEFETT 0,94331 (0,8898) -0,28039 (0,0786)
KALORIEN 0,70669 (0,4994) -0,16156 (0,0261) 2,5

VITAMIN 0.92825 (0,8616) -0,30210 (0.0913)


HALTBARK 0,38926 (0.1515) 0,91599 (0.8390)
2,0

PREIS 0,32320 (0,1045) 0,93608 (0.87E)~)


Eigenwerte 2,5068 1,9112
1,5

Kaiser-
Kriterium
1
Abbildung 5.33: Kommunalitäten als erklärter Varianzanteil

Kom munalltäten
1.0

,5 '\
Elbow

UNGEFETT
Extraktion
,9684
0.0
.
2 3 4 5
KALORIEN ,5255
VITAMIN ,9529 Faktomummer
HALTBARK ,9906
PREIS ,9807

- Scree-Test. Beim Scree-Test werden die Eigenwerte in einem Koordinatensy­


stem nach abnehmender Wertefolge angeordnet. Sodann werden die Punkte im
Koordinatensystem durch Geraden verbunden. Ausgehend von den sich asymp­
totisch der Abzisse annähernden Punkten entsteht an der Stelle, an der die Dif­
ferenz der Eigenwerte zwischen zwei Faktoren am größten ist, ein Knick (auch
Elbow genannt). Der erste Punkt links von diesem Knick bestimmt die Anzahl
der zu extrahierenden Faktoren. Der Hintergrund dieser Vorgehensweise ist dar­
in zu sehen, daß die Faktoren mit den kleinsten Eigenwerten für Erklärungszwe­
cke als unbrauchbar (Scree=Geröll) angesehen werden und deshalb auch nicht
extrahiert werden. Das Verfahren liefert allerdings nicht immer eindeutige Lö­
sungen, da Situationen denkbar sind, in denen sich aufgrund z.T. ähnlicher Dif­
ferenzen der Eigenwerte kein eindeutiger Knick ermitteln läßt. Abbildung 5.34
zeigt den Scree-Test für das 6-Produkte-Beispiel, wonach hier zwei Faktoren zu
extrahieren wären.
298 Faktorenanalyse
Vorgehensweise 299
5.2.5 Faktorinterpretation
Die Faktorladungsmatrix in Abbildung 5.35 weist eine sogenannte Einjachstruktur
(1) Variablenauswalll und auf, d. h. die Variablen laden immer nur auf einem Faktor hoch und auf allen ande­
Ist die Zahl der Faktoren bestimmt, so muß an­
Errechnung der ren Faktoren (in diesem 2-Faktorfall aufjeweils dem anderen Faktor) niedrig.
Korrelationsmalrix schließend versucht werden, die Faktoren, die zunächst
Bei größeren Felduntersuchungen ist dies jedoch häufig nicht gegeben und es fällt
rein abstrakte Größen (Vektoren) darstellen, zu inter­
dann nicht leicht, die jeweiligen Faktoren zu interpretieren. Hier besteht nur die
(2) Extraktion der Faktoran pretieren. Dazu bedient man sich als Interpretationshil­
Möglichkeit, das Faktonnuster offenzulegen, so daß der jeweils interessierte Ver­
fe der Faktorladungen, die rur unser Beispiel nochmals wender der Analyseergebnisse Eigeninterpretationen vornehmen kann. Das bedeu­
(3) Bestimmung der in Abbildung 5.35 wiedergegeben sind (vgl. auch
tet allerdings auch, daß gerade die Faktorinterpretation subjektive Beurtei­
Kommunalltälen Abbildung 5.30): lungsspielräume offenläßt. Das gilt besonders dann, wenn eine Interpretation we­
Es zeigt sich, daß der Faktor 1 besonders stark mit gen der inhaltlich nicht konsistenten Ladungen schwierig ist.
den Größen
Der Anwender muß dabei häufig entscheiden, ab welcher Ladungshöhe er eine
- Anteil ungesättigter Fettsäuren Variable einem Faktor zuordnet. Dazu sind gewisse Regeln (Konventionen) ent­
- Kaloriengehalt wickelt worden, wobei in der praktischen Anwendung "hohe" Ladungen ab 0,5
- Vitamingehalt angenommen werden. Dabei ist allerdings darauf zu achten, daß eine Variable,
(6) Bestimmung der
Faktorwerte
_ _ _ _ _ _ _---11
··l
korreliert. Da hier eine Hauptachsenanalyse durch­

geruhrt wurde, 1st danach zu fragen, welche Ursache
wenn sie auf mehreren Faktoren Ladungen ~ 0,5 aufweist, bei jedem dieser Fakto­
ren zur Interpretation herangezogen werden muß.
Laden mehrere Variable auf mehrere Faktoren gleich hoch, dann ist es häufig
sich hinter diesem Zusammenhang verbirgt. Hier sei unterstellt, daß letztendlich
unmöglich, 16unmittelbar eine sinnvolle Faktorinterpretation zu erreichen (Abbil­
der Gesundheitsaspekt rur das Beurteilungsverhalten der Befragten verantwortlich dung 5.36).
war und damit die Faktorladungen bestimmt hat. Wir bezeichnen den ersten Faktor
deshalb als "Gesundheit". Für die Variablen x4 und x5 sei unterstellt, daß der Wirt­
schaftlichkeitsaspekt bei der Beurteilung im Vordergrund stand, und der Faktor
Abbildung 5.36: Unrotierte Faktorladungen
wird deshalb als "Wirtschaftlichkeit" charakterisiert. An dieser Stelle wird beson­
ders deutlich, daß die Interpretation der Faktoren eine hohe Sachkenntnis des An­
wenders bezüglich des konkreten Untersuchungsobjektes erfordert. Weiterhin sei
nochmals darauf hingewiesen, daß im Gegensatz zur Hauptachsenanalyse bei An­ F.
wendung einer Hauptkomponentenanalyse die Interpretation der Faktoren der Su­
che nach einem "Sammelbegriff' rur die auf einen Faktor hoch ladenden Variablen
entspricht.

F,
Abbildung 5.35: Faktorladungen im 6-Produkte-Beispiel

Preis
Haltbarkeit Es läßt sich mathematisch nachweisen, daß die Aussagekraft einer Hauptachsen.
analyse durch Drehung (Rotation) des Koordinatenkreuzes in seinem Ursprung
Extraktionsmethode: Hauptachsen-Faktorenanalyse. nicht verändert wird. Aus diesem Grunde wird zur Interpretationserleichterung
häufig eine Rotation durchgefUhrt. Dreht man das Koordinatenkreuz in Abbildung

Zur Beurteilung der Faktorladungsstruktur sowie der Faktorinterpretation vgl. element,


M.lLitfin, T./reichmann, M.-H., 2000, S. 285 f.
vorgenenswelse j U1
300 Faktorenanalyse
Ergebnisse zeigen, daß die Faktorladungen auf die jeweiligen Faktoren jeweils
5.36 in seinem Ursprung, so läßt sich beispielsweise die Konstellation aus noch höher geworden sind.
Abbildung 5.37 erreichen. Jetzt lädt das obere Variablenbündel vor allem aufFak­
tor 2 und das untere auf Faktor I. Damit wird die Interpretation erheblich erleich­
tert. Abbildung 5.38: Rotierte Varimax-Faktorladungsmatrix im 6-Produkte-Beispiel

Faktor
Abbildung 5.37: Rotierte Faktorladungen
1 2
Anteil Ungesättigter Fettsäuren ,98357 .03229
Vitamingehalt ,97615 ,00694
F2 (Ausgangssituation)
Kaloriengehalt ,72152 • ,07020

;11 F2 (rotiert)
Haltbarkeit
Preis
,07962
,01060
I .99208
,99025
/
Extraktionsmethode: Hauptachsen-Faktorenanalyse.
Rotationsmethode: Varimax mit Kaiser-Normalisierung.
",,-"'''-'''
",­
,/ F 1 (Ausgangssituation)
/
/
/ Um die Rotation nachvollziehen zu können, sollte sich der Leser die Formel für
,;/1',;1'"
eine orthogonale Transformation um einen Winkel a nach links vergegenwärtigen:
,/ ,
/
"\,F1 (rotiert) A • =A . T, mit T{C~SI7 - sina ]
sma cosa
Im obigen Beispiel handelt es sich um eine Rotation um 18,43° nach rechts bzw.
um 341,57° nach links:
A T A*
0,94331 - 0,28039 0,98357 0,03229
0
0,70669 ..,.0,16156 . [C0s341,57 - sin34 1,57 ] 0,72152 0,07020
0,92825 - 0,30210 sin341,57° cos341,57 0,97615 0,00694
SPSS unterstützt verschiedene Möglichkeiten zur Rotation des Koordinatenkreu­
zes, wobei grundsätzlich zwei Kategorien unterschieden werden können. 0,38926 0,91599 0,07962 0,99208
0,32320 0,93608 0,01060 0,99025
1. Sofern angenommen werden kann, daß die Faktoren untereinander nicht kor­
relieren, verbleiben die Faktorachsen während der Drehung in einem rechten
Winkel zueinander. Es handelt sich hierbei um Methoden der orthogonalen Im SPSS-Output läßt sich der Rotationswinkel anhand der Faktor Transformati­
(rechtwinkligen) Rotation. onsmatrix bestimmen (vgl. Abbildung 5.39).
2. Die Achsen werden in einem schiefen Winkel zueinander rotiert, falls eine
Korrelation zwischen den rotierten Achsen bzw. Faktoren angenommen wird.
Hierbei spricht man von Methoden der obliquen (schiefwinkligen) Rotation.
Da allerdings die Unabhängigkeitsprämisse der Faktoren (im statistischen Sin­
ne) aufgegeben wird, wäre dann eine erneute Faktorenanalyse notwendig.
Empirische Untersuchungen haben allerdings gezeigt, daß diese häufig zu
kaum noch interpretierbaren Ergebnissen führen.
Abbildung 5.38 zeigt das Ergebnis der rechtwinkligen Varimax-Rotation unser rur
BeispieL Hierbei handelt es sich um eine sehr häufig angewendete Methode. Die
,I
Vorgehensweise 303
302 Faktorenanalyse .~ ..
Für das in der Regel nicht quadratische Faktormuster A (es sollen ja gerade we­
Abbildung 5.39: Faktor Transfonnationsmatrix niger Faktoren als Variable gefunden werden!) ist eine Inversion nicht möglich.
Deshalb könnte in bestimmten Fällen folgende Vorgehensweise eine Lösung bie­
Faktor 1 2 l ten:
1 ,94868 ,31622
(3c) wird von rechts mit A multipliziert:
2 -,31622 ,94868
Extraktionsmethode: Hauptachsen-Faktorenanalyse.
Z·A=P·A'·A (15)
Rotationsmethode: Varimax mit Kaiser-NormaJisierung.

Matrix (A'. A) ist definitionsgemäß quadratisch und somit invertierbar:


\ Z.A·(A' . At1=P.(A'. A)' (A'. Atl (16)
1
Für das Bogenmaß 0,~868 gilt filr den Cosinus ein entsprechendes Winkelmaß Da (A'. A). (A' . A t definitionsgemäß eine Einheitsmatrix ergibt, gilt:
P=Z.A.(A'.At l (17)
von a=18,43° .
In bestimmten Fällen können sich bei der Lösung dieser Gleichung aber ebenfalls
Schwierigkeiten ergeben. Man benötigt dann Schätzverfahren zur Lösung dieses
5.2.6 Bestimmung der Faktorwerte Problems. Je nach Wahl des Schätzverfahrens kann daher die Lösung variieren.
In vielen Fällen wird zur Schätzung der Faktorwerte auf die Regressionsanalyse
(1) Variablenauswanl und Für eine Vielzahl von Fragestellungen ist es von gro­
(vgL Kapitell) zurückgegriffen. Für unser Beispiel ergab sich für den Term
Errechnung der ßem Interesse, nicht nur die Variablen auf eine gerin­
Korrelationsmatrix gere Anzahl von Faktoren zu reduzieren, sondern da­ A{A'·Ar l die in Abbildung 5.40 aufgeführte Koeffizientenmatrix der Faktorwerte.
nach zu erfahren, welche Werte die Objekte (Marken)
(2) Extraktion der Faktoren
nun hinsichtlich der extrahierten Faktoren annehmen.
Man benötigt also nicht nur die Faktoren selbst, son­ Abbildung 5.40: Koeffizientenmatrix der Faktorwerte
(3) Bestimmung der dern auch die Ausprägung der Faktoren bei den Objek­
Kommunalitäten
ten bzw. Personen. Dieses bezeichnet man als das Faktor
Problem der Bestimmung der Faktorwerte. 1 2
Wie oben erläutert, ist es das Ziel der Faktoren­ Anteil ungesättigter Fettsäuren ,55098 -,04914
analyse, die standardisierte Ausgangsdatenmatrix Z als Kaloriengehalt ,01489 -,01014
Linearkombination von Faktoren darzustellen. Es galt:
Vitamingehalt ,42220 ,00081
(3c) Haltbarkeit
Z=P·A' ,26113 ,67344
Wir haben uns bisher mit der Bestimmung von A (Fak­
Preis -,28131 ,33084 "
torladungen) beschäftigt. Da Z gegeben ist, ist die Gleichung (3c) nach den ge­
Extraktionsmethode: Hauptachsen-Faktorenanalyse.

suchten Faktorwerten P aufzulösen. Bei AUflösunr. nach P ergibt sich durch Multi­
Rotationsmethode: Varimax mit Kaiser-Normalisierung.

Methode für Faktorwerte: Regression.

plikation von rechts mit der inversen Matrix (A'Y :

(12)
Z {AT1:::p .A'{AT'

Da A' -(A' r 1 definitionsgemäß die Einheitsmatrix E ergibt, folgt: Die standardisierte Ausgangsdatenmatrix Z multipli!ziert mit den Regressions­
koeffizienten ergibt dann die in Abbildung 5.42 aufgeführten Faktorwerte. Die
(13)
xkj-x
Z{A'rl=p.E
standardisierte Datenmatrix Z errechnet sich gemäß der Formel Zkj=_ _
J auf
Sj
Da p. E=P ist, ergibt sich:
Seite 271 zu:
(14)
P=Z{AT '
304 Faktorenanalyse
Vorgehensweise 305
Abbildung 5.41: Standardisierte Ausgangsdatenmatrix Z
Abbildung 5.43: Faktorwerte-Plot und rotierte Faktorladungen im 6-Produkte-Beispiel
45&t6R4!LJL4.

.Du darfst

G
rl
VITAMINGEHALT

FETTSÄUREN
KALORIENGEHALT
E
S 11. Becel
U.
N
Cl 0 Weihnachlsbulter.
H PREIS
E Sanella. -..;::;:: HALTBARKEIT
I
T III!I Holl. Butter

-1
• Rama
Die Multiplikation der Matrix (6x5} in Abbildung 5.41 mit der Matrix (5x2] in
Abbildung 5.40 ergibt sich zu der Faktorwerte-Matrix [6x2] in Abbildung 5.42.

-1,5 -0,9 -0,3 0,3 0,9 1,5


Abbildung 5.42: Faktorwerte im 6-Produkte-Beispiel -1,8 -1.2 -0.6 0 0.6 1.2 1.8

WIRTSCHAFTLICHKEIT

Die Faktorwerte lassen sich graphisch verdeutlichen und liefern damit eine Vi­
sualisienmg der beurteilten Margarinemarken im zweidimensionalen Faktoren­
raum (Abbildung 5.43). Gleichzeitig lassen sich in diese Darstellung, unter Rück­
griff auf die (rotierte) Faktorladungsmatrix (Abbildung 5.38), auch die Positionen
der Faktoren übertragen. Damit erhält der Anwender gleichzeitig einen optischen
Anhaltspunkt dafür, wie stark die Achsen des Koordinatensystems (Faktoren) mit
den Variablen in Verbindung stehen.

5.2.7 Zusammenfassende Darstellung der Faktorenanalyse

Wie im einzelnen dargestellt, sind zur Durchfilhrung einer Faktorenanalyse fUnf


grundlegende Schritte notwendig, um die Variablen einer Datenmatrix auf die den
Daten zugrundeliegenden hypothetischen Faktoren zurückzufilhren (Abbildung
5.44), wobei die Kantenliingen in Relation zueinander stehen: In der Ausgangsda­
tenmatrix X wird analog zum Beispiel davon ausgegangen, daß die Zahl der Varia­
blen (5) kleiner ist als die Zahl der Objekte (6). Die Korrelationsmatrix ist dagegen
definitionsgemäß quadratisch. Aus der Darstellung wird noch einmal deutlich, wel­
e Vorgehensweise 307
306 Faktorenanalyse
Abbildung 5.44: Die R~chenschritte der Faktorenanalyse
che Begriffe welchen Rechenoperationen bzw, Rechenergebnissen zuzuordnen
sind, I I C. .... I ..!.
I« I

Zusammenfassend läßt sich noch einmal festhalten: Bei der Ermittlung der Fak­ _.;. , C:.,j ca c:.!!! e? CI> E.~.Q.!!/~< c:a. ca
.l: "'.~ CI>.Q'C: 0" 0 """,0" 2,1$ c.cö
torenwerte aus den Ausgangsdaten sind zwei verschiedene Arten ,von~ Rechen-
.!.1 c. CI> c:.-' ca> CI)...,:>;! c: ca 001 .. d Q; ~. Cä := CI) CI>
c: ;;
CI) Q; ~ CI> :!j,N
0
_ ....... "CQ)l2:CQ>.
--" ca.f i O'~"~~.og~
._"...
. -Q)C .t::. ...
c: ~ ~ l5~11
CI> 0
"C~
,
32
.0.
I
schritten notwendig: es CI> a..CI>~.l: "l &i ~ij Cl>2 0:s< CI> ~.~.f ~ h
~:c &i c:g ~'*:91l ca~i:i)~.e&i "~-g CI> * I
_ solche, die eindeutig festgelegt sind (die Entwicklung der standardisierten Da­ CI>.2 g>~ ~<~ EE ::!: ~i3 c: CI>"iij &i~:c ,,:C
CI> "Qj "'.!!/ 2 CI> E .!!! CI> CI) CI>:>;! c..l:! 2 ca:::- c: ~~
a. E C>N . 0 " . 0 " CI> 0 O::.,,,.!!!,CI) _ C>N.!/l2
tenmatrix und der Korrelationsmatrix aus der Datenmatrix), ------------------.----------------------------------------------­
"G)
C>~
C:e
_ solche, wo der Verwender des Verfahrens subjektiv eingreifen kann und muß, 15·.L &i ij .:, uj C: cP "e?0
.1::1
wo das Ergebnis also von seinen Entscheidungen abhängt.(z,B, die Kommu­ ~ ~:o ~~ ~::::!:: cU äi Q; OOI:>;!
~ 9J~~
~.f
l
.,c!:~
:.c .!9... c:Q)"C.ii:!
Q)
c:
:::l .... "O
0"0 Q)
.I!0:522<
!!! "
'" &i~ l5 c:;:.!2 -5~:C t:
9.;;:'
nalitätenschätzung) , ~ c: :>;! g>2.!!!J9 ·-LL.!!l a:~1ö
Geht man davon aus, daß die erhobenen Daten das für die Korrelationsanalyse c:.2 c: ~ ~ ~ "C ~
CI> (ij~CI>" CI>'- gj e-
.=CI> 'CI>'i5
- ca
• Qj c: ~ 1'._ CI> ~"
notwendige Skalenniveau besitzen, d, h, sind sie mindestens intervallskaliert, dann < ~ ,,000_ o:::c I/)
c: "'E
sind lediglich die ersten beiden Schritte von X nach Z und Z nach R mani­ --------~-------------- Q; ~'~....:.. -------------------­ ~~
pulationsjrei. Alle anderen notwendigen Rechenschritte, die in Abbildung 5.44 ~'i ii "OQ)Q;äi
.5:c c:~
-5 e
o::c.
:.: "'25 .
durch Pfeile gekennzeichnet sind, sind subjektiven Maßnahmen des Untersu­ .!!! .l!! &i ]2«J~ti ~~ 11 t!: 3
'Cc:ct'l0;
"'cu:>:>;! ~~~ --------1·1 i §si~<
chenden zugänglich und erfordern die Eingriffe, 001 c: ca ca.l:CI>ca
::!:.~"iij §
u.j~.fi
In den gängigen Computerprogrammen für die DurchfUhrung einer Faktoren­ ~:8&iLL
CI>.l!!~" .!!/'Egi
analyse wird dieses Problem i, d. R,so gelöst, daß dem Anwender des Verfahrens
.....
.....
CI> c:
~ " o,,~::!:
'gE
"
.- G)

für die einzelnen Entscheidungsprobleme "Standardlösungen" angeboten werden, ..... c: c: . I. ~l


Der Anwender muß nur eingreifen, wenn er eine andere Lösung anstrebt, bei­ ~.!l!~&i
:2.~C
.~ §;g~ "
~"~ t:'
spielsweise statt des automatisch angewendeten Kaiser-Kriteriums eine bestimmte
.I·~.!!
:t: C)ft'i6 J.,1!
1ftI.~ U) c: .!!1~ij ~SHa: ,
Anzahl an zu extrahierenden Faktoren vorgeben möchte, =" ClE
CI> "
c:c.
CI>" E
" "CI)
~"C äi
a::':: c:
Gerade diese Vorgehensweise ist jedoch immer dann höchst problematisch, .Sl
o::~~~
wenn dem Anwender die Bedeutung der einzelnen Schritte im Verfahren nicht klar -------------------------------- ~~sct
~~ ~~
~:o
ist und er das ausgedruckte Ergebnis als "die" Lösung .ansieht, CI> ,
~~&~ 0'- E J "e
Ec.
Um diesen Fehler vermeiden zu helfen und die Aussagekraft faktoranalytischer .occ:"C -~~CI> E
.!/lCl) ....
~
Untersuchungen beurteilen zu können, wird im folgenden eine Faktoranalyse an­ '~-5~ c: cö
ijCl)C:CI>,!I! ~~~.~ U~a:
hand eines komplexeren konkreten Beispiels vorgestellt. Um die einzelnen Re­ CI):ö' ~ij.o ~'ai~.8
N_
:.::]i E
.8~ E.!/l·l!! Q) .... .cN
chenschritte nachprüfen zu können, sind im Anhang die Ausgangsdatenmatrix so­ o::~ll!~~ i5~~.~
wie die Mittelwerte über die Befragten abgedruckt- Es werden verschiedene Lö­ ------------------------------------T-------------------­
sungen bei den einzelnen Teilproblemen im Rechengang der Faktoranalyse vorge­ ~161
stellt und kommentiert, um so den möglichen Manipulationsspielraum bei der ~,~Q;.Q~~~,
"C'u; c."CO~ N·2l
&i~~~~
~ äi c:.~ 1$
.1
~'E ~ ~~ &i~s g~.2'~8'2 :!I! j)(
Verwendung des Verfahrens offenzulegen, =~< &i g.-,c,c:~ c: C:!!:!..~!I! CI> • j .. iiN
c: c: C>~ CI> E.!l!·1o! . CI> CI> CI> i:,i!: l!C
E
CI> SC: § CI>:>;!_.ojg'" "iiCä'2c: ca JlI
N CI) 2 C>a. .!!!,.8 .l!! CI) ~ .E 1ii E 2 2 ~ '-"U)'--j*.-_ _ _ _--"

----------------------,._----;;-',------------­
.~ aic . C:al
"C>CI> "l CI> .
c: c:..c-~
"''' ~.-' C>
CI>~ &i
~~a.:>;!~25....:..
001 C>
~~~CI>.l!!'~
x<~o.-JII~
CI>
c:~ Q)~
~ CI> &i"2i'
ct'I~ c:
c. .2'.-O~.
CI).!!!~CI>
c:~ &i:C~
~~21ii~~
Cl>ca~'-~
I

&i ----1 ~~~x !!.


~'
,,~a. .E1iiE~~2 "ilE
<
Fallbeispiel 309
308 Faktorenanalyse
Der dabei anschließend erzeugte Ergebnisausdruck wird im folgenden entsprechend
5.3 Fallbeispiel • der Analyseschritte des Kapitels 5.2 nachvollzogen und kommentiert.

5.3.1 Problemstellung Abbildung 5.46: Dateneditor mit Auswahl des Analyseverfahrens "Faktorenanalyse"

In einer empirischen Erhebung wurden elf Emulsionsfette (Butter und Margarine) im


Hinblick auf bestimmte Eigenschaften beurteilt. Im einzelnen handelte es sich um die
in Abbildung 5.45 angeführten Marken und Eigenschaften.

Abbildung 5.45: Variable und Objekte des Beispiels

Marken
Eigenschaften
M k (k=I, ... ,Il) xj(j=I, ... ,IO)

I Sanella
A Streichfähigkeit
2 Homa
B Preis

3 SB C Haltbarkeit

4 Oelicado
0 Anteil ungesättigter Fettsäuren
5 Holl. Marktenbutter

6 Weihnachtsbutter E
Back- und Brateignung

7 Du darfst F
Geschmack

8 Becel G
Kaloriengehalt

9 Botteram H
Anteil tierischer Fette

10 Flora
I Vitarningehalt

11 Rama K Natürlichkeit

Es wurden 18 Personen bezüglich ihrer Einschätzung der 10 Marken befragt und an­
Abbildung 5.47: Dialogfeld "Faktorenanalyse"
schließend die Einzelurteile auf Markenebene über Mittelwertbildung verdichtet. Die

durchschnittlichen Eigenschaftsurteile gehen pro Marke im folgenden als Datenmat­

rix in die Faktorenanalyse ein (vgl. die Datenmatix in Abbildung 5.46). Da die Pro­

banden alle Marken beurteilt haben, kann nicht ausgeschlossen werden, daß die Be­

urteilung der Marken voneinander abhängen, obwohl dies für die weitere Analyse

unterstellt wird. Bei empirischen Untersuchungen ist jedoch darauf zu achten, daß

die Annahme unabhängiger Beurteilungen auch tatsächlich erfüllt ist.

Es sollte auf Basis dieser Befragung geprüft werden, ob die zehn Eigenschaften al­

le unabhängig voneinander zur (subjektiven) Beurteilung der Marken notwendig wa­

ren oder ob bestimmte komplexere Faktoren eine hinreichend genaue Beurteilung

geben. In einem zweiten Schritt sollten die Marken entsprechend der Faktoren­

ausprägung positioniert werden.Um mit Hilfe des Programmes SPSS eine Faktoren­

analyse durchführen zu können, wurde zunächst das Verfahre~ der Faktorenanalyse

aus dem MenUpunkt Dimensionsreduktion ausgewählt (vgl. Abbildung 5.46).

Die untersuchten Variablen aus der Quellvariablenliste wurden danach in das Feld

"Variablen" übertragen (vgl. Abbildung 5.47) und ausgewählte Voreinstellungen des

Programmes SPSS wurden verändert, um die Aussagekraft des Outputs zu steigern.

Fallbeispiel 311
310Faktorenanalyse
Analyse herausgenommen werden müßten. Aus didaktischen Gründen wird hier je­
5.3.2 Ergebnisse doch auf den Ausschluß von Variablen verzichtet.

1. Variablenauswahl und Errechnung der Korrelationsmatrix:

s_ - ,-.­ .....
Abbildung 5.49: Anti-Image-Korrelations-Matrix der Margarinestudie
Im ersten Schritt wird zunächst die Datenmatrix standardisiert und in eine Korre­
lationsmatrix überfUhrt. Dieser Schritt erfolgt manipulationsfrei, d. h. es ist keine
(subjektive) Entscheidung des Forschers erforderlich, und er besitzt somit auch keine
Eingriffsmöglichkeit. Die Korrelationsmatrix der Margarinestudie ist in Abbildung '" """
..... "'",­ -... -
""" ,63545
......
.... ,,78416
""" ......
'-"­
.,­
_.­
,45777' .33981 -,10512 -,11143 ,61460 -,84225 -.62569 ,84398

5.48 wiedergegeben. """


Ha_"

,33961 ,36966' ,06188 ,76538 ,61519 -,56963 -,29977 ,55128 -,26705 -.02622

..... -,10512

-,11143
,08166

,76536
,74145'
-,10522

-,10522 ,48550'
-.41957
,48223
,13670
,49691
-,14387

-,22160 -,15505 ,22193


-.14926
.01675
-,03962

-.41600

-"'---"
e!'ft..1ßS a.oblgnung ,61460 ,61519 -,41957 ,46223 ,266700 -,66320 -,66693 ,66260 -,44676 ,37170

-_.

-,84225 -,56983 ,13670 -,22160 -,88320 ,366600 ,62444 -,97126 ,66229 -,83532
-,62589 -,29977 ,49691 -,15505 -,66693 ,62444 ,48466' -,53696 ,46028 -,52367
Abbildung 5.48: Die Korrelationskoeffizienten

""'­
AnttlllIiI'***' Fttt. .83545
,55728 -,14367 ,22193 ,66260 -,97126 -,83696 ,45227' -,71026 .57640

=- .-.
-,75416
-,26705 -,14926 ,01675 -,44876 ,66229 ,46028 -,71028 ,27607' -,85216
.......
.".<Ich'"
- ..... 57840 56052'

..­
84396 - 02822 -03962 -41600 37170 -63532 -52367 -65216

_
-*'
~I.!""":'~ "'.... •. tMll_~nuno
... ..... ,.,.­ ,33627 ! -,30614
I '" ~......
-,47235 1
-,76286
"'"
_,79821 -,18589 -,66041
,34815

--­-
,87996 ,28197 ,,10843
...... ...
1,00000 -,38528 ,40694! ,04896
~ .,38628 1,00000 ,,31659 -,89955 ,08853
.,58803 _,50281 ,03207 -,50802

,-
,05494 _,11325
_,31859 1,00000 ,21183 ,16030 -,14500
,87996 -,30354 -,21866 -,20350
_,41754
,21163 1,00000
i ,44121 Um im Rahmen der SPSS-Anwendung die beiden Eignungskriterien der Korrelati­

-':\­
,33627 ·,89955 ,45295 ,21866
ar.. und~ung _,30914
_,47235
,08653
,40894
,06494
-,11325
II -,41754
-,30354
1,00000
,66559
,88559
1,00000
,59178
,51762
,81204 ,36665
,72025
,76014 onskoeffizienten und die Anti-Image-Matrix zu erhalten, sind im Dialogfeld De­
~ ,59176 ,51782 1,00000
-,78266 ,04896 -,56603 I -,21866 ,81204 1,00000 ,53309 ,87548 skriptive Statistik die beiden Felder "Koeffizienten der Korrelation" und "Anti­
I ,80040

-'
,45295 ,45577


_,79821 ,28197 ·,50261 -,20350 ,36665 ,53309 1,00000
~W\MiIWF.t\I
_,18589 -,10643 ,03207 I ,16030
I
,21866
,44121
,43373
72025 76014 87546 45577 100000 Image-Matrix" auszuwählen. Neben den in dieser Fallstudie vorgestellten Anwen­
-66041J 34815 I -,50802 I _,14508
dungsmöglichkeiten der deskriptiven Statistik können hier weitere Korrelationsaus­
wertungen selektiert werden (vgl. Abbildung 5.50),

In Abschnitt 5.2.1.2 wurde ausfUhrlich dargelegt, daß die Art und Weise der Be­
fragung, die Struktur der Befragten sowie die Verteilungen der Variablen in der Er­ Abbildung 5.50: Dialogfeld "Deskriptive Statistik"
hebungsgesamtheit zu einer Verzerrung der Ergebnisse der Faktorenanalyse fUhren
können, Diese Verzerrungen schlagen sich in der Korrelationsmatrix nieder, und
folglich kann die Eignung der Daten anband der Korrelationsmatrix überprüft wer­
den. Bereits die Korrelationsmatrix macht deutlich, daß in der vorliegenden Studie
relativ häufig geringe Korrelationswerte auftreten (vgl. z.B. die Variable "Ungesät­
tigte Fettsäuren") und manche Korrelationen sogar nahe bei Null liegen (z.B. die
Korrelation zwischen "Backeignung" und "Preis"), Bereits daraus läßt sich schließen,
daß diese Variablen für fakooranalytische Zwecke wenig geeignet sind. Die in Ab­
schnitt 5.2.1.2 behandelten prüfkriterien bestätigen in der Summe diese Vermutung.
Beispielhaft sei hier jedoch nur das Kaiser_Meyer-Olkin-Kriterium näher betrachtet,
das flir die Korrelationsmatrix insgesamt nur einen Wert von 0,437 erbrachte und
damit die Korrelationsmatrix als "untragbar" für die Faktorenanalyse deklariert.
Welche Variablen dabei für dieses Ergebnis verantwortlich sind, macht Abbildung
5.49 deutlich, Das variablenspezifische Kaiser-Meyer-Olkin-Kriterium (MSA­
Kriterium) ist auf der Hauptdiagonalen der Anti_Image-Korrelations-Matrix abgetra­
gen und weist nur die Variablen "Natürlichkeit" und "Haltbarkeit" als "kläglich"
bzw. "ziemlich gut" für faktoranalytische Zwecke aus. Es ist deshalb angezeigt, Va­
riable aus der Analyse sukzessive auszuschließen (beginnend mit der Variablen "Vi­
tamingehalt"), bis alle variablespezifischen MSA-Kriterien größer als 0,5 sind. In
unserem Fall würde dieser Prozeß dazu führen, daß insgesamt acht Variable aus der
Fallbeispiel 313
312 Faktorenanalyse
2. Bestimmung der Kommunalitilten: Modellen basieren. Für die Margarinestudie sei unterstellt, daß als Zielsetzung die

Suche nach den hinter den Variablen stehenden, hypothetischen Gtiinden formuliert

Bei diesem Schritt erfolgt der erste Eingriff des Anwenders in den Ablauf der Fakto.. wurde und damit die Korrelationen kausal interpretiert werden. Im folgenden wird

renanalyse, da eine Schätzung der Kommunalitäten, also des Anteils der durch die deshalb eine Hauptachsenanalyse angewendet.

gemeinsamen Faktoren zu erklärenden Varianz der Variablen, vorgenommen werden HierfUr ist eine Änderung der SPSS-Voreinstellungen erforderlich. In der Dialogbox

muß. Wir wollen hier beide Verfahrensweisen, die in Abschnitt 5.2.3 vorgestellt "Faktorenanalyse: Extraktion" ist im Auswahlfenster "Methode" aus der sich öffnen­

wurden, vergleichen. den Liste "Hauptachsen-Faktorenanalyse" auszuwählen (vgl. Abbildung 5.52). Ne­

Das Ergebnis der zwei Schätzverfahren ist in Abbildung 5.51 dargesteUt.Während ben den hier diskutierten zwei Extraktionsmethoden bietet SPSS eine Reihe von Ex­

bei der Hauptkomponentenanalyse die Startwerte der Kommunalitätenschätzung traktionsverfahren zur Auswahl. Die Alternativen unterscheiden sich in dem ver­

immer auf eins festgelegt werden, wird bei der Hauptachsenanalyse als Startwert wendeten Gütekriterium, das sie benutzen, um mit Hilfe der extrahierten Fakoren ei­

immer das multiple Bestimmtheitsmaß der Variablen gewählt. Die Analysen fUhren, I7
nen möglichst hohen Varianzanteil der Ausgangsvariablen zu erklären.
bei Extraktion von drei Faktoren, zu den ebenfalls in Abbildung 5.51 aufgefUhrten
Ergebnissen (Endwerten). Es wird deutlich, daß die "Endwerte" zum Teil erheblich
von den Startwerten abweichen. Abbildung 5.52: Dialogfeld "Extraktion"

Abbildung 5.51: Vergleich der geschätzten Kommunalitäten

Hauptkomponentenanalyse Hauptachsenanalyse

Variable Korrunuriali- Kommunali- Korrununali- Kommunali-


Ut tl!t tlIl tlIl
(Startwerte) (Endwerte) (Startwerte) (End werte)

1.00000 .88619 .97414 .85325


STREICHF .55717
PREIS 1.00000 .76855 .89018
1.00000 .89167 .79497 .85754
HALTBARK
1.00000 .85324 .85847 .91075
UNGEFETT
1.00000 .76043 .96501 .55819
BACKEIGN
1.00000 .84012 .98810 .82330
GESCHMAC
1.00000 .80223 .97132 .73903
KALORIEN
1.00000 .92668 .99166 .94796
TlERFETT .40402
VITAMIN 1.00000 .63297 .78019
1.00000 .88786 .96445 .87851
NATUR

Bei der Hauptkomponentenanalyse liegt das aber nur darin begtiindet, daß hier we­ 4. Zabl der Faktoren:
niger Faktoren als Variable extrahiert wurden. Würde man bei diesen beiden Verfah­
ren ebenfalls 10 Faktoren extrahieren, so würden die Start- und Endwerte der Korn­ Die Zahl der maximal möglichen Faktoren entspricht der Zahl der Variablen: Dann
munalitätenschätzung übereinstimmen. Bei der mit iterativer Kommunalitätenschät­ entspricht jeder Faktor einer Variablen. Da aber gerade die Zahl der Faktoren kleiner
zung durchgefUhrten Hauptachsenanalyse sind die "wahren Endwerte" der Kommu­ als die der Variablen sein soll, ist zu entscheiden, wie viele Faktoren (Zahl der Fak­
nalitätenschätzung unbekannt und werden aufgrund der Konvergenz des Iterations­ toren< Zahl der Variablen) extrahiert werden sollen.
prozesses (Konvergenzkriterium) bestimmt. Für die weiteren Betrachtungen sind die Wie bereits gezeigt, existieren zur Lösung dieses Problems verschiedene Vor­
"Endwerte" der Kommunalitätenschätzung jedoch von entscheidender Bedeutung, da schläge, ohne daß auf eine theoretisch befriedigende Alternative zutiickgegriffen
der Erklärungswert der gefundenen Faktoren immer auch im Hinblick auf die zu~ werden kann. Beispielhafte Alternative, die von SPSS unterstützt werden, sind in
grundeliegende Kommunalität zu beurteilen ist. Abbildung 5.53 aufgelistet.
Unabhängig davon, welches Kriterium man zur Extraktion der Faktoren ver·
wendet, ist es zunächst sinnvoll, so viele Faktoren zu extrahieren, wie Variablen
3. Wabl der Extraktionsmetbode: vorhanden sind. Dies erfolgt bei Anwendung des Programmes SPSS automatisch.
Es wurde gezeigt, daß die beiden grundlegenden Faktoranalyseverfahren Haupt­
komponentenanalyse und Hauptachsenanalyse auf unterschiedlichen theoretischen 17 Für eine Erläuterung sämtlicher Extraktionsmethoden, vgl. Janssen, J., 1999, S. 453 f.
Fallbeispiel 315
314 Faktorenanalyse Abbildung 5.54: Extrahierte Faktoren mit Eigenwerten und Varianze~klärungsanteil
Hierbei wird allerdings unabhängig von der gewählten Extraktionsmethode die an­
llingliche Lösung und die Zahl der Faktoren nach der Hauptkomponentenmethode Erklärte Gesamtvarianz
bestimmt. Die Anzahl der vorhandenen Variablen, die in einem korrelierten Verhält­
nis zueinander stehen, wird in diesem ersten Auswertungsschritt in eine gleich große Anfängliche Eigenwerte
Anzahl unkorrelierter Variablen umgewandelt. Die eigentliche Faktorenanalyse auf Faktor Gesamt % der Varianz Kumulierte %
Basis der Hauptachsenmethode hat zu diesem Zeitpunkt folglich noch nicht stattge­ 1 5,05188 50,51883 50,51883
funden. Abbildung 5.54 zeigt den entsprechenden SPSS-Ausdruck der automatisier­ 2 1,77106 17,71061 68,22944
3 1,42700 14,27002 82,49946
ten Hauptkomponentenanalyse. Nach der Faustregel (95 % Varianzerklärung) wür­
4 ,81935 8.19349 90,69295
den sich fUnfFaktoren ergeben. 5 ,42961 4,29611 94,98905
6 ,24709 2,47085 97,45991
7 ,15928 1.59275 99,05266
Abbildung 5.53: Ausgewählte Faktorextraktionskriterien 8 ,06190 ,61902 99,67168
9 ,02943 ,29434 99,96602
10 00340 03398 10000000
1. Extrahiere solange, bis x% (i. d. R. 1 Kann ex post manuell bestimmt werden.
95%) der Varianz erklärt sind. Vom Computer automatisch verwandt,
wenn keine andere Spezifikation.
2. Extrahiere nur Faktoren mit Eigen­ Abbildung 5.55 zeigt die entsprechende Zahl der Faktoren fUr das Kaiser-Kriterium
werten größer 1 (Kaiser-Kriterium). Anzahl kann im Dialogfeld "Extraktion" und den Scree-Test. Während nach dem Kaiser-Kriterium drei Faktoren zu extrahie­
ex ante manuell eingegeben werden. ren wären, legt der Scree-Test eine Ein-Faktor-Lösung nahe. Wegen der unterschied­
3. Extrahiere n (z.B. 3) Faktoren. lichen Ergebnisse der drei Extraktionskriterien muß sich der Anwender subjektiv fUr
Erforderlicher Screeplot kann im Dia­ eine der Lösungen entscheiden.
logfeld "Extraktion" ebenfalls angefor­
dert werden.
4. Scree-Test: Die Faktoren werden nach
Eigenwerten in abfallender Reihen­ Abbildung 5.55: Scree-Test und Kaiser-Kriterium
folge geordnet. An die Faktoren mit
den niedrigsten Eigenwerten wird ei­
ne Gerade angepaßt. Der letzte Punkt
Eigen- -=>creeplot
wert
auf der Geraden bestimmt die Fakta­
renzahl. Kann ex post manuell bestimmt werden,
sofern im Dialogfeld "Extraktion" die 5
5. Zahl der Faktoren soU kleiner als die eingetragene Zahl zu extrahierender
Hälfte der Zahl der Variablen sein. Faktoren nicht kleiner als die Hält\:e der 4
Zahl der Variablen ist.
3
Kann nach Einstellung des erwüschten
Rotationsprinzips ex post manuell be­
6. Extrahiere alle Faktoren, die nach der 2
stimmt

Kaiser­
o
~ 3 i i 7 i Q 10

Faktornummer
:",
316 Faktorenanalyse
Fallbeispiel 317
Im vorliegenden Fallbeispiel wird das Kaiser-Kriterium als Extraktionskriterium ver­ Abbildung 5.57: Faktorladungen
wendet. Dies entspricht der Voreinstellung von SPSS.
Um die Güte der 3-Faktorenlösung zu bestimmen, sind weitere SPSS-Outputs nä­
Fak10renmatrlx
her zu betrachten (vgl. Abbildung 5.56 bis Abbildung 5.58). Da es sich hierbei um
keine anfängliche Lösung (automatisierte Hauptkomponentenmethode), sondern um
eine Lösung nach Durchfilhrung zahlreicher Iterations schritte handelt, ist die zuvor 1
- Faktor
2 3
Anteil tierischer Fette ,94758
ausgewählte Extraktionsmethode (Hauptachsenmethode) zur Anwendung gekom­ .22325 -,01469
Natürlichkeit
men. ,91885 ,16537 -,08292
Sireichfähigkeil -,86273
Bei zehn Variablen beträgt die Gesamtvarianz wegen der Normierung jeder Ein­ ,10548 ,31276
Kaloriengehalt ,83090
zelvarianz auf den Wert von 1 gleich 10. Das bedeutet z.B. für den ersten Faktor in ,18542 -,11935
Geschmack ,77638
Abbildung 5.56 mit einem Eigenwert von 4,86417 im Verhältnis zu 10 einen Erklä­ ,09144 ,46062
Bral- und Backeignung ,54555
rungsanteil von ca. 48,6 % der Gesamtvarianz. Insgesamt beträgt die Summe der drei ,04984 ,50802
Anteil ungesättigter
Eigenwerte 7,52971. Setzt man diese Summe ins Verhältnis zur Gesamtvarianz von Fettsäuren -,40207 .80846 -,30900
10, so ergibt sich ein durch die Faktoren erklärter Varianzanteil von 75,3 % (vgl. Preis
,40050 -.62446 .08261
Spalte "Kumulierte %" in Abbildung 5.56). Vitamingehalt ,38346 ,48337 .15273
Die in der Übersicht ausgewiesenen Varianzerklärungsanteile (% der Varianz) ge­ ~a~e.!!.. -563]3 ~:39~ .6~8
ben also an, wieviel der jeweilige Faktor an Erklärunganteil in bezug auf alle Aus­ Extraktionsmethode: Hauptachsen-Faktorananalyse.
gangsvariablen besitzt. Diese drei Faktoren erklären zusammen 75,3 % der Aus­
gangsvarianz, wobei der I. Faktor 48,6 %, der 2. Faktor 14,7 % und der 3. Faktor
12,0 % der Ausgangsvarianz erklären. Der Eigenwert der drei Faktoren (erklärter
Die iterativ geschätzten Kommunalitäten auf Basis der Hauptachsenanalyse werden
Teil der Gesamtvarianz eines Faktors) kann in der Spalte "Gesamt" abgelesen wer­
in Abbildung 5.58 widergespiegelt (vgL auch Abbildung 5.51). Aufflillig ist dabei
den.
vor allem, daß offenbar die Varianzanteile der Variablen "Preis", "Backeignung" und
"Vitamingehalt" nur zu einem sehr geringen Teil durch die gefundenen Faktoren er­
klärbar sind. Daraus ergibt sich die Konsequenz, daß diese Variablen tendenziell zu
Abbildung 5.56: Eigenwerte und Anteile erklärter Varianz
Ergebnisverzerrungen führen und von daher aus der Analyse ausgeschlossen werden
sollten. Dabei handelt es sich aber gerade um diejenigen Variablen, die bereits nach
Erklärte Geaamtvarlanz
dem Kaiser-Meyer-Olkin-Kriterium (vgl. Abbildung 5.49) aus der Analyse auszu­
Summen von quadrierten Faktorladungen fOr schließen waren. Aus didaktischen Gründen wird hier allerdings wiederum auf den
Extraktion Ausschluß von Variablen verzichtet.
% der
Faktor Gesamt Varianz Kumulierte %
1 4.86417 48.64 48.64 Abbildung 5.58: Kommunalitäten
2 1,46805 14,68 63,32
3 1 19749
L _11,97 _ _ _75,30 Kommunalllllten
Extraktionsmethode: Hauptachsen-Faktorenanalyse.
Extraktion
I Slrafchfänigkeit .85325
Preis
.55717
Haltbarkeit
,85754
Abbildung 5.57 enthält die unrotierte Faktorladungsmatrix, wobei die Faktorladun­ Anteil ungesättigter
gen der extrahierten Faktoren nach ihrer Ladungsgröße sortiert wurden. Dabei wird Fettsäuren .91075
deutlich, daß die Variablen "Anteil tierischer Fette", "Natürlichkeit", "Streichflihig­ Brat- und Backeignung ,55819
GeSChmack
keit", "Kaloriengehalt", "Geschmack" und "Backeignung" offenbar "viel mit Faktor .82330
Kaloriengehaft
I zu tun haben", während Faktor 2 offenbar mit den Variablen "Ungesättigte Fettsäu­ .73903
Anteil tierischer Fette
ren", "Preis" und "Vitamingehalt'f und Faktor 3 vor allem mit "Haltbarkeit" korre­ .94796
Vilamingehalt
,40402
liert. NetOrlichkeij
87851
Extraktionsmethode: Hauptachsen-Faktorenanalyse.
hIlbeispiel JIY
318 Faktorenanalyse
Abbildung 5.60: Varimax-rotierte Faktormatrix
Um aus den unendlich viele~ Möglichkeiten der Positionierung eines Koordi­
natenkreuzes die beste, d. h. interpretationsfähigste, bestimmen zu können, wird das
Rotierte Faktorenmatrix a
oben ennittelte Faktorenmuster rotiert.
Die rechtwinklige Rotation kann im zwei-dimensionalen (wie im drei-dimen­ Faktor
sionalen) Fall grundsätzlich auch graphisch erfolgen, indem der Untersuchende ver­ 1 2 3
Geschmack ,84729 ,17468 -,27365
sucht, das Koordinatenkreuz so zu drehen, daß möglichst viele Punkte im Koordina­
Anteil tierischer Feite ,73476 ,63626 -,05711
tenkreuz (Faktorladungen) auf einer der beiden Achsen liegen. Im Mehr-als-drei­
Brat- und Backeignung ,69978 -,01333 ,,26139
Faktoren-Fall ist es allerdings notwendig, die Rotation analytisch vorzunehmen. Vitamingehalt ,55369 ,12349 ,28669
SPSS stellt hierfür unterschiedliche Möglichkeiten der Rotation zur Verfügung, die Haltbarkeit ,12616 ,,90249 ,16474
bei Auswahl der Dialogbox "Rotation" erscheinen (vgl. Abbildung 5.59). Strelchfahigkelt ,.36302 ,,81410 .24230
Bei der hier angewendeten Varimax-Rotationsmethode handelt es sich um eine or­ Natürlichkeit ,65040 ,67002 ',08109
thogonale Rotation. Die Faktorachsen verbleiben folglich bei der Rotation in einem Kaloriengehalt ,57633 ,63728 ,,02717
rechten Winkel zueinander, was unterstellt, daß die Achsen bzw. Faktoren nicht un­ Anteil ungesattigter
,,12951 ,,07381 ,94262
tereinander korrelieren. Da die Rotation der Faktoren zwar die Faktorladungen, nicht Fettsauren

aber die Kommunalitäten des Modells verändert, ist die unrotierte Lösung primär für Preis 06852 23296 ,70584
die Auswahl der Anzahl an Faktoren und für die Gütebeurteilung der Faktorlösung Extraktionsmethode: Hauptachsen·Faktorenanalyse.
Rotationsmethode: Varlmax mit Kaiser·Normalisierung.
geeignet. Eine Interpretation der ennittelten Faktoren ist auf Basis eines unrotierten
a. Die Rotation ist in 7 Iterationen konvergiert.
Modells allerdings nicht empfehlenswert, da sich durch Anwendung einer Rotati­
onsmethode die Verteilung des erklärten Varianzanteils einer Variable auf die Fakto­
ren verändert.
Vergleicht man die Lösung der rotierten Faktorladungen mit den unrotierten (Abbil­
dung 5.57), dann zeigt sich eine erhebliche Veränderung. Nach Rotation laden z.T.
Abbildung 5.59: Dialogfeld "Rotation" andere Variable auf bestimmte Faktoren im Vergleich zur nicht rotierten Faktor­
ladungsmatrix.

5. Faktorinterpretation:
Welche Interpretation läßt diese Rotation zu? Dazu wurden die jeweils positiv oder
negativ hochladenden Variablen auf die jeweiligen Faktoren unterstrichen. Zur Ver­
anschaulichung ist es häufig sinnvoll, die hochladenden Variablen - wie in
Abbildung 5.61 dargestellt- mit einem + oder - (positive oder negative Korrelation)
in bezug auf den jeweiligen Faktor zu kennzeichnen.
Dabei wird deutlich, daß Faktor 2 durch hohe Ladungen der Variablen "Haltbar­
keit", "Streichflihigkeit", "Natürlichkeit", "Kalonengehalt" und "Tierfette" gekenn­
zeichnet ist, wobei die beiden erst genannten Variablen negativ auf den Faktor laden.
Versucht man nun, eine Interpretation des zweiten Faktors vorzunehmen, so muß
inan sich bewußt sein, daß hier eine Hauptachsenanalyse vorgenommen wurde, d. h.
Die analytische Lösung von SPSS auf der Basis des Varimax-Kriteriums beim vor­ es ist also nach "hinter den Variablen stehenden" Beurreilungsdimensionen gefragt.
liegenden Beispiel zeigt Abbildung 5.60. Die negativen und positiven Ladungen sind damit erklärbar, daß bei "natürlichen
Produkten" meist der "Anteil tierischer Fette", der "Kaloriengehalt" und damit die
"Natürlichkeit" in einem gegensetzlichen Verhältnis zu "Haltbarkeit" und "Streich­
flihigkeit" stehen. Das bedeutet, daß z.B. eine hohe "Haltbarkeit" und "Streichfähig­
keil" meist mit geringem "Anteil tierischer Fette", "Kaloriengehalt" und damit "Na­
türlichkeit" einhergeht. Die Korrelationen zwischen diesen Variablen läßt sich des­
halb auf die Beurteilungsdimension "Naturbelassenheit" zurückfUhren.
Fallbeispiel 321
320 Faktorenanalyse
Abbildung 5.62: Dfalogfeld "Werte"
Abbildung 5.(;1: Schematische Darstellung der rotierten Faktorladungen

Geschmack +
+ +
Tierfette
Backeignung +
Vitamine +
Haltbarkeit
Streichfähigkeit
+ +
Natürlichkeit
+ +
Kalorien +
Unges. Fettsäuren
Preis Abbildung 5.63: Die Faktorwerte in der Datenmatrix

Der Leser möge selber versuchen, unseren Interpretationsvorschlag für die beiden
übrigen Faktoren nachzuvollziehen. Dabei wird schnell deutlich werden, welche
Schwierigkeiten eine gewissenhafte und sorgfältige Interpretation (entsprechend dem
theoretischen Modell des angewandten Verfahrens) bereiten kann.
Häufig ist es allerdings notwendig, die Daten detaillierter zu analysieren, um die
Ergebnisse einer Rotation richtig zu deuten. Gerade beim Rotationsproblem eröffnen
sich erhebliche Manipulationsspielräume. Damit eröffnet die Faktorenanalyse auch
Spielräume rur Mißbrauch.

6. Bestimmung der Faktorwerte:


Nach Extraktion der drei Faktoren interessiert häufig auch, wie die verschiedenen
Marken anhand dieser drei Faktoren beurteilt wurden. Auf dieser Basis lassen sich
beispielsweise Produktpositionierungen vornehmen. Auch dazu sind Schätzungen
notwendig. Empirische Untersuchungen haben gezeigt, daß je nach verwendeter
Schätzmethode die Ergebnisse erheblich variieren können. In der Regel erfolgt die
Schätzung der Faktorwerte, die streng von den Faktorladungen zu trennen sind, ­
wie auch in SPSS _ durch eine multiple Regressionsrechnung. SPSS bietet drei Ver­
fahren zur Schätzung von Faktorwerten an, die zu unterschiedlichen Werten fUhren.
Zur Einstellung der gewünschten Schätzmethode ist das Dialogfeld "Werte" auszu­
wählen (vgl. Abbildung 5.62).
Alle drei zur Verrugung stehenden Schätzverfahren ruhren zu standardisierten Fak­
torwerten, mit einem Mittelwert von 0 und einer Standardabweichung von I. Durch
die Auswahl der hier verwendeten Methode "Regression" können die zu ermitteln­
den Faktorwerte korrelieren, obwohl- wie im Fall der Hauptachsenanalyse - die Fak­
toren orthogonal geschätzt wurden. Die zur Ermittlung der Faktorwerte erforderli­
chen Regressionskoefjizienten werden bei SPSS unter der Überschrift "Koeffizien­
tenmatrix der Faktorwerte" abgedruckt. Hierbei handelt es sich nicht um die Faktor­
l Fallbeispiel 323
322 Faktorenanalyse
bezug auf die beiden Faktoren an (Faktorwerte). Produkt 3 (SB) hat beispielsweise
werte, sondern um die Gewichtungsfaktoren, die mit den standardisierten Ausgangs­
die Koordinaten 0,189/-1,970 (vgl. die Werte in Abbildung 5.63). Bei einer 2­
daten multipliziert werden müssen, um die entgültigen Faktorwerte zu errechnen. faktoriellen Lösung gibt diese Position an, daß offenbar die Befragten, die ja die ur­
Der Datenmatrix werden die Faktorwerte der einzelnen Fälle bei SPSS als neue Va­ sprünglichen zehn Variablen bewertet hatten, bei einer "Bündelung" der zehn Vari­
riablen (facl_l, fac2_I und fac3_1) angehängt (vgl. Abbildung 5.63). ablen zu zwei unabhängigen Faktoren Produkt 3 in bezug auf Faktor I (Gesundheit)
Für den Fall, daß ft\r bestimmte Variable einzelne Probanden keine Aussagen ge­ positiv und Faktor 2 (Naturbelassenheit) relativ negativ bewerten. Entsprechendes
macht haben (Problem der missing values), gilt: gilt für die Bewertung (Positionierung) der übrigen zehn Marken.
Als Ergebnis zeigt sich, daß z.B. die Marken "HOMAtI und tlRAMA" ebenso wie
(1) Die Fallzahl verringert sich ft\r die entsprechende Variable. die Buttersorten (HolI. Butter, Weihnachtsbutter und Delicado Sahnebutter) im Ver­
(2) Für diesen Fall können keine Faktorwerte berechnet werden. gleich zu den übrigen Produkten eine Extremposition einnehmen.
Da in unsere Analyse nicht die Aussagen der einzelnen Probanden eingingen (vgl. Bei der inhaltlichen Interpretation der Faktorwerte ist darauf zu achten, daß sie
dazu Kapiel 5.1), sondern filr die elf Marken die Mittelwerte über alle Probanden, aufgrund der Standardisierung der Ausgangsdatenmatrix ebenfalls standardisierte
waren diese Effekte nicht relevant. Größen darstellen, d. h. sie besitzen einen Mittelwert von 0 und eine Varianz von l. Für
Stellt man die Faktorwerte der beiden ersten Faktoren graphisch dar (auf die Dar­ die Interpretation der Faktorwerte bedeutet das folgendes:
stellung des 3. Faktors wird aus Anschauungsgründen verzichtet, da dies eine drei­
- Ein negativer Faktorwert besagt, daß ein Produkt (Objekt) in bezug auf diesen Fak­
dimensionale Abbildung erfordern würde), so ergeben sich folgende Pro­
tor im Vergleich zu allen anderen betrachteten Objekten unterdurchschnittlich aus­
duktpositionen fUr die elf Aufstrichfette (Abbildung 5.64). geprägt ist.
- Ein Faktorwert von 0 besagt, daß ein Produkt (Objekt) in bezug auf diesen Faktor
eine dem Durchschnitt entsprechende Ausprägung besitzt.
Abbildung 5.64: Graphische Darstellung der Faktorwerte
- Ein positiver Faktorwert besagt, daß ein Produkt (Objekt) in bezug auf diesen Fak­
FaktoIWerteplot GesundheitlNaturbelassenheit tor im Vergleich zu allen anderen betrachteten Objekten überdurchschnittlich aus­
geprägt ist.
Damit sind z.B. die Koordinatenwerte der Marke SB mit 0,189/-1,970 wie folgt zu
interpretieren: Bei SB wird die Gesundheit (Faktor 1) im Vergleich zu den übrigen
WeihnachlSbutter.
Marken als überdurchschnittlich stark ausgeprägt angesehen, während die Natur­
1.25
.Holl. Butter
belassenheit (Faktor 2) als nur unterdurchschnittlich stark ausgeprägt eingeschätzt
G Du darfst. wird. Dabei ist zu beachten, daß die Faktorwerte unter Verwendung aller Faktor­
E
ladungen aus der rotierten Faktorladungsmatrix (Abbildung 5.60) berechnet werden .
S
Becel. • OSlicado
U Bottenam. Somit haben auch kleine Faktorladungen einen Einfluß auf die Größe der Faktor­
.SB
N
D 0 werte. Das bedeutet in unserem Beispiel, daß insbesondere die Faktorwerte bei Fak­
H tor I, der einen Generalfaktor darstellt (d. h. durchgängig vergleichbar hohe Ladung­
E
Senella.
I en aufweist), nicht nur durch die in Abbildung 5.60 unterstrichenen Werte bestimmt
T Flor!
werden, sondern auch alle anderen Variablen einen Einfluß - wenn z. T. auch nur
-1.25 einen geringen - auf die Bestimmung der Faktorwerte ausüben.
H • • Rama
oma Solche Informationen lassen sich z.B. fUr Marktsegmentierungsstudien verwenden,

\ 1.75
indem durch die Faktorenanalyse Marktnischen aufgedeckt werden können. So fin­
det sich z.B. im Bereich links unten (geringe Gesundheit und geringe Naturbelassen­
heit) kein Produkt. Stellt sich heraus, daß diese Kombination von Merkmalen für
-1.75 -1.05 -0.35 0.35 1.05
-1.4 -0.7 0 0.7 1.4 2.1 Emulsionsfette von ausreichend vielen Nachfragern gewünscht wird, so kann diese
-2.1
Marktnische durch ein neues Produkt mit eben diesen Eigenschaften geschlossen
NATURBELASSENHEIT werden.

Die Achsen stellen in Abbildung 5.64 die beiden ersten extrahierten Faktoren dar
und die Punkte im Koordinatenkreuz geben die jeweiligen Positionen der Marken in
Literaturhinweise 325
324 Faktorenanalyse 5.4 Anwendungsempfehlungen
5.3.3 SPSS-Kommandos
5.4.1 Probleme bei der Anwendung der Faktorenanalyse
Neben der Möglichkeit, die oben aufgezeigte explorative Faktorenanalyse menuge­
stUtzt durchzuführen, kann die Auswertung ebenfalls mit der nachfolgenden Synta­ 5.4.1.1 Unvollständig beantwortete Fragebögen: Das Missing Value-Problem
xdatei gerechnet werden. Die entsprechende Datei ist auf der Supportdiskette enthal­

Beim praktischen Einsatz der Faktorenanalyse steht der Anwender häufig vor dem
ten.
Problem, daß die Fragebögen nicht alle vollständig ausgefüllt sind. Um die fehlenden
Werte (missing values) im Programm handhaben zu können, bietet SPSS drei Optio­
Abbildung 5.65: SPSS-Kommandos zur Faktorenanalyse nen an. Zur Auswahl einer der Alternativen ist die Dialogbox "Optionen" zu öffnen
(vgl. Abbildung 5.66).
* Faktorenan~lyse
Folgende Optionen stehen dem Anwender konkret zur Auswahl:
* DATENDEFINITION
* --------------­ 1. Die Werte werden fallweise ausgeschlossen ("Listenweiser Fallausschluß"), d.
DATA/streichf
LIST FlXED
Preis Haltbark ungefett Backeign GeschmaC Kalorien h. sobald ein fehlender Wert bei einer Variablen auftritt, wird der gesamte Fra­
Tierfett vitamin Natur 1-50(3) Marke 53-60(A). gebogen aus der weiteren Analyse ausgeschlossen. Dadurch wird die Fallzahl
BEGIN
4500 DATA
4000 4375 3875 3250 3750 4000 2000 4625 4125 SANELLA
häufig erheblich reduziert!
5167 4250 3833 3833 2167 3750 3273 1857 3750 3417 HOMA
5059 3824 4765 343B 4235 4471 3765 1923 3529 3529 SB
Abbildung 5.66: Das Dialogfeld "Optionen"
4500 4000 4200 3900 3700 3900 3600 1500 3500 3700 RAMA

END DATA.

* PROZEDUR

~~~;~~;-:~auPtachsenanalySe (PA21 für den Margarinemarkt" .

FACTOR variables ~ Streichf to Natur

\ /ANALYSIS = all

I/FORMAT sort

II/PLOT/PRINT
= all

eigen rotation (1 2)

/EXTRACTION = pa2

/ROTATION
/SAVE REG
=varimax
(all,fakw).
SUBTITLE "Ausgabe der Faktorwerte für alle Margarinemarken.".
FORMATS fakw1 to fakw3 (fB.5J.
LIST VARIABLES = fakwl to fakw3 Marke.

i I
2. Die Werte werden variablenweise ausgeschlossen ("Faarweiser Fallausschluß'1,
d. h. bei Fehlen eines Wertes wird nicht der gesamte Fragebogen eliminiert, son­
dern lediglich die betroffene Variable. Dadurch wird zwar nicht die Fallzahl ins­
gesamt reduziert, aber bei der Durchschnittsbildung liegen pro Variable unter­
schiedliche Fallzahlen vor. Dadurch kann es zu einer Ungleichgewichtung der
Variablen kommen.
3. Es erfolgt überhaupt kein Ausschluß. Für die fehlenden Werte pro Variable wer­
den Durchschnittswerte ("Durch Mittelwert ersetzen'~ eingefügt.
.J~U J'CU\,LVl \,UW..U.l) """"

Je nachdem, welches Verfahren der Anwender zugrunde legt, können unter­


schiedliche Ergebnisse resultieren, so daß hier ein weiterer Manipulationsspielraum nissen der Faktorenanalyse auftreten. Abbildung 5.69 stellt die Ergebnisse bei einer
Zweifaktoren-Lösung gegenüber.
vorliegt.

5.4.1.2 Starke Streuung der Antworten: Abbildung 5.68: Die personenbezogene Objektmatrix
Das Problem der Durchschnittsbildung

In unserem Fallbeispiel hatte die Befragung eine dreidimensionale Matrix ergeben \\


\
VARIABLEN (Streichfähigkeil usw.).

(Abbildung 5.67).

Person 1

18 Personen hatten 11 Objekte (Marken) anhand von 10 Eigenschaften beurteilt.


( 1) SANELLA Person ~
Diese dreidimensionale Datenmatrix hatten wir durch Bildung der Durchschnitte o­
ber die 18 Personen auf eine zweidimensionale Objekte/ Variablen-Matrix ver­
dichtet. Diese Durchschnittsbildung verschenkt aber die Informationen über die per­ Person 18

sonenbezogene Streuung der Daten. Ist diese Streuung groß, wird also auch viel In­
Person 1

formationspotential verschenkt.
Eine Möglichkeit, die personenbezogene Streuung in den Daten mit in die Analyse Person 2

(2) HOMA

~1~
einfließen zu lassen, besteht darin, die Beurteilung der jeweiligen Marke ft1r jede
Person aufrecht zu erhalten, indem jede einzelne Markenbeurteilung durch jede Per­
son als ein Objekt betrachtet wird. Die dreidimensionale Matrix in Abbildung 5.67 __
wird dann zu einer vergrößerten zweidimensionalen Matrix (Abbildung 5.68). •

Abbildung 5.67: Der "Datenquader" Person 1

Person 2

(11) RAMA

1~
Personen
Person

Variable Abbildung 5.69: Die Faktorladungen im Vergleich

Durchschnittsverfuhren
(N = 11)
Objektverfahren
(N = 127)

Objekte FAKTOR 1
FAKTOR 2
FAKTOR 1
FAKTOR 2 •
STREICHF -.77533
PREIS .35540
.29203
-.88490
.15782
.82054
.24729

HALTBARK -.43414 .29059


-.00013
UNGEFETT .50559
-.38055
- .13003 .80776
.15111

BACKEIGN .49826
-.15191 -.05290
In diesem Falle werden aus den ursprünglich (durchschnittlich) bewerteten 11 Ob­
GESCHMAC .71213

.58184
.11287

-.21740 .79836

jekten (Marken) 11 x 18 198 Objekte (Da in unserem Fallbeispiel jedoch nicht alle
KALORIEN .86186
-.07113 .20807

TIERFETT .31326
.30129

Personen alle Marken beurteilt hatten, ergaben sich nur 127 Obj ekte).
.98085
-.10660 .22904

VITAMIN
.51186
.61220

Vergleicht man die Ergebnisse des "Durchschnittsverfahrens" mit dem "personen­ NATUR .30277
.62307

.92891
-.15978 .03999
bezogenen Objektverfahren" , dann können erhebliche Unterschiede in den Ergeb­ .53825
.36232

328 Faktorenanalyse

Dabei wird deutlich, daß sich die Faktorladungen z. T. erheblich verschoben haben. Anwendungsempfehlungen 329
Unterschiede ergeben sich auch in den Positionierungen der Marken anhand der Fak­ Abbildung 5.71: Die zweidimensionale Positionierung beim Objektverfahren
torwerte. Abbildung 5.70 zeigt die Durchschnittspositionen der 11 Marken. Ver­
gleicht man die Positionen von Rama und SB aus der Durchschnittspositionierung
mit der personenbezogenen Positionierung in Abbildung 5.71, dann werden die Er­ 1.6
gebnisunterschiede besonders deutlich.
I
r
Die Vielzahl unterdrückter Informationen bei der Mittelwertbildung führt über ver­ 1.2
., • Weihnachtsbutter
schiedene Faktonnuster letztlich auch zu recht heterogenen Faktorwertstrukturen und
* • Holl. Butter
damit Positionen. Dadurch, daß sich bei den Analysen unterschiedliche Faktoren­ 0.6
muster ergeben, sind die Positionierungen in letzter Konsequenz nicht mehr ver­
gleichbar. F
a
k
0.4 r •
(2) • DeJicado

t 0
0
Abbildung 5.70: Die zweidimensionale Positionierung beim Durchschnittsverfahren r
2
••
u+
&0

1.6
I
~
I ::1
-1.2


• (4)

Weihnachtsbutter -1.6
1.2 a a
(1) I Du darfst
0.8
-1.6 -1.2 -0.6 -004 0 004
F 0.8 1.2 1.6
a 0.4 Faktor 1
k
t 0 • : SB-Elnzelbewertung
(1) : Ungefett
0 - : Botteram-Einzelbewertung
(2) : Tierfett (6) : Haltbarlleit
-0.4 (7): Natur
• : DurChSChniltabewertung
aSB (3): Preis
-0.6 der Margannearten (6) : Backeignung
2 (3) a Hall. Butter (4): Sireichfahigkeil (9) : Vitamin
-1.2 (5); Kalorien
(10) . Geschmack

-1.6
-2.0
aDeficado
-2.4

-2.4 -2.0 -1.6 -1.2 -0.6 -0.4 0 0.4 0.6 1.2 1.6 2.0 2.4
Faktor 1

(1): Ungef,tt (6) : Haltbarllert


(2.) : llerfett (7) : Natur
(3) : Preis (8) : BackeIgnung I
(4): SlreiChfäl1igkel1 (9) : Vitamin I
(5) : Kalorien (10) : GesChmack I
330 Faktorenanalyse

5.4.1.3 Entdeckungs- oder Begründungszusammenhang: E~ploratorische \\


Anwendungsempfehlungen 331
versus konfirmatorische Faktorenanalyse verwiesen. Hier finden sich weitere ins Detail gehende Erläuterungen und
Empfehlungen. 18

Bei einer Vielzahl wissenschaftlicher und praktischer Fragestellungen ist es von In­
teresse, Strukturen in einem empirischen Datensatz zu erkennen. Der Anwender hat Abbildung 5.72:

keine konkreten Vorstellungen über den Zusammenhang zwischen Variablen, und es


werden lediglich hypothetische Faktoren als verursachend filr empirisch beobachtete
Korrelationen zwischen den Variablen angesehen, ohne daß der Anwendet genaue
Kenntnisse über diese Faktoren besitzt. In einer solchen Situation bietet die in die­
sem Kapitel beschriebene Faktorenanalyse ein geeignetes Analyseinstrumentarium - Daten müssen metrisch skaliert
zur Aufdeckung unbekannter Strukturen. Die Faktorenanalyse ist damit im Hinblick sein (mindestens Intervallskala).
auf den methodologischen Standort in den Entdeckungszusammenhang einzuordnen. - Fallzahl sollte mindestens der drei­
Sie kann deshalb auch als Hypothesengenerierungsinstrument bezeichnet werden, fachen Variablenzahl entsprechen,
und wir sprechen in diesem Fall von einer explorativen Faktorenanalyse. mindestens aber der Zahl der Va­
Demgegenüber existieren bei vielen Anwendungsfällen aber bereits apriori konkrete riablen.
2. Erstellen der Ausgangsdatenmatrix
Vorstellungen über mögliche hypothetische Faktoren, die hinter empirisch beobach­ 3. ErreChnen der Korrelationsmatrix
teten Korrelationen zwischen Variablen zu vermuten sind. Aufgrund theoretischer 4. KommunaIitätenschätzung
Vorüberlegungen werden Hypothesen über die Beziehung zwischen direkt beobacht­ - Eigene Vorgaben
baren Variablen und dahinter stehenden, nicht beobachtbaren Faktoren aufgestellt, 5. Faktorextraktion - Iterative Schätzung
und es ist von Interesse, diese Hypothesen an einem empirischen Datensatz zu prü­ - Hauptachsenanalyse
fen. Hier kann die Faktorenanalyse zur Hypothesenprüjung herangezogen werden. 6. Bestimmung der Faktorenzahl - Hauptkomponentenanalyse
Wir befmden uns damit im Begründungszusammenhang, In solchen Anwendungsfäl­ 7. Rotation - Kaiser-Kriterium
len spricht man von einer konfirmatorischen Faktorenanalyse ..Die konfirmatorische 8. Interpretation - Varimax-Kriterium
Faktorenanalyse basiert ebenfalls auf dem Fundamentaltheorem der Faktorenanalyse. - Höchstens Faktorladungen > 0,5
Die Anwendung einer solchen Faktorenanalyse setzt allerdings voraus, daß der An· verwenden (Konvention)
wender die Beziehungen zwischen beobachteten Variablen und Faktoren aufgrund
intensiver theoretischer Überlegungen vor Anwendung der Faktorenanalyse festlegt.
Die konfirmatorische Faktorenanalyse kann als Spezialfall von Stukturgleichungsa­
nalysen angesehen werden, weshalb hier auf eine Darstellung dieser Analysemetho­
de verzichtet und der interessierte Leser auf die entsprechenden Ausfilhrungen in
Kapitel 6 verwiesen wird.

5.4.2 Empfehlungen zur Durchführung einer Faktorenanalyse

Die obigen Ausfi1hrungen haben gezeigt, daß eine Faktorenanalyse bei gleichen Aus­
gangsdaten zu unterschiedlichen Ergebnissen führen kann, je nachdem, wie die
subjektiv festzulegenden Einflußgrößen "eingestellt" werden. Gerade für denjenigen,
der neu in diesem Gebiet tätig werden will, mögen einige Empfehlungen (Abbildung
5.72) fi1r die vom Anwender subjektiv festzulegenden Größen eine erste Hilfestel­
lung bedeuten. Die Vorschläge sind dabei daran orientiert, inwieweit sie sich bei der
Fülle bereits durchgefUhrter Faktorenanalysen bewährt haben.
Abschließend sei nochmals betont, daß diese Empfehlungen lediglich an den­
jenigen gerichtet sind, der sich neu mit der Faktorenanalyse befaßt. Die Leser, die
tiefer in die Materie eindringen möchten, seien vor allem auf das Buch von ÜberIa 18
VgL Oberla, K., 1972.
332 Faktorenanalyse -'"

5.5 Literaturhinweise 6 Strukturgleichungsmodelle

Child, D. (1973): The Essentials ofFactor Analysis, 2. Aufl, London u.a.

Carroll, J. B. (1993): Human Cognitive Abilities - A survey of factor-analytic studies,

Cambridge.
Clement, M.lLitfin, T.rreichmann, M.-H. (2000): Beurteilung der Güte von explorativen Fak­
torenanalysen im Marketing, in: Wissenschaftliches Studium (WiSt), 5 (2000), S. 283-286.

Cureton, E. E./D'Agostino, R. B. (1983): Factor Analysis - An Applied Approach, Hillsdale,

New Jersey.
Dziuban, C. D.lShirkey, E. C. (1974): When is a Correlation Matrix Appropriate for Factor
Analysis?, in: Psychological Bulletin, Vol. 81(6), S. 358-361.

Guttmann, L. (1953): Image Theory for the Structure of Quantitative Variates, in:

psychometrika, 18, S. 277-296.


6.1 Problemstellung................................................................................. 334

Harman, H. H. (1976): Modem Factor Analysis, 3. Aufl., Chicago.


6.1.1 Grundgedanke von Strukturgleichungsmodellen :............................. 334

Hofstätter, P. R (1974): Faktorenanalyse, in: König R. (Hrsg.): Handbuch der empirischen

6.1.2 Grundlegende Zusammenhänge der Kausalanalyse .......................... 340

Sozialforschung, Bd. 3 a, 3. Aufl, Stuttgart, S. 204-272.

Hüttner, M.lSchwerting, K. (1999): Explorative Faktorenanalyse, in Herrmann, A.I Homburg,


6.1.2.1 Begriff der Kausalität: Kovarianz und Korrelation ........................... 340

C. (Hrsg.): Marktforschung, Wiesbaden, S. 381-412.


6.1.2.2 Die Überprüfung kausaler Zusammenhänge im Rahmen von ............... .

Hüttner, M. (1979): Informationen fUr Marketing-Entscheidungen, München, S. 329-351.


Strukturgleichungsmodellen mit latenten Variablen ......................... 344

Janssen, J. (1999): Statistische Datenanalyse mit SPSS fUr Windows: eine anwendungs­
6.1.3 Ablaufschritte eines Strukturgleichungsmodells ............................... 350

orientierte EinfUhrung in das Basissystem Version 8 und das Modul Exakte Tests, 3. Aufl,

6.2 Vorgehensweise ................................................................................ 353

Berlin u.a.
Kaiser, H. F. (1970): A Second Generation Little Jiffy, in: psychometrika, 35, S. 401-415. 6.2.1 Hypothesenbildung ........................................................................... 353

Kaiser, H. F.lRice, J. (1974): Little Jiffy, Mark IV, in: Educational and Psychological 6.2.2 Pfaddiagramm und Modellspezifikation ........................................... 354

Measurement, 34, S. 111-117. 6.2.2.1 Erstellung eines Pfaddiagramms ....................................................... 354

Kim, J.-O./Mueller, C. W. (1986): Introduction to Factor Analysis, Sage University Paper, 6.2.2.2 Mathematische Spezifikation der Modellstruktur ............................. 356

Series Number 07-013, 13. Aufl., Beverly Hills, London. 6.2.2.3 Parameter und Annahmen in Strukturgleichungsmodellen ............... 358

Loehlin, J. C. (1998): Latent variable models: factor, path, and structural analysis, 3. Aufl.,
6.2.3 Identifizierbarkeit der Modellstruktur ............................................... 360

New Jersey. 6.2.4 Schätzung der Parameter ................................................................... 362

Norusis, M. J./SPSS Inc. (Hrsg.) (1992): SPSS for Windows, Professional Statistics, Release
6.2.4.1 Spektrum iterativer Schätzverfahren ................................................. 362

5, Chicago.
Ost, F. (1984): Faktorenanalyse. In: Fahrrneir L.I Hamerle A. (Hrsg.): Multivariate statistische 6.2.4.2 Berechnung der Parameterschätzer mit Hilfe des

Verfahren, Berlin u.a., S. 575-662. modelltheoretischen Mehrgleichungssystems ................................... 365

Plinke, W. (1985): Erlösplanung im industriellen Anlagengeschäft, Wiesbaden. 6.2.5 Beurteilung der Schätzergebnisse ..................................................... 370

Revenstorf, D. (1976): Lehrbuch der Faktorenanalyse, Stuttgart. 6.2.5.1 Plausibilitätsbetrachtungen der Schätzungen .................................... 370

Stewart, D.W. (1981): The Application and Misapplication of Factor Analysis in Marketing
6.2.5.2 Statistische Testkriterien zur Prüfung der Zuverlässigkeit der

Research, in: Journal ofMarketing Research, 18., S. 51-62.


Schätzungen ...................................................................................... 371

Überla, K. (\ 972): Faktorenanalyse, 2. Aufl., Berlin u.a.


6.2.5.3 Die Beurteilung der Gesamtstruktur.................................................. 372

6.2.5.4 Die Beurteilung der Teilstrukturen ................................................... 376

6.2.6 Modifikation der Modellstruktur ....................................................... 378

6.2.6.1 Vereinfachung der Modellstruktur .................................................... 379

6.2.6.2 Vergrößerung der Modellstruktur ..................................................... 379

6.3 Fallbeispiel ........................................................................................ 381

6.3.1 Problemstellung................................................................................. 381

6.3.1.1 Erstellung von Pfaddiagrammen mit Hilfe von AMOS und

Einlesen der Rohdaten ........................................................................ 383

6.3.1.2 Pfaddiagramm fUr das Fallbeispiel... ................................................. 385