Sie sind auf Seite 1von 29

Fachhochschule für angewandtes Management

Fachbereich Medienmanagement
Wintersemester 2008/2009
Seminar „Statistik II“
Dozentin: Marleen Brinks

Statistik II
Analyse eines selbsterstellten
Datensatzes

Florian Bechler

13.02.2009

3.
Se
mes
ter
Statistik II

Inhalt
1. Der Datensatz..................................................................................................................4
2. Analyse des Datensatzes.................................................................................................4
2.1. T-Test für eine Stichprobe........................................................................................4

2.2. T-Test für zwei unabhängige Stichproben.................................................................4

2.3. T-Test für zwei abhängige Stichproben.....................................................................5

2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung............................................5

2.5. Einfaktorielle Varianzanalyse mit Messwiederholung................................................6

2.6. Kruskal-Wallis...........................................................................................................7

2.7. Mann-Whitney U Test als Post-hoc-Test...................................................................7

2.8. Korrelation nach Pearson.........................................................................................8

2.9. Multiple Regression..................................................................................................8

2.10. Chi²-Test für eine Variable.....................................................................................9

2.11. Chi²-Test im 2-Gruppen-Vergleich.......................................................................10

2.12. Reliabilitätsanalyse..............................................................................................10

3. Zusammenfassung der Ergebnisse................................................................................11


4. Anhang..........................................................................................................................13
4.1. Bericht: T-Test für eine Stichprobe.........................................................................13

4.2. Bericht: T-Test für zwei unabhängige Stichproben..................................................14

4.3. Bericht: T-Test für zwei abhängige Stichproben......................................................15

4.4. Bericht: Varianzanalyse ohne Messwiederholung...................................................16

4.5. Bericht: Varianzanalyse mit Messwiederholung......................................................17

4.6. Bericht: Kruskal-Wallis............................................................................................18

4.7. Bericht: Mann-Whitney U Test................................................................................20

4.8. Bericht: Korrelation nach Pearson..........................................................................25

4.9. Bericht: Multiple Regression...................................................................................25

4.10. Bericht: Chi²-Test bei einer Stichprobe................................................................28

Seite
2
Statistik II

4.11. Bericht: Chi²-test mit zwei Gruppen.....................................................................28

4.12. Bericht: Reliabilitätsanalyse.................................................................................29

5. Eidesstattliche Versicherung..........................................................................................30
Eidesstattliche Versicherung

Abbildungsverzeichnis
Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen...........5
Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen................................6
Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten. .6
Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit..............................7
Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen.................8
Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression. .9
Tabelle 7: Häufigkeit der Abschlüsse....................................................................................10
Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht..................................................10
Tabelle 9: Erwartete Verteilung der Gehaltsklassen..............................................................10

Seite
3
Statistik II

Tabelle 9: Erwartete Verteilung der Gehaltsklassen

1. Der Datensatz
Der Beispieldatensatz soll das Ergebnis einer Umfrage unter den Angestellten eines
Kaufhauses sein. Das Unternehmen möchte anhand der Umfrage herausfinden, inwieweit
die Mitarbeiter mit ihrer Arbeitssituation zufrieden sind, welche Faktoren auf diese
Zufriedenheit einwirken und in welchen Bereichen es Verbesserungsbedarf gibt. Die Daten
sind alle fiktiv. Zur Berechnung der Ergebnisse wurde OpenStat verwendet, alle verwendeten
Berichte aus dem Programm befinden sich im Anhang.

2. Analyse des Datensatzes

2.1. T-Test für eine Stichprobe


Bei diesem Test wird ein Mittelwert mit einer vorgegebenen Größe verglichen. In diesem Fall
bietet es sich an, die durchschnittliche Zufriedenheit aller Mitarbeiter am Arbeitsplatz gegen
einen erwünschten Zielwert zu prüfen. Es sei angenommen, dass die Unternehmensleitung
einen Durchschnittswert von 7 als Ziel vorgibt. Zuerst müssen die Voraussetzungen für
diesen Test geprüft werden: Mit Nges=60 ist der Stichprobenumfang ausreichend groß. Die
Variable muss für einen T-Test normalverteilt sein. Eine Analyse der hier genutzten Variable
„Zufriedenheit mit dem Arbeitsleben“ ergibt im Shapiro-Wilks Test ein p=0,1568, der Lilliefors
Test ergibt „No evidence against normality“, man darf also annehmen dass eine
Normalverteilung vorliegt. Der T-Test selbst liefert folgende Ergebnisse: Der Mittelwert M der
Variablen beträgt 5,883 (SD=2,156). Für t ergibt sich -4,012, für p 0,0000. Die Probability ist
also kleiner als 0,05. Die Abweichung des Mittelwertes vom Zielwert ist signifikant und kein
Zufall in dieser Erhebung. Der Mittelwert ist um 1,117 geringer als die Zielvorgabe.

2.2. T-Test für zwei unabhängige Stichproben


Beim T-Test für unabhängige Stichproben untersuche ich, ob die Arbeitszufriedenheit der
Männer sich von der der Frauen signifikant unterscheidet. Die Gruppe der Männer hat 28
Mitglieder, die Gruppe der Frauen 32, beide Gruppen sind also groß genug für diesen Test.
Die Variable Arbeitszufriedenheit muss jetzt nach Gruppe getrennt auf Normalverteilung
untersucht werden. Für die Gruppe der Männer ergibt sich im Shapiro-Wilks Test ein
p=0,1591 und der Lilliefors Test ergibt „No evidence against normality“, die
Normalverteilungsannahme muss also nicht verworfen werden. Bei der Gruppe der Frauen
ergibt sich im Shapiro-Wilks Test ein p=0,1705, der Lilliefors Test meldet ebenfalls „No
evidence against normality“. Also darf ein T-Test mit diesen Variablen gerechnet werden.
Der Mittelwert für die Zufriedenheit am Arbeitsplatz ist bei den Männern 5,68 (SD=1,52) und
bei den Frauen 6,06 (SD=2,60). Der F-Test auf gleiche Varianzen ergibt ein p kleiner 0,05,
es kann also davon ausgegangen werden dass die Varianzen signifikant unterschiedlich
sind. Deshalb sind die Ergebnisse in der Zeile „Assuming unequal variances“ abzulesen:
Hier sind sie t(50,93)=-0,708 mit p=0,4964. Der Unterschied zwischen den Mittelwerten ist
also nicht signifikant.

Seite
4
Statistik II

2.3. T-Test für zwei abhängige Stichproben


Zwei abhängige Stichproben in diesem Datensatz sind die aktuelle Gesamt-
Arbeitszufriedenheit sowie der Wert für die Arbeitszufriedenheit vor drei Monaten. Untersucht
wird, ob sich die durchschnittliche Gesamtarbeitszufriedenheit erhöht hat. Zuerst wird als
Voraussetzung überprüft, ob die Differenz aus den beiden Variablen normalverteilt ist. Der
Shapiro-Wilks Test ergibt ein p von 0,0869, es ist nicht signifikant wahrscheinlich dass keine
Normalverteilung vorliegt. Der Lilliefors Test gibt ebenfalls „No evidence against normality“
aus, es steht also anzunehmen dass die erste Bedingung erfüllt ist. Die Stichprobe ist mit
n=60 groß genug für den T-Test. Der Mittelwert der aktuellen Zufriedenheit mit der
Arbeitssituation ist 5,88 (SD=2,16), der Mittelwert für die Arbeitszufriedenheit vor 3 Monaten
5,58 (SD=2,01). Mit einem Ergebnis von t(59)= 1,110 und p=0,2715 und damit größer 0,05
steht fest, dass dieser Unterschied nicht signifikant ist. Dass der erste Mittelwert größer als
der zweite ist, kann also auch Zufall sein. Das hierfür errechnete Effektstärkemaß beträgt
d=0,14, zeigt also erwartungsgemäß einen schwachen Effekt an.

2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung


Mit diesem Verfahren kann ermittelt werden, ob sich die Mittelwerte von mehr als zwei
Gruppen signifikant voneinander unterscheiden. Hier wende ich das Verfahren an, um
Herauszufinden ob Unterschiede in der Arbeitszufriedenheit zwischen den Abteilungen, die
an der Umfrage teilgenommen haben, bestehen. In dem Datensatz sind die Abteilungen mit
Zahlen kodiert: Das Lager mit 1, der Verkauf mit 2, der Einkauf mit 3 und die Verwaltung mit
4. Die einfaktorielle ANOVA gibt hierfür ein p von 0,01 aus, das p ist also kleiner 0,05. Damit
besteht irgendwo zwischen den vier Gruppen ein signifikanter Unterschied in Bezug auf die
Zufriedenheit mit der Arbeit. Die errechneten Mittelwerte M und Standardabweichungen SD
sind:

Lager Verkauf Einkauf Verwaltung


M = 4,71 M = 5,76 M = 7,36 M = 6,64
SD = 1,83 SD = 2,24 SD = 1,80 SD = 1,80
Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen
Der Bonferronie Test gibt an, wo die signifikanten Unterschiede zwischen den Gruppen
liegen. So unterscheidet sich Gruppe 1 mit p=0,001 signifikant von Gruppe 3 und mit
p=0,011 signifikant von Gruppe 4, Gruppe 2 unterscheidet sich mit p=0,039 signifikant von
Gruppe 3 und alle anderen Gruppen unterscheiden sich nach diesem Test nicht signifikant
voneinander. OpenStat meldet hier für die beiden letztgenannten Gruppenpaare keine
signifikanten Unterschiede, das widerspricht allerdings den berechneten p-Werten und muss
deshalb ein Fehler des Programms sein.

Lager Verkauf Einkauf Verwaltung


Lager - Nicht Signifikant Signifikant Signifikant
Verkauf Nicht Signifikant - Signifikant Nicht Signifikant
Einkauf Signifikant Signifikant - Nicht Signifikant
Verwaltung Signifikant Nicht Signifikant Nicht Signifikant -
Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen

Seite
5
Statistik II

2.5. Einfaktorielle Varianzanalyse mit Messwiederholung


Mit der einfaktoriellen Varianzanalyse mit Messwiederholung kann man bei voneinander
abhängigen Variablen ermitteln, ob Unterschiede zwischen deren Mittelwerten bestehen. Bei
diesem Datensatz bietet es sich an, zu untersuchen, ob die Unterschiede in den
verschiedenen abgefragten Zufriedenheiten zufällig oder signifikant sind. Damit das Ergebnis
nicht zu unübersichtlich wird, beschränke ich mich auf den Vergleich von vier Variablen: die
Zufriedenheit mit den Aufgaben im Unternehmen, mit der Arbeitszeit, mit dem Gehalt und mit
den Aufstiegschancen. Als Ergebnis liefert OpenStat hier p=0,000. Das ist kleiner 0,05, also
gibt es irgendwo zwischen diesen Variablen signifikante Unterschiede im Mittelwert. Die
errechneten Mittelwerte sind:

Aufgaben Arbeitszeit Gehalt Aufstiegschancen


M=5,220 M=7,051 M=5,576 M=4,712
SD=2,009 SD=1,305 SD=1,642 SD=1,451
Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten
Die Angestellten sind also bei diesen vier Aspekten am zufriedensten mit den Arbeitszeiten,
am wenigsten zufrieden sind sie mit ihren Aufstiegschancen. Die Unterschiede werden jetzt
zwischen allen Variablen auf Signifikanz geprüft. Die Mittelwert-Abweichung zwischen der
Zufriedenheit mit den Aufgaben und der mit der Arbeitszeit ist mit p=0,000 signifikant, zur
Zufriedenheit mit Gehalt und Aufstiegschancen ist die Abweichung nicht signifikant. Die
Zufriedenheit mit der Arbeitszeit weicht signifikant von der mit Gehalt und Aufstiegschancen
ab, beide p=0,000. Die Zufriedenheit mit dem Gehalt weicht ebenfalls mit p=0,0073 von der
mit den Aufstiegschancen ab. Insgesamt ist es also kein Zufall, dass die Angestellten mit der
Arbeitszeit zufriedener sind als mit den anderen Aspekten. Es kann aber Zufall sein, dass sie
die Zufriedenheit mit ihren Aufgaben höher bewertet haben als die mit ihren
Aufstiegschancen oder niedriger als die mit ihrem Gehalt.

Aufgaben Arbeitszeit Gehalt Aufstiegschancen

Aufgaben - Signifikant Nicht Signifikant Nicht Signifikant

Arbeitszeit Signifikant - Signifikant Signifikant

Gehalt Nicht Signifikant Signifikant - Signifikant

Aufstiegs-
Nicht Signifikant Signifikant Signifikant -
chancen
Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit

2.6. Kruskal-Wallis
Die Kruskal-Wallis Varianzanalyse vergleicht ebenfalls verschiedene Gruppen hinsichtlich
der Unterschiede beim Mittelwert einer Variablen. Das Besondere an der Methode ist, dass
sie auch auf ordinalskalierte Variablen angewendet werden kann. In diesem Datensatz ist die
Gehaltsklasse zum Beispiel ordinalskaliert: Je höher die Gehaltsklasse, desto mehr verdient
der Mitarbeiter, aber die Unterschiede zwischen den Gehaltsklassen sind nicht exakt gleich.

Seite
6
Statistik II

Deswegen wende ich Kruskal-Wallis an, um zu prüfen, ob zwischen den Abteilungen


Unterschiede bei der Verteilung der Gehaltsklassen liegen. Der Test ergibt ein p=0,0000, das
bedeutet es gibt einen signifikanten Unterschied in der Verteilung der Gehaltsklassen auf die
einzelnen Abteilungen.

2.7. Mann-Whitney U Test als Post-hoc-Test


Um jetzt herauszufinden, zwischen welchen Gruppen Unterschiede bestehen, werden Mann-
Whitney U Tests als Post-hoc-Tests durchgeführt. Diese vergleichen immer zwei Gruppen
hinsichtlich einer ordinalskalierten Variablen miteinander. Die Variable „abteilung“ ist in den
Daten von 1-4 eingetragen, dabei steht 1 für das Lager, 2 für den Verkauf, 3 für den Einkauf
und 4 für die Verwaltung. Zwischen Gruppe 1 und Gruppe 2 besteht mit p=0,0001 ein
signifikanter Unterschied in der Gehaltsklasse. Bei Gruppe 1 und Gruppe 3 ist mit p=0,0004
ebenfalls ein signifikanter Unterschied vorhanden. Gruppe 1 und Gruppe 4 unterscheiden
sich mit p=0,0000 auch signifikant voneinander. Gruppe 1 unterscheidet sich also von allen
anderen Gruppen signifikant. Jetzt muss Gruppe 2 mit 3 und 4 verglichen werden. Gruppe 2
unterscheidet sich mit p=0,1655 von Gruppe 3. Dies ist nicht signifikant, da p > 0,05, also ist
der Unterschied hier nicht überzufällig. Von Gruppe 4 unterscheidet sich Gruppe 2 mit
p=0,0000, diese beiden Gruppen unterscheiden sich also wieder signifikant voneinander.
Zuletzt wird Gruppe 3 mit Gruppe 4 verglichen, was ein p=0,0002 ergibt. Also unterscheiden
sich auch diese Gruppen signifikant voneinander. Die einzigen beiden Abteilungen, die sich
bei der Gehaltsklasse nicht signifikant unterscheiden, sind also Verkauf und Einkauf.

Lager Verkauf Einkauf Verwaltung


Lager - Signifikant Signifikant Signifikant
Verkauf Signifikant - Nicht Signifikant Signifikant
Einkauf Signifikant Nicht Signifikant - Signifikant
Verwaltung Signifikant Signifikant Signifikant -
Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen

2.8. Korrelation nach Pearson


Bis jetzt habe ich vor allem Unterschiede zwischen Gruppen und Variablen untersucht. Als
nächstes werde ich mit einer Korrelations-Analyse versuchen herauszufinden, wie stark und
in welche Richtung zwei Variablen voneinander abhängen, also ob die eine größer wird oder
schrumpft wenn die andere größer wird, wie stark das ausgeprägt ist und ob überhaupt so
ein Zusammenhang vorliegt. Als Beispielsdaten nehme ich die gesamte Arbeitszufriedenheit,
die Zufriedenheit mit dem Gehalt und die gesamte private Lebenszufriedenheit. Als Ergebnis
gibt OpenStat Werte für die Korrelation aus, die zwischen -1 und +1 liegen, sowie ein p dafür
ob der Korrelationswert sich signifikant von 0, also keinem Zusammenhang, unterscheidet.
Die Korrelation zwischen der gesamten Arbeitszufriedenheit und der Zufriedenheit mit dem
Gehalt beträgt 0,254 mit p=0,050. Das ist genau an der Grenze zur Signifikanz, die
Korrelation ist positiv im leichten bis mittelstarken Bereich. Zwischen der Arbeitszufriedenheit
und der privaten Lebenszufriedenheit beträgt der Korrelationswert -0,0228 bei einem
p=0,080. Der Wert ist also nicht signifikant von 0 verschieden, er könnte also Zufall sein.
Wenn er nicht zufällig so liegen würde, wäre das ein leichter bis mittlerer negativer
Zusammenhang zwischen privater Lebenszufriedenheit und Arbeitszufriedenheit. Daran
kann man erkennen, dass diese Daten fiktiv sind, denn so eine Beobachtung wäre in der
Realität sehr ungewöhnlich. Der Zusammenhang zwischen der Zufriedenheit mit dem Geld

Seite
7
Statistik II

und der privaten Zufriedenheit hat einen Wert von 0,162 bei einem p=0,216. Das wäre eine
leichte positive Korrelation, die sich aber nicht signifikant von 0 unterscheidet.

2.9. Multiple Regression


Mit der multiplen Regression kann untersucht werden, ob mit Hilfe von verschiedenen
Variablen eine andere Variable statistisch vorhergesagt werden kann. In dem vorliegenden
Datensatz bietet es sich an, zu untersuchen ob aus den einzelnen Aspekten der
Zufriedenheit am Arbeitsplatz wie Kollegen, Vorgesetzte, Aufgaben, Arbeitszeit, Gehalt und
Aufstiegschancen, die gesamte Zufriedenheit am Arbeitsplatz vorhergesagt werden kann.
Als Grundvorrausetzungen des Testes darf keine Kollinearität zwischen den Prädiktoren
bestehen, aber es muss Linearität und Homoskedastizität bestehen. Die Kollinearität kann
mit dem ausgegebenen Toleranz-Wert der Analyse geprüft werden. Dieser liegt hier immer
deutlich über 0,1, also kann diese Voraussetzung als erfüllt angesehen werden. Der
Breusch-Pagan-Godfrey Test auf Heteroskedastizität liefert ein p=1,0000, es kann also
angenommen werden das Homoskedastizität vorliegt. Die Normalverteilung der Residuen
ergibt bei Prüfung im Shapiro-Wilks Test ein p=0,0000, der Lilliefors Test ergibt „Strong
evidence against normality“. Damit sind die Voraussetzungen für eine multiple Regression
eigentlich nicht erfüllt. Da ich aber dieselben Berechnungen auch mit den Variablen für die
private Zufriedenheit durchgeführt habe und diese die Voraussetzung der Homoskedatizität
nicht erfüllen und damit auch nicht verwendet werden können, werde ich die multiple
Regression weiter mit diesen Daten durchführen. Die Ergebnisse besitzen in diesem Fall
natürlich keine Aussagekraft, aber die Methodik bleibt korrekt. Zuerst kann hier festgehalten
werden, dass mit einem p=0,0000 ein signifikanter Zusammenhang zwischen den
Grundwerten und abhängigen Wert vorhanden ist, es kann also in diesem Fall die gesamte
Arbeitszufriedenheit mit diesen Grundwerten statistisch vorhergesagt werden. Dabei ist der
Einfluss aller Grundvariablen außer der Variable „z_gehalt“ signifikant. Mithilfe des Beta-
Wertes kann der spezifische Einfluss einer Variablen auf die Zielvariable gesehen werden.
Dabei stellt sich heraus, die Zufriedenheit mit den Aufgaben mit Beta=0,600 und die
Zufriedenheit mit den Kollegen mit Beta=0,503 einen außergewöhnlich starken Einfluss
haben. Alle anderen Variablen haben mit Beta-Werten zwischen -0,182 bis 0,165 einen eher
leichten Einfluss auf die Gesamtzufriedenheit.

Variable Beta p
z_kollegen 0,503 0,000
z_vorgesetze 0,147 0,042
z_aufgaben 0,600 0,000
z_arbeitszeit 0,165 0,023
z_gehalt 0,073 0,346
z_aufstieg -0,182 0,039
Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression

2.10. Chi²-Test für eine Variable


Wenn man herausfinden möchte, ob die Häufigkeiten, mit der verschiedene Antworten auf
eine Frage gewählt wurden, signifikant voneinander abweichen, kann man den Chi²-Test für
eine Variable anwenden. Ich untersuche hier mit dieser Methode, ob die Antworten auf die
Frage nach den Schulabschlüssen gleichmäßig verteilt sind oder nicht. Diese Frage hatte
fünf Antwortmöglichkeiten, erwartungsgemäß hätte bei einer gleichmäßigen Verteilung jede
Antwort zwölf Mal gewählt werden müssen. Tatsächlich wurde wie folgt geantwortet:

Seite
8
Statistik II

(qualifizierter) Studium
Kein Abschluss Mittlere Reife (Fach)Abitur
Hauptschulabschluss (Uni oder FH)
4 30 18 5 3
Tabelle 7: Häufigkeit der Abschlüsse
Die Verteilung sieht auf den ersten Blick schon sehr ungleichmäßig aus. Dementsprechend
bestätigt der Chi²-Test mit p=0,0000, dass die Antworten signifikant unterschiedlich häufig
gegeben wurden.

2.11. Chi²-Test im 2-Gruppen-Vergleich


Man kann mit dem Chi²-Test aber nicht nur herausfinden, ob innerhalb einer Variablen die
Häufigkeiten von der Erwartung abweichen, sondern auch ob es Abweichungen zwischen
den Antworten von zwei Gruppen vom Erwartungswert gibt. In diesen Daten finde ich es
interessant, zu prüfen, ob es signifikante Unterschiede bei den Gehaltsklassen zwischen
Männern und Frauen in dem Unternehmen gibt, deshalb werde ich das mit Hilfe des Testes
berechnen. Das Unternehmen hat sechs verschiedene Gehaltsklassen. Diese verteilen sich
wie folgt auf die Geschlechter:

I II III IV V VI
M 5 12 9 0 1 1
W 1 13 7 5 6 0
Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht
Man erkennt schon, dass die Verteilung bei den Männern schwerpunktmäßig eher auf der
linken Seite der Tabelle ist, bei den Frauen etwas weiter rechts. Erwartet hätte man folgende
Verteilung:

I II III IV V VI
M 2,8 11,667 7,467 2,333 3,267 0,467
W 3,2 13,333 8,533 2,667 3,733 0,533
Tabelle 9: Erwartete Verteilung der Gehaltsklassen
Die gemessen Verteilung weicht von der erwarteten ab. Gemäß Chi²-Test ist die Verteilung
der Gehaltsklassen auf die beiden Geschlechter in diesem Unternehmen mit p=0,031
signifikant unterschiedlich von den erwarteten Häufigkeiten.

2.12. Reliabilitätsanalyse
Mithilfe einer Reliabilitätsanalyse kann man ermitteln, wie genau eine Gruppe von Fragen,
die zusammen einen gemeinsamen Themenbereich abdecken, diesen Themenbereich
misst. Im vorliegenden Datensatz können dafür die sechs einzelnen Aspekte der
Arbeitszufriedenheit verwendet werden. Die gesamte Zufriedenheit mit der Arbeit wird nicht
hinzugezogen, diese ist ja sozusagen der durch die Teilnehmer selbstbeantwortete
Oberbegriff für die anderen Fragen. Die Reliabilitätsanalyse gibt in diesem Fall für die sechs
Variablen ein Cronbach-Alpha von 0,535 aus. Normalerweise sollte der Wert größer als 0,7
liegen, also kann man hier davon ausgehen, dass die Messgenauigkeit der sechs Fragen
nicht hoch genug ist, um die Arbeitszufriedenheit adäquat abzubilden.

3. Zusammenfassung der Ergebnisse


Zum Abschluss sollen noch einmal die Ergebnisse aller Untersuchungen kurz
zusammengefasst werden. Das Unternehmen hat mit dieser Umfrage ermitteln können, dass

Seite
9
Statistik II

die aktuelle Zufriedenheit der Mitarbeiter signifikant um immerhin 1,117 unter dem Zielwert
für die Mitarbeiterzufriedenheit liegt. Die Unterschiede in der Zufriedenheit zwischen
Männern und Frauen sind allerdings nicht signifikant, offensichtlich gibt es keine besonderen
Probleme für eines der beiden Geschlechter im Unternehmen. Zwischen den Abteilungen
unterscheidet sich die Zufriedenheit allerdings schon. Gerade die Mitarbeiter aus dem Lager
sind deutlich unzufriedener als die anderen Mitarbeiter, während die Mitarbeiter im Einkauf
deutlich zufriedener sind. Aufgeschlüsselt auf die Teilaspekte stellt sich heraus, dass die
Angestellten vor allem mit den Arbeitszeiten signifikant überdurchschnittlich zufrieden sind,
während die Zufriedenheiten mit Gehalt, Aufgaben und Aufstiegschancen darunter liegen. Im
Vergleich zu vor drei Monaten hat sich aus Sicht der Mitarbeiter keine Verbesserung der
Situation und damit der Zufriedenheit eingestellt.

Weiter wurde herausgefunden, dass die Angestellten der Bereiche Einkauf und Verkauf sich
nicht signifikant bezüglich der Verteilung der Gehaltsklassen unterscheiden, während alle
anderen Abteilungen sich hier deutlich voneinander unterscheiden. Die Verteilung der
Gehaltsklassen auf Männer und Frauen in dem Unternehmen unterscheidet sich ebenfalls
signifikant. Hier könnte weiter untersucht werden, ob dies mit der Verteilung der
Geschlechter auf die Abteilungen, mit höherer Bildung oder von ganz anderen Faktoren
abhängt. Nach der Korrelationsanalyse stellte sich außerdem heraus, das die Zufriedenheit
mit dem Arbeitsleben leicht bis mittelstark positiv mit der Zufriedenheit mit dem Gehalt
korreliert, je zufriedener mit dem Gehalt umso zufriedener sind die Angestellten insgesamt
mit ihrem Arbeitsleben. Eine Korrelation mit der Lebenszufriedenheit wurde bei diesen
beiden Aspekten aber nicht festgestellt. Bei einer weiteren Untersuchung, diesmal mit der
multiplen Regression, wurden als die maßgeblich bestimmenden Faktoren für die
Arbeitszufriedenheit die Kollegen und die Aufgaben ermittelt. Andere Faktoren haben einen
deutlich geringeren Einfluss.

Die Schulabschlüsse der Angestellten sind erwartungsgemäß nicht gleichmäßig verteilt,


manche Abschlüsse sind signifikant häufiger vorzufinden als andere.

Zur Messung selbst kann man sagen, dass die Messgenauigkeit der verschiedenen Aspekte
der Arbeitszufriedenheit nicht besonders hoch war, zukünftige Fragebögen zur
Mitarbeiterzufriedenheit sollten in dieser Hinsicht verbessert werden.

Seite
10
Statistik II

4. Anhang

4.1. Bericht: T-Test für eine Stichprobe


Normalverteilung der Variablen:

NORMALITY TESTS FOR gz_arbeit

Shapiro-Wilkes W = 0.9706
Shapiro-Wilkes Prob. = 0.1568

Skew = -0.191
Kurtosis = -0.221
Lilliefors Test Statistic = 0.095
Conclusion: No evidence against normality.

T-Test für eine Stichprobe:

ANALYSIS OF A SAMPLE MEAN

Sample Mean = 5.883


Population Mean = 7.000
Sample Size = 60
Standard error of Mean = 0.278
t test statistic = -4.012 with probability 0.000
t value required for rejection = 2.001
Confidence Interval = ( 5.326, 6.440)

Mittelwert und Standardabweichung der Variablen:

DISTRIBUTION PARAMETER ESTIMATES

========================================================

gz_arbeit (N = 60) Sum = 353.000


Mean = 5.883 Variance = 4.647 Std.Dev. = 2.156
Std.Error of Mean = 0.278
0.950 Confidence Interval for mean : 5.326 to 6.440
Range = 9.000 Minimum = 1.000 Maximum = 10.000
Skewness = -0.191 Std. Error of Skew = 0.309
Kurtosis = -0.221 Std. Error Kurtosis = 0.608

========================================================
Median = 6.000
Q1 = 5.000
Q3 = 7.000
Interquartile range = 2.000
========================================================

Seite
11
Statistik II

4.2. Bericht: T-Test für zwei unabhängige Stichproben


Zahl der Gruppenmitglieder:

FREQUENCY ANALYSIS BY BILL MILLER

Frequency Analysis for geschlecht


FROM UP TO FREQ. PCNT CUM.FREQ. CUM.PCNT. %ILE RANK

1.00 2.00 28 0.47 28.00 0.00 0.23


2.00 3.00 32 0.53 60.00 1.00 0.73

Normalverteilung der Variablen nach Gruppe getrennt (zuerst männlich, dann weiblich):

NORMALITY TESTS FOR m_gz_arbeit

Shapiro-Wilkes W = 0.9462
Shapiro-Wilkes Prob. = 0.1591

Skew = -0.437
Kurtosis = -0.102
Lilliefors Test Statistic = 0.101
Conclusion: No evidence against normality.

NORMALITY TESTS FOR w_gz_arbeit

Shapiro-Wilkes W = 0.9526
Shapiro-Wilkes Prob. = 0.1705

Skew = -0.284
Kurtosis = -0.729
Lilliefors Test Statistic = 0.099
Conclusion: No evidence against normality.

T-Test für zwei unabhängige Stichproben:

COMPARISON OF TWO MEANS

Variable Mean Variance Std.Dev. S.E.Mean N


Group 1 5.68 2.30 1.52 0.29 28
Group 2 6.06 6.77 2.60 0.46 32
Assuming equal variances, t = -0.685 with probability = 0.4960 and 58
degrees of freedom
Difference = -0.38 and Standard Error of difference = 0.56
Confidence interval = ( -1.51, 0.74)
Assuming unequal variances, t = -0.708 with probability = 0.4964 and
50.93 degrees of freedom
Difference = -0.38 and Standard Error of difference = 0.54
Confidence interval = ( -1.47, 0.70)
F test for equal variances = 2.943, Probability = 0.0028

NOTE: t-tests are two-tailed tests.

Seite
12
Statistik II

4.3. Bericht: T-Test für zwei abhängige Stichproben


Normalverteilung der Differenz aus den beiden Variablen:

NORMALITY TESTS FOR dif_gz_arbeit

Shapiro-Wilkes W = 0.9654
Shapiro-Wilkes Prob. = 0.0869

Skew = -0.081
Kurtosis = -0.703
Lilliefors Test Statistic = 0.090
Conclusion: No evidence against normality.

T-Test für abhängige Stichproben:

COMPARISON OF TWO MEANS

Variable Mean Variance Std.Dev. S.E.Mean N


gz_arbeit 5.88 4.65 2.16 0.28 60
gz_arbeit_vor3monaten 5.58 4.04 2.01 0.26 60
Assuming dependent samples, t = 1.110 with probability = 0.2715 and 59
degrees of freedom
Correlation between gz_arbeit and gz_arbeit_vor3monaten = 0.497
Difference = 0.30 and Standard Error of difference = 0.27
Confidence interval = ( -0.24, 0.84)
t for test of equal variances = 0.611 with probability = 0.5438

NOTE: t-tests are two-tailed tests.

Mittelwert und Standardabweichung des Differenzwertes:

DISTRIBUTION PARAMETER ESTIMATES

========================================================

dif_gz_arbeit (N = 60) Sum = 18.000


Mean = 0.300 Variance = 4.383 Std.Dev. = 2.094
Std.Error of Mean = 0.270
0.950 Confidence Interval for mean : -0.241 to 0.841
Range = 8.000 Minimum = -4.000 Maximum = 4.000
Skewness = -0.081 Std. Error of Skew = 0.309
Kurtosis = -0.703 Std. Error Kurtosis = 0.608

========================================================
Median = 0.000
Q1 = -1.000
Q3 = 2.000
Interquartile range = 3.000

Seite
13
Statistik II

4.4. Bericht: Varianzanalyse ohne Messwiederholung


ONE WAY ANALYSIS OF VARIANCE RESULTS

Dependent variable is: gz_arbeit, Independent variable is: abteilung

---------------------------------------------------------------------
SOURCE D.F. SS MS F PROB.>F OMEGA SQR.
---------------------------------------------------------------------
BETWEEN 3 54.90 18.30 4.67 0.01 0.16
WITHIN 56 219.29 3.92
TOTAL 59 274.18
---------------------------------------------------------------------

MEANS AND VARIABILITY OF THE DEPENDENT VARIABLE FOR LEVELS OF THE


INDEPENDENT VARIABLE
---------------------------------------------------------------------
GROUP MEAN VARIANCE STD.DEV. N
---------------------------------------------------------------------
1 4.71 3.35 1.83 17
2 5.67 5.03 2.24 21
3 7.36 3.25 1.80 11
4 6.64 3.25 1.80 11
---------------------------------------------------------------------
TOTAL 5.88 4.65 2.16 60
---------------------------------------------------------------------

TESTS FOR HOMOGENEITY OF VARIANCE


---------------------------------------------------------------------
Hartley Fmax test statistic = 1.55 with deg.s freem: 4 and 20.
Cochran C statistic = 0.34 with deg.s freem: 4 and 20.
Bartlett Chi-square = 1.16 with 3 D.F. Prob. > Chi-Square = 0.763
---------------------------------------------------------------------

FISHER'S (PROTECTED) LEAST SIGNIFICANT DIFFERENCE TEST


---------------------------------------------------------------------
GROUP MEAN GROUP MEAN DIFFERENCE FISHER LSD SIGNIFICANT?
---------------------------------------------------------------------
1 4.706 2 5.667 0.961 1.293 NO
1 4.706 3 7.364 2.658 1.534 YES
1 4.706 4 6.636 1.930 1.534 YES
2 5.667 3 7.364 1.697 1.475 YES
2 5.667 4 6.636 0.970 1.475 NO
3 7.364 4 6.636 0.727 1.690 NO
NOTE! Familywise error rate may be greater than alpha
---------------------------------------------------------------------

---------------------------------------------------------------
Bonferroni Test for (Differences Between Means
Overall alpha selected = 0.05
---------------------------------------------------------------
Comparisons made at alpha / no. comparisons = 0.008

Groups Difference Statistic Prob > Value Significant?


1 - 2 -0.961 1.423 0.163 NO
1 - 3 -2.658 3.775 0.001 YES

Seite
14
Statistik II

1 - 4 -1.930 2.742 0.011 NO


2 - 3 -1.697 2.164 0.039 NO
2 - 4 -0.970 1.236 0.226 NO
3 - 4 0.727 0.945 0.356 NO

4.5. Bericht: Varianzanalyse mit Messwiederholung


Treatments by Subjects (AxS) ANOVA Results.

-----------------------------------------------------------
SOURCE DF SS MS F Prob. > F
-----------------------------------------------------------
SUBJECTS 58 255.636 4.408
WITHIN SUBJECTS 177 534.750 3.021
TREATMENTS 3 178.894 59.631 29.157 0.000
RESIDUAL 174 355.856 2.045
-----------------------------------------------------------
TOTAL 235 790.386 3.363
-----------------------------------------------------------

TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONS


VARIABLE MEAN STD.DEV.
z_aufgaben 5.220 2.009
z_arbeitszeit 7.051 1.305
z_gehalt 5.576 1.642
z_aufstieg 4.712 1.451

---------------------------------------------------------------
Tukey HSD Test for (Differences Between Means
alpha selected = 0.05
Groups Difference Statistic Probability Significant?
---------------------------------------------------------------
1 - 2 -1.831 q = 9.832 -0.0000 YES
1 - 3 -0.356 q = 1.912 0.5320 NO
1 - 4 0.508 q = 2.731 0.2206 NO
---------------------------------------------------------------
2 - 3 1.475 q = 7.920 -0.0000 YES
2 - 4 2.339 q = 12.563 -0.0000 YES
---------------------------------------------------------------
3 - 4 0.864 q = 4.643 0.0073 YES
---------------------------------------------------------------

---------------------------------------------------------------
Tukey-Kramer Test for (Differences Between Means
alpha selected = 0.05
Groups Difference Statistic Probability Significant?
---------------------------------------------------------------
1 - 2 -1.831 q = 9.832 -0.0000 YES
1 - 3 -0.356 q = 1.912 0.5320 NO
1 - 4 0.508 q = 2.731 0.2206 NO
2 - 3 1.475 q = 7.920 -0.0000 YES
2 - 4 2.339 q = 12.563 -0.0000 YES
3 - 4 0.864 q = 4.643 0.0073 YES
---------------------------------------------------------------

---------------------------------------------------------------

Seite
15
Statistik II

Tukey B Test for (Contrasts on Ordered Means


alpha selected = 0.05
---------------------------------------------------------------

Groups Difference Statistic d.f. Prob.>value Significant?


4 - 1 -0.508 2.731 2, 174 0.138 NO
4 - 3 -0.864 4.643 3, 174 0.006 YES
4 - 2 -2.339 12.563 4, 174 -0.000 YES
1 - 3 -0.356 1.912 2, 174 0.356 NO
1 - 2 -1.831 9.832 3, 174 -0.000 YES
3 - 2 -1.475 7.920 2, 174 0.000 YES

----------------------------------------------------------------
Scheffe contrasts among pairs of means.
alpha selected = 0.05
Group vs Group Difference Scheffe Critical Significant?
Statistic Value
----------------------------------------------------------------
1 2 -1.83 6.95 2.817 YES
1 3 -0.36 1.35 2.817 NO
1 4 0.51 1.93 2.817 NO
----------------------------------------------------------------
2 3 1.47 5.60 2.817 YES
2 4 2.34 8.88 2.817 YES
----------------------------------------------------------------
3 4 0.86 3.28 2.817 YES
----------------------------------------------------------------

----------------------------------------------------------------------
Neuman-Keuls Test for (Contrasts on Ordered Means
alpha selected = 0.05

Group Mean
4 4.712
1 5.220
3 5.576
2 7.051

Groups Difference Statistic d.f. Probability Significant?


----------------------------------------------------------------------
4 - 1 -0.508 q = 2.731 2 174 0.0559 NO
4 - 3 -0.864 q = 4.643 3 174 0.0039 YES
4 - 2 -2.339 q = 12.563 4 174 -0.0000 YES
1 - 3 -0.356 q = 1.912 2 174 0.1790 NO
1 - 2 -1.831 q = 9.832 3 174 0.0000 YES
3 - 2 -1.475 q = 7.920 2 174 0.0001 YES
----------------------------------------------------------------------

4.6. Bericht: Kruskal-Wallis


Kruskal - Wallis One-Way Analysis of Variance
See pages 184-194 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

1.00 3.50 1
1.00 3.50 1

Seite
16
Statistik II

1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 1
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 2
2.00 19.00 3
2.00 19.00 3
2.00 19.00 3
2.00 19.00 3
3.00 39.50 3
3.00 39.50 2
3.00 39.50 3
3.00 39.50 2
3.00 39.50 2
3.00 39.50 3
3.00 39.50 3
3.00 39.50 2
3.00 39.50 2
3.00 39.50 2
3.00 39.50 2
3.00 39.50 2
3.00 39.50 2
3.00 39.50 2
3.00 39.50 3
3.00 39.50 2
4.00 50.00 3
4.00 50.00 3
4.00 50.00 4
4.00 50.00 4
4.00 50.00 4
5.00 56.00 4
5.00 56.00 4
5.00 56.00 4
5.00 56.00 4
5.00 56.00 4
5.00 56.00 4
5.00 56.00 4
6.00 60.00 4

Seite
17
Statistik II

Sum of Ranks in each Group


Group Sum No. in Group
1 230.00 17
2 624.50 21
3 373.50 11
4 602.00 11

No. of tied rank groups = 5


Statisic H uncorrected for ties = 37.6920
Correction for Ties = 0.9058
Statistic H corrected for ties = 41.6127
Corrected H is approx. chi-square with 3 D.F. and probability = 0.0000

4.7. Bericht: Mann-Whitney U Test


Vergleich Gruppe 1 – Gruppe 2:

Mann-Whitney U Test
See pages 116-127 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 1
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
2.00 17.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2

Seite
18
Statistik II

3.00 33.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2
3.00 33.00 2

Sum of Ranks in each Group


Group Sum No. in Group
1 208.00 17
2 533.00 21

No. of tied rank groups = 3


Statistic U = 302.0000
z Statistic (corrected for ties) = 3.6404, Prob. > z = 0.0001

Vergleich Gruppe 1 – Gruppe 3:

Mann-Whitney U Test
See pages 116-127 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 1
2.00 14.00 2
2.00 14.00 2
2.00 14.00 2
2.00 14.00 2
3.00 24.00 2
3.00 24.00 2
3.00 24.00 2
3.00 24.00 2
3.00 24.00 2
4.00 27.50 2
4.00 27.50 2

Sum of Ranks in each Group


Group Sum No. in Group

Seite
19
Statistik II

1 175.00 17
2 231.00 11

No. of tied rank groups = 4


Statistic U = 165.0000
z Statistic (corrected for ties) = 3.3869, Prob. > z = 0.0004
z test is approximate. Use tables of exact probabilities in Siegel.
(Table J or K, pages 271-277)

Vergleich Gruppe 1 – Gruppe 4:

Mann-Whitney U Test
See pages 116-127 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
1.00 3.50 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
2.00 12.00 1
4.00 19.00 2
4.00 19.00 2
4.00 19.00 2
5.00 24.00 2
5.00 24.00 2
5.00 24.00 2
5.00 24.00 2
5.00 24.00 2
5.00 24.00 2
5.00 24.00 2
6.00 28.00 2

Sum of Ranks in each Group


Group Sum No. in Group
1 153.00 17
2 253.00 11

No. of tied rank groups = 4


Statistic U = 187.0000
z Statistic (corrected for ties) = 4.4218, Prob. > z = 0.0000
z test is approximate. Use tables of exact probabilities in Siegel.
(Table J or K, pages 271-277)

Vergleich Gruppe 2 – Gruppe 3:

Seite
20
Statistik II

Mann-Whitney U Test
See pages 116-127 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 1
2.00 7.50 2
2.00 7.50 2
2.00 7.50 2
2.00 7.50 2
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 2
3.00 22.50 2
3.00 22.50 2
3.00 22.50 2
3.00 22.50 1
3.00 22.50 1
3.00 22.50 1
3.00 22.50 2
3.00 22.50 1
4.00 31.50 2
4.00 31.50 2

Sum of Ranks in each Group


Group Sum No. in Group
1 322.50 21
2 205.50 11

No. of tied rank groups = 3


Statistic U = 139.5000
z Statistic (corrected for ties) = 0.9721, Prob. > z = 0.1655
z test is approximate. Use tables of exact probabilities in Siegel.
(Table J or K, pages 271-277)

Vergleich Gruppe 2 – Gruppe 4:

Mann-Whitney U Test
See pages 116-127 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

Seite
21
Statistik II

2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
2.00 5.50 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
3.00 16.00 1
4.00 23.00 2
4.00 23.00 2
4.00 23.00 2
5.00 28.00 2
5.00 28.00 2
5.00 28.00 2
5.00 28.00 2
5.00 28.00 2
5.00 28.00 2
5.00 28.00 2
6.00 32.00 2

Sum of Ranks in each Group


Group Sum No. in Group
1 231.00 21
2 297.00 11

No. of tied rank groups = 4


Statistic U = 231.0000
z Statistic (corrected for ties) = 4.6024, Prob. > z = -0.0000
z test is approximate. Use tables of exact probabilities in Siegel.
(Table J or K, pages 271-277)

Vergleich Gruppe 3 – Gruppe 4:


Kruskal - Wallis One-Way Analysis of Variance
See pages 184-194 in S. Siegel's Nonparametric Statistics for the
Behavioral Sciences

Score Rank Group

2.00 2.50 1
2.00 2.50 1
2.00 2.50 1
2.00 2.50 1
3.00 7.00 1
3.00 7.00 1
3.00 7.00 1

Seite
22
Statistik II

3.00 7.00 1
3.00 7.00 1
4.00 12.00 1
4.00 12.00 1
4.00 12.00 2
4.00 12.00 2
4.00 12.00 2
5.00 18.00 2
5.00 18.00 2
5.00 18.00 2
5.00 18.00 2
5.00 18.00 2
5.00 18.00 2
5.00 18.00 2
6.00 22.00 2

Sum of Ranks in each Group


Group Sum No. in Group
1 69.00 11
2 184.00 11

No. of tied rank groups = 4


Statisic H uncorrected for ties = 14.2562
Correction for Ties = 0.9401
Statistic H corrected for ties = 15.1638
Corrected H is approx. chi-square with 1 D.F. and probability = 0.0002

Seite
23
Statistik II

4.8. Bericht: Korrelation nach Pearson

CORRELATION MATRIX

Correlations
gz_arbeit z_gehalt gz_privat
gz_arbeit 1.000 0.254 -0.228
z_gehalt 0.254 1.000 0.162
gz_privat -0.228 0.162 1.000
No. of valid cases = 60

t-test Values for prob. |corr.| > 0 test

Variables gz_arbeit z_gehalt gz_privat

gz_arbeit 0.000 1.997 1.780


z_gehalt 1.997 0.000 1.251
gz_privat 1.780 1.251 0.000

Probability of greater t

Variables gz_arbeit z_gehalt gz_privat

gz_arbeit 0.000 0.050 0.080


z_gehalt 0.050 0.000 0.216
gz_privat 0.080 0.216 0.000

4.9. Bericht: Multiple Regression


Arbeitsplatz-Zufriedenheit:

Dependent variable: gz_arbeit

Variable Beta B Std.Err. t Prob.>t VIF TOL


z_kollegen 0.503 0.529 0.075 7.047 0.000 1.178 0.849
z_vorgesetze 0.147 0.191 0.091 2.088 0.042 1.148 0.871
z_aufgaben 0.600 0.644 0.088 7.292 0.000 1.565 0.639
z_arbeitszeit 0.165 0.272 0.116 2.340 0.023 1.144 0.874
z_gehalt 0.073 0.096 0.101 0.950 0.346 1.358 0.736
z_aufstieg -0.182 -0.271 0.128 -2.123 0.039 1.707 0.586
Intercept 0.000 -2.770 1.058 -2.618 0.012

SOURCE DF SS MS F Prob.>F
Regression 6 209.035 34.839 29.899 0.0000
Residual 52 60.592 1.165
Total 58 269.627

R2 = 0.7753, F = 29.90, D.F. = 6 52, Prob>F = 0.0000


Adjusted R2 = 0.7493

Standard Error of Estimate = 1.08

Seite
24
Statistik II

F = 29.899 with probability = 0.000


Block 1 met entry requirements

=====================================================
Breusch-Pagan-Godfrey Test of Heteroscedasticity
=====================================================

Auxiliary Regression

Dependent variable: BPGResid.


Variable Beta B Std.Err. t Prob.>t VIF TOL
z_kollegen 0.234 0.000 0.000 1.741 0.088 1.174 0.852
z_vorgesetze 0.037 0.000 0.000 0.278 0.782 1.149 0.870
z_aufgaben 0.054 0.000 0.000 0.351 0.727 1.546 0.647
z_arbeitszeit 0.368 0.000 0.000 2.766 0.008 1.147 0.872
z_gehalt 0.133 0.000 0.000 0.923 0.360 1.342 0.745
z_aufstieg -0.342 -0.000 0.000 -2.119 0.039 1.693 0.591
Intercept 0.000 -0.000 0.000 -1.551 0.127

SOURCE DF SS MS F Prob.>F
Regression 6 0.000 0.000 2.311 0.0475
Residual 51 0.000 0.000
Total 57 0.000

R2 = 0.2137, F = 2.31, D.F. = 6 51, Prob>F = 0.0475


Adjusted R2 = 0.1212

Standard Error of Estimate = 0.00

Breusch-Pagan-Godfrey Test of Heteroscedasticity


Chi-Square = 0.000 with probability greater value = 1.000

Normalverteilung der Residuen:


NORMALITY TESTS FOR RawResid.

Shapiro-Wilkes W = 0.1105
Shapiro-Wilkes Prob. = 0.0000

Skew = -7.746
Kurtosis = 60.000
Lilliefors Test Statistic = 0.517
Conclusion: Strong evidence against normality.

Private Zufriedenheit:

Dependent variable: gz_privat

Variable Beta B Std.Err. t Prob.>t VIF TOL


z_familie 0.594 0.557 0.067 8.331 0.000 1.075 0.930
z_freizeit 0.439 0.494 0.081 6.080 0.000 1.103 0.906
z_wohnort 0.168 0.185 0.077 2.415 0.019 1.027 0.973
Intercept 0.000 -1.261 0.766 -1.646 0.105

Seite
25
Statistik II

SOURCE DF SS MS F Prob.>F
Regression 3 161.648 53.883 51.949 0.0000
Residual 56 58.085 1.037
Total 59 219.733

R2 = 0.7357, F = 51.95, D.F. = 3 56, Prob>F = 0.0000


Adjusted R2 = 0.7215

Standard Error of Estimate = 1.02


F = 51.949 with probability = 0.000
Block 1 met entry requirements

=====================================================
Breusch-Pagan-Godfrey Test of Heteroscedasticity
=====================================================

Auxiliary Regression

Dependent variable: BPGResid.


Variable Beta B Std.Err. t Prob.>t VIF TOL
z_familie -0.298 -0.292 0.129 -2.255 0.028 1.075 0.930
z_freizeit 0.087 0.102 0.157 0.649 0.519 1.103 0.906
z_wohnort 0.082 0.095 0.149 0.636 0.527 1.027 0.973
Intercept 0.000 1.391 1.484 0.937 0.353

SOURCE DF SS MS F Prob.>F
Regression 3 21.864 7.288 1.872 0.1449
Residual 56 218.069 3.894
Total 59 239.933

R2 = 0.0911, F = 1.87, D.F. = 3 56, Prob>F = 0.1449


Adjusted R2 = 0.0424

Standard Error of Estimate = 1.97

Breusch-Pagan-Godfrey Test of Heteroscedasticity


Chi-Square = 10.932 with probability greater value = 0.012

Normalverteilung der Residuen:


NORMALITY TESTS FOR RawResid.

Shapiro-Wilkes W = 0.9665
Shapiro-Wilkes Prob. = 0.0983

Skew = -0.278
Kurtosis = 2.283
Lilliefors Test Statistic = 0.082
Conclusion: No evidence against normality.

Seite
26
Statistik II

4.10. Bericht: Chi²-Test bei einer Stichprobe


Chi-square Analysis Results for constant and abschluss
No. of Cases = 60

OBSERVED FREQUENCIES

Frequencies
COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 Total

Row 1 4 30 18 5 3 60
Total 4 30 18 5 3 60

EXPECTED FREQUENCIES

Expected Values
COL. 1 COL. 2 COL. 3 COL. 4 COL. 5
Row 1 12.000 12.000 12.000 12.000 12.000

Chi-square = 46.167 with D.F. = 4. Prob. > value = 0.000

Liklihood Ratio = 43.713 with prob. > value = 0.0000

4.11. Bericht: Chi²-test mit zwei Gruppen


Chi-square Analysis Results for geschlecht and gehaltklasse
No. of Cases = 60

OBSERVED FREQUENCIES

Frequencies
COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6

Row 1 5 12 9 0 1 1
Row 2 1 13 7 5 6 0
Total 6 25 16 5 7 1
Frequencies
Total

Row 1 28
Row 2 32
Total 60

EXPECTED FREQUENCIES

Expected Values
COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6
Row 1 2.800 11.667 7.467 2.333 3.267 0.467
Row 2 3.200 13.333 8.533 2.667 3.733 0.533

Chi-square = 12.316 with D.F. = 5. Prob. > value = 0.031

Liklihood Ratio = 15.215 with prob. > value = 0.0095

phi correlation = 0.4531

Seite
27
Statistik II

Pearson Correlation r = 0.2770

Mantel-Haenszel Test of Linear Association = 4.528 with probability >


value = 0.0333

The coefficient of contingency = 0.413

Cramer's V = 0.453

4.12. Bericht: Reliabilitätsanalyse


Treatments by Subjects (AxS) ANOVA Results.

-----------------------------------------------------------
SOURCE DF SS MS F Prob. > F
-----------------------------------------------------------
SUBJECTS 58 305.356 5.265
WITHIN SUBJECTS 295 960.667 3.256
TREATMENTS 5 250.565 50.113 20.466 0.000
RESIDUAL 290 710.102 2.449
-----------------------------------------------------------
TOTAL 353 1266.023 3.586
-----------------------------------------------------------

TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONS


VARIABLE MEAN STD.DEV.
z_kollegen 6.068 2.050
z_vorgesetze 4.593 1.662
z_aufgaben 5.220 2.009
z_arbeitszeit 7.051 1.305
z_gehalt 5.576 1.642
z_aufstieg 4.712 1.451

RELIABILITY ESTIMATES

TYPE OF ESTIMATE VALUE


Unadjusted total reliability 0.381
Unadjusted item reliabiity 0.093
Adjusted total (Cronbach) 0.535
Adjusted item reliability 0.161

Seite
28
Statistik II

5. Eidesstattliche Versicherung
Hiermit versichere ich, dass ich die vorliegende Studienarbeit selbstständig und ohne
unerlaubte Hilfe angefertigt und andere als die in der Studienarbeit angegebenen Hilfsmittel
nicht benutzt habe. Alle Stellen, die wörtlich oder sinngemäß aus anderen Schriften
entnommen sind, habe ich als solche kenntlich gemacht.

Seite
29