Sie sind auf Seite 1von 91
Dr. René M. Schröder, Michael Böttcher Formelsammlung der Wirtschaftswissenschaften STATISTIK 4., überarbeitete Auflage

Dr. René M. Schröder, Michael Böttcher

Formelsammlung der Wirtschaftswissenschaften

STATISTIK

4., überarbeitete Auflage

STUDIEREN ABER WO? Finde Deine zu Dir passende Hochschule! www.studyguide24.net
STUDIEREN
ABER WO?
Finde
Deine zu Dir
passende Hochschule!
www.studyguide24.net

Inhaltsverzeichnis

3

Inhaltsverzeichnis

1

Beschreibende Statistik

 

6

1.1 Merkmalstypen und Skalierungen

 

6

1.2 Empirische H¨aufigkeits- und Verteilungsfunktion

 

7

 

1.2.1 Diskrete Verteilung .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

1.2.2 Stetige Verteilung (klassifizierte Daten)

 

8

 

1.3 Maßzahlen empirischer Verteilungen

 

8

 

1.3.1

Lagemaße

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

8

1.3.2

Streuungsmaße

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

 

1.4 Zweidimensionale H¨aufigkeitsverteilung

 

12

 

1.4.1 H ¨augkeiten

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

1.4.2 Empirische Korrelation und Regression

 

13

2

Wirtschaftsstatistik

 

15

2.1 Indexzahlen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

15

 

2.1.1 Preis-, Mengen- und Wertindizes

 

15

2.1.2 Index-Anwendungen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

16

 

2.2 Konzentrations- und Disparit¨atsmessung

 

17

 

2.2.1 absolute Konzentration

 

18

2.2.2 Disparit ¨at (relative Konzentration)

 

18

 

2.3 Zeitreihenanalyse

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

20

 

2.3.1 Komponentenmodelle

 

20

2.3.2 Sch ¨atzung der Trendkomponente

 

21

2.3.3 Sch ¨atzung der Saisonkomponente

 

23

2.3.4 Exponentielles Gl ¨atten

 

24

3 Wahrscheinlichkeitsrechnung

 

25

 

3.1 Elemente der Mengenlehre

 

.

.

.

.

.

.

.

.

.

.

26

3.2 Wahrscheinlichkeiten

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

26

3.3 Kombinatorik

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

28

4 Zufallsvariable und theoretische Verteilungen

 

29

 

4.1

Zufallsvariable

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

 

4.1.1

Diskrete Zufallsvariable

 

29

4

Inhaltsverzeichnis

 

4.1.2

Stetige Zufallsvariable

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

30

 

4.2

Maßzahlen theoretischer Verteilungen

 

31

 

4.2.1

Erwartungswert

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

31

4.2.2

Varianz

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

32

 

4.3

Zweidimensionale Zufallsvariablen

 

34

5

Spezielle Verteilungsmodelle

 

37

5.1 Diskrete Verteilungen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

37

5.2 Stetige Verteilungen

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

5.3 Grenzwertsatz

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

45

5.4 Approximation von Verteilungen

.

.

.

.

.

.

.

.

.

.

.

.

.

.

46

6

Parametersch¨atzung

 

48

6.1 Einfache Zufallsstichprobe

 

48

6.2 Punktsch¨atzung

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

48

 

6.2.1 Sch ¨atzfunktion

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

48

6.2.2 Maximum-Likelihood-Sch ¨atzung

 

50

 

6.3 Konfidenzintervalle

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

51

 

6.3.1 Konfidenzintervall f ur¨ den Erwartungswert

 

51

6.3.2 Konfidenzintervall f ur¨ die Varianz

 

52

6.3.3 Konfidenzintervall f ur¨ den Anteilswert

 

.

.

.

.

.

.

.

52

6.3.4 Konfidenzintervall f ur¨ eine Anzahl

 

53

7

Statistische Hypothesentests

 

53

7.1 Einf uhrung¨

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

54

7.2 Tests fur¨ den Ein-Stichprobenfall

.

.

.

.

.

.

.

.

.

.

.

.

.

.

56

 

7.2.1 Test auf den Erwartungswert

 

56

7.2.2 Test auf den Anteilswert (Binomialtest)

 

57

7.2.3 Test auf die Varianz

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

58

7.2.4 Test auf ein/en Prozentpunkt/Quantil

 

58

7.2.5 Median- oder Vorzeichentest

 

59

7.2.6 Chi-Quadrat-Anpassungstest

 

.

.

.

.

.

.

.

.

.

.

.

.

60

 

7.3 Tests bei unabh ¨angigen Stichproben

.

.

.

.

.

.

.

.

.

.

.

.

61

 

7.3.1 Vergleich von zwei Erwartungswerten

 

61

7.3.2 Einfache Varianzanalyse

 

62

Inhaltsverzeichnis

5

7.3.3 Vergleich von zwei Anteilswerten

 

63

7.3.4 Vergleich von zwei Varianzen

 

63

7.4 Tests bei verbundenen Stichproben

 

64

7.4.1

Test auf gleiche Erwartungswerte

 

64

7.5 Zusammenhangsanalyse

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

65

7.5.1 Chi-Quadrat-Unabh¨angigkeitstest

 

65

7.5.2 Test auf den Korrelationskoeffizienten

 

67

7.6 Tests bei der linearen Einfachregression

 

68

7.6.1 Einfuhrung¨

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

68

7.6.2 Test auf die Konstante α

.

.

.

.

.

.

.

.

.

.

.

.

.

.

70

7.6.3 Test auf den Steigungskoeffizienten β

 

70

7.6.4 Test auf die Varianz

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

71

Wahrscheinlichkeitstabellen

 

72

Binomialverteilung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

72

Standardnormalverteilung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

78

t-Verteilung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

80

Chi-Quadrat-Verteilung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

81

Fisher(F)-Verteilung

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

82

Stichwortverzeichnis

 

85

Weitere Formelsammlungen erscheinen im:

Dies ist die Ausgabe 2013 der Statistik-Formelsammlung.

Die stets aktuellste Ausgabe finden Sie unter www.wiwi-online.de/fs

Schwerpunkt VWL

April 2013

(Semesteranfang)

Oktober 2013 (Semesteranfang)

lisierbar. Insofern bitten wir um Verst ¨andnis, falls die Symbole der Formelsammlung

nicht mit den Ihrigen identisch sind. Sollten Sie Fehler finden oder Erg ¨anzungsvor- schl ¨age haben, teilen Sie uns dieses bitte umgehend mit. Wir werden Ihre Hinwei-

se schnellstm ¨oglich mit einbinden. Eine aktuelle uberarbeitete¨ Fassung dieser For-

Eine aktuelle uberarbeitete¨ Fassung dieser For- Hinweis: Eine für alle Hochschulen einheitliche Symboli-

Hinweis: Eine für alle Hochschulen einheitliche Symboli-

sierung ist leider nicht realisierbar. Insofern bitten wir um

melsammlung finden Sie st ¨andig im Internet unter www.wiwi-online.de . Dort steht

Verständnis, falls die Symbole der Formelsammlung nicht

sie Ihnen zum kostenlosen Download bereit. Wir w unschen¨ Ihnen weiterhin viel Erfolg

mit den Ihrigen identisch sind. Sollten Sie Fehler finden

oder Ergänzungsvorschläge haben, teilen Sie uns dieses bitte umgehend mit. Wir werden Ihre Hinweise schnellstmöglich mit einbinden. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrem Studium!

6

1. Beschreibende Statistik

1 Beschreibende Statistik

Symbole:

im diskreten Fall:

x

i : diskreter Wert

(i = 1,

, k )

n

i : absolute H ¨augkeit von x

i ( i = 1,

,

k )

h

i : relative H ¨augkeit von x

i h i = n i /n

( i = 1,

,

k )

im stetigen Fall (klassifizierte Daten):

b i :

obere Klassengrenze von Klasse i ( i = 1,

, k )

M : Klassenmitte von Klasse i

x i

n i :

allgemein:

x

n

i :

:

( i = 1,

, k )

absolute H ¨augkeit der Werte in der Klasse ] a i ; b i ] ( i = 1,

Wert aus einer Datenliste

( i = 1,

, n )

Summe aller n i bzw. Anzahl der Werte in einer Datenliste

, k )

x

p : ( p · 100)-Prozentpunkt/ p -Quantil

x

min : minimaler Wert einer Datenliste

x

max : maximaler Wert einer Datenliste

f

( x ): H ¨augkeits- bzw. Dichtefunktion

F ( x ): Verteilungsfunktion

x : arithmetisches Mittel s xy : Kovarianz

s 2 :

s : Standardabweichung

r xy : Bestimmtheitsmaß

Varianz

a i :

untere Klassengrenze von Klasse i ( i = 1,

a i : untere Klassengrenze von Klasse i ( i = 1 , , k )

, k )

1.1 Merkmalstypen und Skalierungen

Diskretes Merkmal:

Ein Merkmal heißt diskret, wenn es endlich oder abz¨ahlbar unendlich viele Auspr ¨agungen besitzt.

Stetiges Merkmal:

Ein Merkmal heißt stetig, wenn alle Werte eines Intervalls m¨ogliche

Auspr ¨agungen sind. Das Merkmal besitzt also uberabz¨ viele verschiedene Auspr¨agungen.

¨ahlbar unendlich

1. Beschreibende Statistik

7

Merkmalstyp:

Verh¨altnisse:

Skalierung:

Beispiele:

qualitatives

Verschiedenheit x i 6= x j

Nominalskala

Geschlecht,

Merkmal

Telefonnummer

komparatives

Rangfolge x i < x j

Ordinalskala

Schulnoten,

Merkmal

IQ

quantitatives

Abst¨ande x i x j sinnvoll

Intervallskala

Geburtsjahr, Temp. in C

Merkmal

Verh¨altnisse x i : x j sinnvoll

Verh¨altnisskala

Preis,

Gewicht

1.2

Empirische H¨aufigkeits- und Verteilungsfunktion

1.2.1

Diskrete Verteilung

Empirische H¨aufigkeitsfunktion:

(auch Stabdiagramm-Funktion)

fur¨ x = x sonst

f ( x ) = (

n

i

n

0

i

( i = 1,

, k )

f (x ) ▲ 0,1 0,2 0,3 ► x * * * * * x
f (x )
0,1
0,2
0,3
► x
* *
* *
*
x 1
x 2
x 3
x 4
x 5

Empirische Verteilungsfunktion (kumulierte rel. H¨aufigkeit):

mit i = 1,

, k 1

8

> 0

>

>

<

>

>

>

i

P

n

j

F ( x ) ▲ 1 0,5 ► x * * * * * x
F ( x )
1
0,5
► x
*
*
*
* *
x 1
x 2
x 3
x 4
x 5

fur¨ x<x 1

fur¨ x x<x

F ( x ) =

:

j

=1

1

n

i

i

+1

fur¨ x x k

p-Quantil:

x p =min { x | F ( x ) p }

8

1. Beschreibende Statistik

1.2.2 Stetige Verteilung (klassifizierte Daten)

Es gibt k Klassen ] a i ; b i ] mit a i +1 = b i

Klassenbreite:

Empirische Dichtefunktion:

(auch Histogramm-Funktion)

x i = b i a i

f ( x ) = (

n

i

n

0

·

x i

fur¨ a i < x b i

sonst

( i = 1,

( i = 1,

,

,

k )

k )

f (x )

▲ b 4 b 5 b 2 b 3 0,2 b 1 0,1 ►x a
▲ b 4 b 5
b 2 b 3
0,2
b
1
0,1
►x
a 1
a
a 2
3 a 4 a 5

Empirische Verteilungsfunktion: ( i = 1,

F ( x ) =

8

> 0

fur¨ x a 1

fur¨ a i < x b i

<

F ( a i ) + x a i · n i

x i

n

> : fur¨ x>b k

1

,

k ) F ( x )

▲ 1 0,5 ►x a 1 a 2 a 3 a 4 a 5
1
0,5
►x
a 1 a 2 a 3 a 4 a 5

p-Quantil:

x p = a i + p F ( a i ) · x i

n

i

n

mit F ( a i ) < p F ( b i )

1.3

Maßzahlen empirischer Verteilungen

1.3.1

Lagemaße

Arithmetisches Mittel :

bei Rohdaten:

x = 1

n

bei diskreten Daten:

1

x =

n

bei klassifizierten Daten:

x 1

n

n

P i =1 x i

k

P

i

k

P

i =1

=1

x

x

i

· n i =

M

i

· n i

Harmonisches Mittel:

x harm =

n

P 1

x

n

i

=1

i

k

P

i

=1

n

i

n x

i

mit x

M

i

= ( a i + b i ) / 2

1. Beschreibende Statistik

9

Geometrisches Mittel : x geom =

s

n

n

Q

i

=1

x i

x i > 0

Modus (Modalwert):

x h

wobei f ( x h ) f ( x ) f ur¨ alle x 2 R

Median (Zentralwert, 50%-Punkt, 0,5-Quantil):

bei geordneten Daten x 1 x 2

x n 1 x n :

x˜ = ( x n +1

1

2

2

f ur¨ n ungerade

2 ( x n + x n +1 ) f ur¨ n gerade

2

bei diskreten und klassifizierten Daten:

x˜ = x 0 , 5

mit F ( x 0 , 5 )=0, 5

1.3.2 Streuungsmaße

Empirische Varianz:

bei Rohdaten:

s 2 = 1 =1 ( x i x ) 2 = 1

n

n

n

P

i

n

P

i

=1

x

2

i

x 2

k

k

P

bei diskreten Daten:

s 2 = 1 =1 n i ( x x ) 2 = 1

n

n

P

i

n i x 2 x 2

i

M

i

i

=1

k

i M n i x 2 x 2

i

k

bei klassifizierten Daten: s 2 1 =1 n i ( x

n

P

i

x ) 2 = 1

n

i

P

=1

mit x

M i = ( a i + b i ) / 2

Verschiebungssatz:

s 2 = 1 =1 ( x i x ) 2 = 1 =1 ( x i c ) 2 ( x c ) 2

n

n

n

n

P

i

P

i

fur¨ jedes c 2 R

s 2 = 1 =1 n i ( x x ) 2 = 1 =1 n i ( x c ) 2 ( x c ) 2

n

k

k

n

P

i

i

P

i

i

f ur¨ jedes c 2 R

10

1. Beschreibende Statistik

Streuungszerlegungssatz:

Bei Einteilung der Daten in k Gruppen mit jeweils n i Beobachtungen

gilt:

s

2

gesamt = s intern + s extern

2

2

s

2 gesamt = 1

n

k

P P

i =1 j

n i

=1 ( x ij x gesamt ) 2

s

2 intern = 1

n

k

P

i =1

n i s

2

i

s

2

extern = 1

=1 ( x i x gesamt ) 2 · n i = 1

n

P

i

n

k

k

P

i

=1

n i x x 2

2

i

gesamt

mit

s

2

i

= 1 =1 ( x ij x i ) 2

n

i

n

i

P

j

(Varianz von Gruppe i )

x i = 1

n

i

n i

P =1 x ij

j

(Arithmetisches Mittel von Gruppe i )

k

P

n = =1 n i

i

(Gesamtstichprobenumfang)

Empirische Standardabweichung:

s = p s 2

Empirischer Variationskoe zient:

v = s

x

Mittlere absolute Abweichung (MAD):

bei Rohdaten:

bei diskreten Werten:

Empirische Spannweite:

Emp. Interquartilsabstand:

1 d = P =1 | x i x | n n i P k
1
d =
P
=1 | x i x |
n
n i
P
k
d = 1 =1 n i | x
⇤ i x |
n
i

Spannweite = x max x min

Q = x 0 , 75 x 0 , 25

12

1. Beschreibende Statistik

1.4 Zweidimensionale H¨aufigkeitsverteilung

Beobachtungswerte/Datenpaare: ( x i , y i ) ( i = 1,

, n )

m¨ogliche Merkmalsauspr ¨agungen: ( x l , y m ) ( l =

1,

, p ) ( m = 1,

,

q )

1.4.1 H¨aufigkeiten

absolute H¨aufigkeiten: n lm

( l =

1,

, p ) ( m = 1,

,

q )

relative H¨aufigkeiten: h lm = n lm

( l = 1,

,

p ) ( m = 1,

,

q )

n

absolute Randh¨aufigkeiten:

q

des Merkmals X :

des Merkmals Y :

n l =

P

m

=1 n lm

p

P

n m = =1 n lm

l

relative Randh¨aufigkeiten:

des Merkmals X :

des Merkmals Y :

h l =

q

P

m

=1

p

P

h m =

l

=1

h lm = n l

n

h lm = n m

n

( l = 1,

( m = 1,

( l = 1,

( m = 1,

,

,

p )

,

q )

p )

,

q )

bedingte H¨aufigkeiten:

des Merkmals X

des Merkmals Y

h l ( m ) = n lm

m

n

h ( l ) m = n lm

n

l

= p )

h

m

( l = 1,

,

h

lm

=

h

lm

h

l

( m = 1,

, q )

Unabh¨angigkeit der Merkmale X und Y:

h lm = h l · h m bzw. n lm = n l · n m

muss f ur¨ alle l und m gelten

n

1. Beschreibende Statistik

13

1.4.2 Empirische Korrelation und Regression

Empirische Kovarianz:

s xy = s yx = 1

i

n

Es gilt:

xy

xy

P

n

> 0

s s xy = 0

< 0

s

=1 ( x i x )( y i y ) = 1

n

n

P

x i y i x · y

i

=1

! positive Korrelation ! negative Korrelation ! keine Korrelation

Emp. Korrelationskoe zient nach Bravais/Pearson:

r xy = r yx =

s xy

s x · s y

dabei gilt:

1 r xy 1

Unabh¨angigkeit der Merkmale X und Y:

X und Y unabh ¨angig verteilt ) s xy = r xy = 0

Rangkorrelationskoe zient nach Spearman:

Es existieren n Datenpaare: ( x 1 , y 1 ) ,

, ( x n , y n )

R ( x i ):

Rang von x i (kleinster Wert erh¨alt Rang 1 usw.)

R ( y i ):

Rang von y i (kleinster Wert erh¨alt Rang 1 usw.)

Sofern es keine Bindungen (gleiche Werte) gibt, gilt:

r Sp = 1

n

6 · =1 ( R ( x i ) R ( y i )) 2

P

i

n ( n 2 1)

Es gilt:

1 r Sp 1

14

1. Beschreibende Statistik

Empirische lineare Regression:

Es existieren n Beobachtungswerte/Datenpaare: ( x 1 , y 1 ) ,

Regressionsmodell: y i = a + bx