Sie sind auf Seite 1von 5

Institut fur¨

Statistik und

RWTH Aachen

Wirtschaftsmathematik

SS 2008

Prof. Dr. A. Steland Dipl.-Math. S. Teller

6. Oktober 2008

Basiswissen Statistik

Seite

¨

Anderung

 

11

ϕ i = h i

n

· 360 = 2πf i

 

25

die relativen H¨aufigkeiten f i

 

26

Sind y i = a · x i + b ,

i = 1,

, n,

so ist

y¯ = a · x¯ + b

28

i-ter Wachstumsfaktor

 

w 1 = 1

und

w i = x i /x i1 ,

i = 2,

, n,

i-te Wachstumsrate

 

r i = w i 1

 

x i = (1 + r i )x i1

 

33

Herleitung

erh¨alt man durch Summation

n

n

x

2 i x i=1 x i + nx) 2 .

 

i=1

35

Empirisches p-Quantil

36

mindestens 100 · p % mindestens 100 · (1 p) %

2) Fall np

:

x

p = x ( np +1)

 

39

1.6.10 Fur¨ die Ozondaten ergeben sich die folgenden Ausreißergrenzen:

Q 1 1.5 · (Q 3 Q 1 ) =

52 1.5 · 34

= 1

Q 3 + 1.5 · (Q 3 Q 1 ) = 86 + 1.5 · 34 = 137

 

Auff¨allige Beobachtungen sind somit nur 188.

 

n

51

   

P

i=1 (x i x¯)(y i y¯)

 

r xy = ··· =

s

 
 

n

n

 

i=1 (x i x¯) 2 i=1 (y i y¯) 2

P

P

 
 

n

52

cov(x, y) = s xy = 1

n

x i y i x¯ · y¯

 

i=1

Seite

¨

Anderung

57

58

95

98

100

106

107

107

108

108

113

117

Kleinste-Quadrate-Methode

b =

s xy

x =

s

2

n

P i=1 (x i x¯)(y i y¯)

n

P i=1 (x i x¯) 2

ˆ

Die Minimalstelle (ˆa, b) ist gegeben durch

Die gesch¨atzten Regressionskoeffizienten lauten somit:

b = P

i=1 y i x i n·x¯y¯

7

2

i=1 x i

n·x¯ 2

P

7

93.57·4·2.91 = 12.02

1407·(4) 2

28

0.4293 .

Kriterium fur¨

P (a < X b, c < Y

=

stetige Zufallsvariablen

b

d) =

a

d

f X (x) dx

c

a

d f X (x)f Y (y)dydx

c

b

f Y (y) dy

Dann liefert partielle Integration:

E(X) = x f (x) dx =

0

x e x dx = xe x |

0

+

0

e x dx = 1 .

Beispiel 2.6.3. Sei X f (x) mit f (x) = e x , x 0 und

2)

, so ist Y

P oi(r · λ 1 ) .

Stetige Gleichverteilung

Verteilungsfunktion: F (x) = xa , x [a, b],

Erwartungswert: E(X) = b+a

ba

2

.

Exponentialverteilung

F(t) = 1 e λt ,

t > 0 .

Somit besitzt X die Verteilungsfunktion

Y heißt exponentialverteilt mit Parameter λ. Notation: Y Exp(λ).

Erwartungswert:

E(X) =

1

λ ,

Varianz:

V ar(X) =

1

λ 2 .

Normalverteilung Die Normalverteilung ist gegeben durch die Dichtefunktion

ϕ (µ,σ 2 ) (x) =

1

2πσ 2

exp (xµ) 2

2σ 2

,

x ,

Stetiger Zufallsvektor, Dichtefunktion

P (X (a, b]) = · · · =

gilt:

b

n

b

1

f X (x 1 ,

, x n ) dx 1

···

a

n

a

1

dx n .

Gilt X f (x 1 ,

F(x 1 ,

,

x n ) =

, x n ), so erh¨alt man die zugeh¨orige Verteilungsfunktion durch

x

n

−∞

···

x

1

−∞

f(t 1 ,

,

t n )dt 1

dt n .

Bedingter Erwartungswert

E(X|Y = y) = xχ xp X|Y (x|y) .

von X gegeben Y = y gegeben durch

Seite

¨

Anderung

122

122

122

123

124

124

126

126

129

129

129

141

143

Beispiel 2.11.1. Fur¨

die n = 30 Leistungsmessungen

Somit berechnen sich die fur¨ lichkeiten durch:

P

a < X n b Φ n bµ

¯

a < X n ≤ b ≈ Φ √ n b − µ ¯ σ Anwendungen

σ

Anwendungen wichtigen Intervallwahrschein-

Φ n aµ

σ

.

Die obige einfache Formel gilt dann nicht exakt, sondern approximativ:

P

a < X n b = Φ n bµ Φ n aµ

¯

√ n b − µ − Φ √ n a − µ ¯ σ σ ZGWS

σ

n b − µ − Φ √ n a − µ ¯ σ σ ZGWS ersetzt,

σ

ZGWS

ersetzt, fur¨ die gilt

Diese Aussage bleibt richtig, wenn man σ durch eine Zufallsvariable s n

Beispiel

Mit Hilfe der Stetigkeitskorrektur erhalten wir die Approximation

P (Y 13.5) P (Z 13.5) = Φ(0.61) = 0.271 .

Eine exakte Rechnung ergibt: P (Y 13) = 0.267.

Fast sichere Konvergenz

(X n ) n konvergiert fast sicher gegen a, wenn

P(X n a) = P n X n = a = 1 .

lim

Multinomialkoeffizient Der Ausdruck

x 1 ···x k =

n

n! x 1 !·x 2 !·····x k ! .

Multivariate Normalverteilung

Die Dichte der N (µ, σ 2 )-Verteilung ist gegeben durch

ϕ (µ,σ 2 ) (x) =

2πσ 2 exp (xµ) 2

1

2σ 2

,

x .

Allgemein gilt:

g

(k)

X

(0) = p X (k)

k!

p X (k) = k! g

(k)

X

(0) .

Beispiel 2.13.1.

(2) Sei Y Bin(n, p). Dann folgt: g Y (t) = (1 p + pt) n .

erh¨alt man wegen g X (1) = E(X 2 X) = EX 2 EX

Beispiel 3.2.1.

Y sei binomialverteilt mit Parametern n= 3

.

der Parameterraum Θ = {

1

4 ,

1

2 } .

.

.

Beispiel

Dann ist f µ (x) =

2πσ 2 exp (xµ) 2

1

2σ 2

Seite

¨

Anderung

145

147

149

151

152

152

154

Es ergibt sich

λ =

Beispiel 3.2.7.

Zusatz: E µ = E .

x¯ 1 mit x¯ =

1 n i=1 n x i .

Damit erhalten wir:

E

n

i=1 (X i

X) 2 = n (σ 2 + µ 2 ) n σ 2

¯

n

+ µ 2 = (n 1)σ 2 .

Ist die Varianz σ 2 der Beobachtungen unbekannt, so ist es naheliegend, den

erwartungstreuen Sch¨atzer S 2 =

1

n1 i=1 n (X i

¯

X) 2 einzusetzen.

V ar(F ) =

2n 2 2 (n 1 +n 2 2) n 1 (n 2 1) 2 (n 2 4) .

Somit ist der Quotient F -verteilt:

·

Q 2 =

Somit ist

Q

1

S

2

1

S

2

2

σ

2

2

σ

2

1

F(n 1 1, n 2 1) .

¯

X t(n 1) 1α/2

S

n ,

¯

X + t(n 1) 1α/2

n

S

ein Konfidenzintervall zum Konfidenzniveau 1 α.

161

163

168

172

174

176

¯

Einseitiger Gaußtest (2)

T < z α

Au߬osen nach X liefert:

σ

n .

⇐⇒

¯

X

< µ 0 +z α

Beispiel 3.6.2. Wir wollen den t-Test auf die Daten aus Beispiel 3.6.1. anwenden.

Aufl¨osen nach µ = 155 und z 0.9 = 1.2816

V ar(D i ) = V ar(X 1 ) + V ar(Y 1 ) 2 · Cov(X 1 , Y 1 ) ,

fur¨

i = 1,

. , n

.

Beispiel

F (6, 5) 0.05 =

Da 0.544 [0.228, 4.950] wird H 0 beibehalten.

.Wir ben¨otigen die Quantile F (6, 5) 0.95 = 4.95 und

1

F (5,6) 0.95 =

1

4.389 = 0.228. Der Annahmebereich ist also [0.228, 4.950].

2-Stichproben t-Test

fur¨

n = n 1 + n 2

Seite

¨

Anderung

176

176

178

179

183

184

185

186

Beispiel 3.7.3 Die t-Teststatistik berechnet sich zu

T obs =

62.5(30.71)

q (

1 7 +

6 1 )

1500.787 = 4.3247

df =

 

S

2

S

2

«

2

 

1

1 +

2

n

n

2

S

2

« 2

 

1 +

1

S

2

« 2

 

1

2

1

n

1

n

1

n

2

n 2 1

Man verwendet daher die Summe der R¨ange der zweiten Stichprobe,

W =

n

j=1 R 2j ,

2

Wegen E H 0 (W) = n 1 n 2

2

.

.

.

gilt unter H 0 n¨aherungsweise

T =

Wn 1 n 2 /2

(n+1)/12 n N (0, 1) .

n 1 n 2

Die Kleinste-Quadrate-Methode liefert folgende Sch¨atzer: a = Y b · x¯ .

¯

Es gilt:

σ

2

a = P n

2

i=1 x i

n 2 s

2

x

2

σ

bzw.

2

i=1 x i

σ a = V ara) = P n

2

n 2 s

2

x

Hypothesentests Q = (n2)σb 2

σ

2

0

χ 2 (n 2) .

σ

2

Test der Regressionskoeffizienten

2)

H 0 : b b 0

gegen H 1 : b > b 0 . H 0 ablehnen, falls T b > t(n 2) 1α .

3)

H 0 : b b 0

gegen H 1 : b < b 0 . H 0 ablehnen, falls T b < t(n 2) 1α = t(n 2) α .

186

186

187

Test des Modellfehlers

3)

H 0 : σ 2 σ

2

0

gegen H 1 : σ 2 < σ

2

0

. H 0 ablehnen, falls Q < χ 2 (n 2) α .

Die gesch¨atzten Regressionskoeffizienten lauten somit:

1 = P

β

i=1 y i x i n·x¯y¯

7

2

i=1 x i

n·x¯ 2

P

7

β 0 = y¯ β 1 · x¯

= 93.57·4·2.91429 = 11.89988

1407·(4) 2

28

0.425 .