Sie sind auf Seite 1von 21

Einf uhrung in die Mathematische Statistik

Haus ubung 1, Losungsvorschlag


H1
(i) (A B) (A B
c
) = A (B B
c
) = A
(ii)
(A B) (A B)
c
= (A B) (A
c
B
c
)
= ((A B) A
c
) ((A B) B
c
)
= ((A A
c
) (B A
c
)) ((A B
c
) (B B
c
))
= (B A
c
) (A B
c
)
(A B
c
) (A
c
B) bedeutet nur aus A oder nur aus B. (XOR)
H2
=
_
(a, b, c) | a, b, c {1, . . . , 6}
_
A = P()
P = Gleichverteilung
A =
_
(a, b, c) | a = b
_
P(A) =
|A|
||
=
6
2
6
3
=
1
6
B =
_
(a, b, c) | b + c {3, 6, 9, 12}
_
P(B) =
|B|
||
=
662
6
3
=
1
3
C =
_
(a, b, c) | a = c
_
P(C) =
|C|
||
=
665
6
3
=
5
6
H3
Sei =
_
(
1
, . . . ,
n
) |
i
{0, 1}
_
wobei
i
die i-te Komponente und 0 den
Zustand defekt beschreibt.
A
i
=
_
|
i
= 1
_
B =
_
| i {1, . . . , n} :
i
= 1
_
C =
_
| i {1, . . . , n} :
i
= 1
_
D =
_

i=1

i
= 1
_
E =
_
| i {1, . . . , n} :
i
= 0
_
alternativ:
B =
n

i=1
A
i
D =
n

i=1
_
A
i
\
_

j=i
A
j
__
1
H4
Sei A eine -Algebra. Man wahlt die Familie (B
i
)
iI
von Ereignissen B
i
A so, dass
die B
i
eine Partition von bilden mit B
i
minimal i, d.h. Z B
i
gilt Z / A. Die
so gewahlte Familie (B
i
)
iI
erf ullt (i)-(iii). Beweis:
(i),(ii) folgt direkt nach der Denition einer Partition.
(iii) Annahme: Es existiert keine Menge J I mit A =

jJ
B
j
(A A).
ex. Z := A \

jJ
B
j
mit Z = und Z A
Es gilt aber Z B
i
, da die B
i
eine Partition bilden. Widerspruch zu B
i
minimal. Also gilt: A =

jJ
B
j
und somit (iii).
2
Einf uhrung in die Mathematische Statistik
Haus ubung 2, Losungsvorschlag
H5
(i)
P ((A \ C) B) = P ((A B) \ (C B))
= P(A B) P(C B)
= P(A) P(B) P(C) P(B)
= P(B) (P(A) P(C))
= P(B) P(A \ C)
(ii) Sei A Nullmenge.
0 = P(A) P(A B) 0 P(A) = 0 = P(A B)
P(A
c
B) = P (( \ A) B)
Da A und, A und B, sowie und B unabhangig sind, folgt aus Aufga-
benteil (i), dass auch A
c
und B unabhangig sind.
(iii) Es gilt P(A
i
A
j
) = 0 f ur i = j P(A
i
A
j
) = P(A
i
) +P(A
j
) f ur i = j
P((

nN
A
n
) B) = P(

nN
(A
n
B)) =

nN
P(A
n
B)
=

nN
(P(A
n
) P(B))
= (

nN
P(A
n
)) P(B)
= P(

nN
A
n
) P(B)
H6
Relative Haugkeiten sind Abbildungen h nach [0; 1], wobei h() = 1 gilt. Die
Additivitat von paarweise disjunkten Mengen wird auch erf ullt.
H7
(i) Die Aussage ist richtig.
x
1
: f(x)

iN
B
i
x
1
: i N : f(x) B
i
.
(ii) Die Aussage ist richtig.
x
1
: f(x)

iN
B
i
x
1
: i N : f(x) B
i
.
(iii) Die Aussage ist richtig.
f(x)
2
: x

iN
A
i
f(x)
2
: i N : x A
i
.
(iv) Die Aussage ist falsch.
Angenommen A
i
konvergiert nicht

A
i
= .
{f(
1
)
2
:
1

A
i
} = .
Allerdings kann es Elemente geben, die in

{f(
1
) :
1
A
i
} enthalten sind:
z.B. f(
1
) = c konstant

{f(
1
) :
1
A
i
} = c
1
H8
(i)
{Y
i
b} =

falls b < 0
{X
i
M
c
i
} falls 0 b < 1
sonst
Da alle X
i
Zufallsvariablen sind, sind die Y
i
ebenfalls welche.
(ii) Da der erste und letzte Fall bei der Schnittbildung uninteressant sind, betrach-
ten wir nur den zweiten Fall y
i
[0; 1):
P

iI
{Y
i
y
i
}

= P

iI
{X
i
M
c
i
}

iI
P ({X
i
M
i
})
2
Einf uhrung in die Mathematische Statistik
Haus ubung 3, Losungsvorschlag
H9
lim
n
P({X
n
= l}) = lim
n
_
n
0
l
_

_
nn
0
kl
_
_
n
k
_
= lim
n
n
0
!
l! (n
0
l)!

(n n
0
)!
(n n
0
k + l)! (k l)!

k! (n k)!
n!
= lim
n
k!
l! (k l)!

n
0
!
(n
0
l)!

(n n
0
)!
(n n
0
k + l)!

(n k)!
n!
=
_
k
l
_
lim
n
n
0
. . . (n
0
l + 1) (n n
0
) . . . (n n
0
k + l + 1)
n . . . (n k + 1)
=
_
k
l
_
lim
n
n
0
. . . (n
0
l + 1)
n . . . (n l + 1)

(n n
0
) . . . (n n
0
k + l + 1)
(n l) . . . (n k + 1)
=
_
k
l
_
lim
n
n
0
n
. . .
n
0
l + 1
n l + 1

_
n
n l

n
0
n l
_
. . .
_
n k + l + 1
n k + 1

n
0
n k + 1
_
=
_
k
l
_
p
l
(1 p)
kl
H10
(a)
Hase gewinnt Igel gewinnt
Igel genannt Hase genannt Igel genannt Hase genannt
70% 30%
80% 20% 10% 90%
(b) P({Hase wird genannt}) = 0, 3 0, 8 + 0, 7 0, 1 = 0, 31
(c) P({Igel gewinnt} | {Hase wird genannt}) =
0,70,1
0,30,8+0,70,1
=
7
31
0, 2258
H11
(i) Zahle Anzahl der roten Kugeln.
= {(x
1
, x
2
) |x
1
, x
2
{0, 1, 2}}
1
(ii)
A = {(x
1
, x
2
) |x
1
= 1}
P(A) =
7
20

6
19
=
21
190
B = {(x
1
, x
2
) | x
1
+ x
2
{0, 2, 4}}
= {(0, 0), (1, 1), (0, 2), (2, 0), (2, 2)}
P ({(0, )}) = P ({(, 0)}) =
13
20

12
19
=
39
95
P ({(2, )}) = P ({(, 2)}) =
7
20

6
19
=
21
190
P ({(1, )}) = P ({(, 1)}) =
91
190
P(B) = P ({(0, 0)}) + P ({(1, 1)}) + P ({(2, 2)}) + P ({(2, 0), (0, 2)})
=
9041
18050
= 50, 0886%
H12
(i) Richtig, Beweis:
Es gilt P(A
c
i
) = 1 P(A
i
) = 0 und P(

i=1
A
c
i
)

i=1
P(A
c
i
).
P(

i=1
A
i
) = P((

_
i=1
A
c
i
)
c
) = 1 P(

_
i=1
A
c
i
) 1

i=1
P(A
c
i
) = 1 0 = 1
(ii) Falsch, Gegenbeispiel.:
Seien A
i
, A
j
i = j disjunkte Mengen aus der Folge in A mit P(A
i
) > 0 und
P(A
j
) > 0. Dann gilt:
P(A
i
A
j
) = 0 = P(A
i
) P(A
j
) > 0
(iii) Falsch, Gegenbeispiel.:
2-maliger M unzwurf: = {(x
1
, x
2
) | x
i
{0, 1}}
Seien X, Y Zufallsvariablen mit X der 1. Wurf und Y der 2. Wurf. Dann ist
X, Y iid. Es gilt aber:
P({X = Y }) = P((0, 0), (1, 1)) =
1
2
= 0
(iv) A = P(R)
Dann gilt: |{ R|P() > 0}| ist hochstens abzahlbar.
Sei R, > 0. |{|P() > }| < .
Sei n nun nicht endlich. Seien (
i
)
iN
mit
i
=
j
wenn j = j.
P({
i
}) =

i=1

i
>

i=1
> 1. Widerspruch.
lim
n
|{|P() > 1/n}| ist hochstens abzahlbar.
|{|P() > 0}| ist hochstens abzahlbar.
2
Einf uhrung in die Mathematische Statistik
Haus ubung 4, Losungsvorschlag
H13
(i) (ii)
P({X > n +k})
(i)
=

j>n+k
p (1 p)
j1
= (1 p)
n

j>k
p (1 p)
j1
= (1 p)
n
P({X > k})
P({X > n}) = (1 p)
n
P(X > 0) = (1 p)
n
P({X > n +k}|{X > n}) =
P({X > n +k} {X > n})
P({X > n})
=
P({X > n +k})
P({X > n})
=
(1 p)
n
P({X > k})
(1 p)
n
= P({X > k})
(ii) (i) F ur alle k N gilt:
P({X > k + 1}) = P({X > k + 1}|{X > 1}) P({X > 1})
(ii)
= P({X > k}) P({X > 1})
Es folgt induktiv: P({X > k}) = (P({X > 1}))
k
.
Sei p := P({X = 1}) mit p (0, 1):
P({X = k}) = P({X > k 1}) P({X > k})
= (P({X > 1}))
k1
(P({X > 1}))
k
= (P({X > 1}))
k1
(1 P({X > 1}))
= (1 P({X = 1}))
k1
P({X = 1})
= (1 p)
k1
p
Also ist X geometrisch verteilt.
H14
P ({X +Y = k})
= P ({ |l Z : {X = l} {Y = k l}})
= P
_
_
lZ
{ | {X = l} {Y = k l}}
_
=

lZ
P ({X = l} {Y = k l})
=

lZ
P ({X = l}) P ({Y = k l})
1
k {0, . . . , n +m}
P ({X +Y = k}) =
k

l=0
P ({X = l}) P ({Y = k l})
=
k

l=0
_
n
l
_
p
l
(1 p)
nl

_
m
k l
_
p
kl
(1 p)
m(kl)
=
k

l=0
p
k
(1 p)
(n+m)k

_
n
l
_
_
m
k l
_
= p
k
(1 p)
(n+m)k

l=0
_
n
l
_
_
m
k l
_
= p
k
(1 p)
(n+m)k
_
n+m
k
_
.
(X +Y ) B(n +m, p).
P ({X +Y = k}) =
k

l=0
P ({X = l}) P ({Y = k l})
=
k

l=0
e

l
e!
e


kl
(k l)!
= e
(+)

l=0

kl
l!(k l)!
= e
(+)

l=0

kl
k!
l!(k l)! k!
= e
(+)

l=0
_
k
l
_

l

kl

1
k!
= e
(+)
( +)
k

1
k!
.
(X +Y ) P( +).
H15
F
aX+b
(x) = P({aX+b x}) = P({aX xb})
a>0
= P({X
x b
a
}) = F
X
(
x b
a
)
H16
(i) P({X = 227}) =
_
227
227
_
0, 98
227
0, 02
0
0, 010
P({X = 226}) =
_
227
226
_
0, 98
226
0, 02
1
0, 047
P({X = 225}) =
_
227
225
_
0, 98
225
0, 02
2
0, 109
P({X 224}) = 1 P({X = 227}) P({X = 226}) P({X = 225})
1 0, 010 0, 047 0, 109 = 0, 834
(ii) = 227 0, 02 = 4, 54
P({X = 227}) =
4,54
0
0!
e
4,54
0, 011
P({X = 226}) =
4,54
1
1!
e
4,54
0, 048
P({X = 225}) =
4,54
2
2!
e
4,54
0, 110
P({X 224}) = 1 P({X = 227}) P({X = 226}) P({X = 225})
1 0, 011 0, 048 0, 110 = 0, 831
2
Einf uhrung in die Mathematische Statistik
Haus ubung 5, Losungsvorschlag
H17
P ({X {0, 1, 2, 3, 4, 5}}) = c (8 + 7 + 6 + 5 + 4 + 3) = 33c
Geht man davon aus, dass f ur alle anderen x P(x) = 0 gilt, so ist c =
1
33
.
F ur die Verteilungsfunktion gilt f ur x = 0, 1, . . . , 5:
F
X
(x) = P({X x}) =
1
33

x

i=0
8 i = (x + 1)
8+(8x)
66
= (x + 1)
8x
33
P(X > 2) = 1 F
X
(2) = 1
21
33
=
4
11
H18
Der Gewinn betragt nur dan mindestens 40 Euro, wenn der Spieler entweder 3 mal
die 3 oder 2 mal die 3 und einmal die 1 zieht.
P ({Gewinn 40})
= P({X = 3})
3
+

3
1

P({X = 3})
2
P({X = 1})
=
1875
10
6
0, 2%
H19
P({Y
1
= 1}) = P({Y
1
= 1}) = 0.5
S
1
= Y
1
= y
1
S
2
= y
1
+Y
2
S
i
= y
i1
+Y
i
= y
i
Y
i
= y
i
y
i1
P({S
t+1
=x}
t

i=1
{S
i
=y
i
})
P(
t

i=1
{S
i
=y
i
})
=
P({Y
t+1
=xy
t
})
t

i=1
P({Y
i
=y
i
y
i1
})
t

i=1
P({Y
i
=y
i
y
i1
})
= P({Y
t+1
= x y
t
})
P({S
t+1
= x} | {S
t
= y
t
}) = P({S
t
+Y
t+1
= x})
= P({y
t
+Y
t+1
= x}) = P({Y
t+1
= x y
t
})
P({Y
t+1
= x y
t
}) =

1
2
falls x y
t
= 1
1
2
falls x y
t
= 1
0 sonst
Somit ist die Gedachnislosigkeit gezeigt.
H20
(i) Erzeuge eine Zufallsvariable, die nach Exp(3) verteilt ist: ZV Exp(3).
(ii) Bilde die Summe.
(iii) Teste, ob die Summe echt kleiner 1 ist, wenn ja sezte k = k +1 und springe zu
i)
Wenn nicht, dann verlasse die Schleife.
(iv) Bestimme die relativen Haugkeiten der ks.
Es zeigt sich, dass N P(3) also der Poissonverteilung entspricht.
1
Jeweils 100 - 100000 Zufallsexperimente.
2
Einf uhrung in die Mathematische Statistik
Haus ubung 6, Losungsvorschlag
H21
(i)
P({X > x + t} | {X > t}) =
P({X > x + t} {X > t})
P({X > t})
=
P({X > x + t})
P({X > t})
=
1
_
x+t
0
e
s
ds
1
_
t
0
e
s
ds
=
1
_
e
s

x+t
0
1 [e
s
]
t
0
=
e
(x+t)
e
t
=
e
t
e
x
e
t
=
1
e
x
= 1 e
x
1
= 1
_
e
x

x
0
= 1
_
x
0
e
s
ds = P({X > x})
(ii) Besitze F
X
die Gedachtnislosigkeit.
Dann gilt f ur G(x) = 1 F
X
(x): G(x) = G(1)
x
f ur alle x R
ln(G(x)) = ln(G(1)
x
) = x ln(G(1))
G(x) = e
xln(G(1))
Da G(1) [0, 1] ist ln(G(1)) 0 und damit = ln(G(1)) 0
G(x) = e
x
und somit F
X
exponentialverteilt.
H22
(i) Sei Y = max{X, 0}. Dann gilt f ur x 0
F
Y
(x) = P({max{X, 0} x}) = P({X x}) = F
X
(x)
und f ur x < 0
F
Y
(x) = P({max{X, 0} x}) = 0
F
Y
(x) =
_
F
X
(x) falls x 0
0 falls x < 0
(ii) F ur 0 x 1 gilt:
F
y
(x) = P({F
x
(X) x})
= P({X F
1
x
(x)})
= F(F
1
(x)) = x.
Stichwort Stetigkeit.
H23
Fall 1: h monoton wachsend
F
Y
(y) = P(Y y) = P(h(X) y) = P(X h
1
(y)) = F
X
(h
1
(y))
f
Y
(y) = F

Y
(y) = F
X
(h
1
(y))

= f
X
(h
1
(y))((h
1
)

(y))
= f
X
(h
1
(y))|(h
1
)

(y)|
da (h
1
)

(y) > 0 f ur h monoton wachsend.


1
Fall 2: h monoton fallend
F
Y
(y) = P(Y y) = P(h(X) y) = P(X h
1
(y)) = 1 F
X
(h
1
(y))
f
Y
(y) = F

Y
(y) = (1 F
X
(h
1
(y)))

= f
X
(h
1
(y))((h
1
)

(y))
= f
X
(h
1
(y))|(h
1
)

(y)|
da (h
1
)

(y) < 0 f ur h monoton fallend.


Y besitzt die Dichte f
Y
(y) = f
X
(h
1
(y))|(h
1
)

(y)| und ist damit absolutstetig.


H24 Sei u (0, 1]
P({Y
1
[u, u]}) = P({

X
1
_
X
2
1
+ X
2
2
+ X
2
3

u})
= P({X
2
1
u
2
(X
2
1
+ X
2
2
+ X
2
3
)})
= P({
1 u
2
u
2
X
2
1
X
2
2
+ X
2
3
})
= P({X
2
2
+ X
2
3
1 X
2
1
}).
Mit z
2
u
2
, wobei z [u, u] ist, erhalt man folgende Menge:
H(u, z) = {(x
2
, x
3
) [1, 1]
2
:
1 u
2
u
2
z
2
. .
r
x
2
2
+ x
2
3
1 z
2
. .
R
}
Dies ist ein Kreisring, mit Aussenradius

1 z
2
und Innenradius
_
1u
2
u
2
z
2
.
Wir bestimmen nun das Mass der Menge H:
(H) = (1 z
2

1 u
2
u
2
z
2
)
= (1
z
2
u
2
).
Gesucht ist
P({X
2
1
u
2
(X
2
1
+X
2
2
+X
2
3
)}) = P({
1 u
2
u
2
X
2
1
X
2
2
+X
2
3
1X
2
1
}{X
2
1
u
2
})
1
4/3
_
u
u
_
R
2
1
H(u,z)
(x
2
, x
3
)dx
2
dx
3
. .
(H)
dx
1
=
1
4/3
_
u
u
(1
x
2
1
u
2
)dx
1
=
3
4
_
x
1

1
3
x
3
1
u
2
_
u
u
= u.
Also ergibt sich P({Y [u, u]}) = u und damit ist gezeigt, dass Y
1
gleichverteilt
ist.
2
Einf uhrung in die Mathematische Statistik
Haus ubung 7, Losungsvorschlag
H25
a)
h(t) = lim
h0
P(X t + h|X > t)
h
=
f(t)
1 F(t)
1 F(t) = exp
_

_
t
0
h(s)ds
_
Durch Ableiten erhalt man:
0 f(t) = exp
_

_
t
0
h(s)ds
_
. .
=1F(t)
h(t)
h(t) =
f(t)
1F(t)
b) Nach G13 gilt F
X
(t) = 1
n

i=1
1 F
X
i
(t)
h(t) =
f
X
(t)
1 F
X
(t)
=
n

i=1
f
X
i
(t)

j=i
1 F
X
j
(t)
n

j=1
1 F
X
j
(t)
=
n

i=1
f
X
i
(t)

j=i
1 F
X
j
(t)
n

j=1
1 F
X
j
(t)
=
n

i=1
f
X
i
(t)
1 F
X
i
(t)
=
n

i=1
h
i
(t)
c) Es gilt: f
i
(t) = b t
b1
exp(t
b
) mit t 0
F
i
(t) =
_
t
0
f
i
(s)ds =
_
t
0
b s
b1
exp(s
b
)ds = 1 exp(t
b
)
h
i
(t) =
b t
b1
exp(t)
1 exp(t
b
)
= b t
b1
h(t) = h
1
(t) + . . . + h
n
(t) = n b t
b1
H26
Annahme: X, Y seien unabhangig und die relativen Haugkeiten sind Naherungen
f ur die Wahrscheinlichkeiten. Dann ergeben sich folgende Gleichungen:
4/1000 P(X = 1, Y = 2) = P(X = 1) P(Y = 2)
167/1000 P(X = 1, Y = 4) = P(X = 1) P(Y = 4)
1
123/1000 P(X = 3, Y = 2) = P(X = 3) P(Y = 2)
241/1000 P(X = 3, Y = 4) = P(X = 3) P(Y = 4)
311/1000 P(X = 5, Y = 2) = P(X = 5) P(Y = 2)
154/1000 P(X = 5, Y = 4) = P(X = 5) P(Y = 4)
Dividiert man die 1. durch die 2., die 3. durch die 4. und die 5. durch die 6., so
erhalt man:
P(Y = 2)
P(Y = 4)
0, 02
P(Y = 2)
P(Y = 4)
0, 51
P(Y = 2)
P(Y = 4)
2
Dies legt nahe, dass die Annahme X, Y seien unabhangig falsch ist.
H27
F
S
(s) =
_
s

f
s
(x, y)d =
_
{x+ys}
f
s
(x, y)d =
_

_
sy

f
X
1
(x)f
X
2
(y)dxdy
Die Substitution x = u y und y = v liefert:
_

_
s

f
X
1
(u v)f
X
2
(v)dudv =
_
s

f
X
1
(u v)f
X
2
(v)dvdu
H28 Sei D die beschriebene Flache. Dann gilt:
_
D
c dydx =
_
2
0
_
x/2
0
c dydx = c = 1
f
X
(x) =
_
x/2
0
c dy =
x
2
f
Y
(y) =
_
2
2y
c dx = 2 2y
E(X) =
_
2
0
x f
X
dx =
4
3
E(Y ) =
_
1
0
y f
Y
dy =
1
3
Also kann man die Position (4/3, 1/3) f ur den Maulwurfsh ugel erwarten.
2
Einf uhrung in die Mathematische Statistik
Haus ubung 8, Losungsvorschlag
H29
(i) Geometrische Verteilung G(p), p (0, 1):
E(X) = p

k=1
k(1 p)
k1
= p
d
d(1 p)

k=1
(1 p)
k
= p
d
dp
_

k=0
(1 p)
k
1
_
= p
d
dp
_
1
p
1
_
=
1
p
E(X
2
) = p

k=1
k
2
(1 p)
k1
= p

k=1
k(k + 1)(1 p)
k1
p

k=1
k(1 p)
k1
= p
d
2
dp
2

k=1
(1 p)
k+1
+ p
d
dp

k=1
(1 p)
k
= p
d
2
dp
2
_

k=0
(1 p)
k
(1 p) 1
_

1
p
= p
d
2
dp
2
_
1
p
+ p 2
_

1
p
= p
2
p
3

1
p
=
2 p
p
2
V ar(X) = E(X
2
) (E(X))
2
=
2 p
p
2

1
p
2
=
1 p
p
2
(ii) Poissonverteilung P(), > 0:
E(X) =

k=0
ke

k
k!
= e

k=1

k1
(k 1)!
= e

k=0

k
k!
= e

=
E(X
2
) =

k=1
k
2
e

k
k!
= e

k=1
k

k1
(k 1)!
= e

k=0
(k + 1)

k
k!
= e

k=0
k

k
k!
+

k=0

k
k!
_
= e

k=0

k1
(k 1)!
+ e

= e

2
e

+ =
2
+
V ar(X) = E(X
2
) (E(X))
2
=
2
+
2
=
1
(iii) Normalverteilung N(,
2
), > 0:
E(X) =
_
R
x

2
e

(x)
2
2
2
dx =
_
R
x +

2
e

x
2
2
2
dx
=
_
R
x

2
e

x
2
2
2
dx +
_
R
1

2
e

x
2
2
2
dx = 0 + 1 =
E(X
2
) =
_
R
x
2

2
e

(x)
2
2
2
dx =
_
R
(x )
2

2
e

(x
2
2
2
dx
=
1

2
_
R
x
2
e

x
2
2
2
dx 2
_
R
x

2
e

x
2
2
2
dx +
2
_
R
1

2
e

x
2
2
2
dx
=
2

2
_

0
x
2
e

x
2
2
2
dx 2 0 +
2
Hinweis
=
2

2)
3

4
+
2
=
2
+
2
V ar(X) = E(X
2
) (E(X))
2
=
2
+
2

2
=
2
H30
(i) Sei X
i
die Anzahl W urfe bis das i. verschiedene Wurfergebnis erscheint und
Y
i
= X
i
X
i1
.
X
i
= Y
i
+ X
i1
= Y
i
+ Y
i1
+ X
i2
= . . . =
i

j=2
Y
j
E(X
6
) = E(Y
2
) + E(Y
3
) + E(Y
4
) + E(Y
5
) + E(Y
6
)
Da die Y
i
gleichverteilt mit P(Y
6
) =
_
5
6
_
k1

1
6
folgt:
Y
6
: p =
1
6
, Y
5
: p =
2
6
, Y
4
: p =
3
6
, Y
3
: p =
4
6
, Y
2
: p =
5
6
.
E(X
6
) =
6
5
+
6
4
+
6
3
+
6
2
=
77
10
7, 7
(ii) Y
3
= X
3
X
2
G(
2
3
)
V ar(Y
3
) =
(1
2
3
)
_
2
3
_
2
=
3
4
H31
(i)

n=1
P({X n}) =

n=1

j=n
P({X = j}) =

n=1
n

k=1
P({X = n})
=

n=1
nP({X = n}) = E(X)
2

n=1
(2n 1)P({X n}) =

n=1
(2n 1)

j=n
P({X = j})
=

n=1
n

k=1
(2k 1)P({X = n})
=

n=1
n
2
P({X = n}) = E(X
2
)
(ii)
1
n
=
E(1)
n
=
1
n
E
_
_
_
_
n

i=1
X
i
n

j=1
X
j
_
_
_
_
=
1
n
n

i=1
E
_
_
_
_
X
i
n

j=1
X
j
_
_
_
_
=
1
n
n

i=1
E
_
_
_
_
X
1
n

j=1
X
j
_
_
_
_
= E
_
_
_
_
X
1
n

j=1
X
j
_
_
_
_
H32
(i) Sei C die konstante ZV mit P({C = c}) = 1.
So ist S = min{X, C} und somit
F
S
(s) = P({S s}) = P({min{X, C} s}) = 1 (1 F
X
(s)) (1 F
C
(s))
(ii) Y = 35S 10c
E
c
(Y ) = 35E
c
(S) 10c = 35
_
c1

n=0
nP({S = n}) +
4

n=c
cP({S = n})
_
10c
c P({S = 0}) P({S = 1}) P({S = 2}) P({S = 3}) P({S = 4}) E
c
(Y )
0 1 0
1 0, 1 0, 9 21, 5
2 0, 1 0, 3 0, 6 32, 5
3 0, 1 0, 3 0, 3 0, 3 33
4 0, 1 0, 3 0, 3 0, 2 0, 1 27, 5
Am besten bestellt Herr Apfel 3 Softwarepakete.
3
Einf uhrung in die Mathematische Statistik
Haus ubung 9, Losungsvorschlag
H33 Zu zeigen ist ein Sonderfall der Cauchy-Schwarzschen Ungleichung. Wir betrachten
die Zufallsvariable (X aY )
2
, die nur Werte grossergleich 0 annimmt und deren
Erwartungswert folglich auch grossergleich 0 sein muss.
0 E(X aY )
2
= E(X
2
2aXY +a
2
Y
2
)
= E(X
2
) +a
2
E(Y
2
) 2aE(XY )
Wir substituieren: a = E(XY )E(Y
2
)
1
= E(X
2
) E(XY )
2
E(Y
2
)
1
Daraus folgt nun direkt
E(XY )
2
E(X
2
)E(Y
2
)
und weiterhin was zu zeigen war
|E(XY )|

E(X
2
)E(Y
2
)
H34
(i) Da X U[1, 1] ist also F
X
(x) = 0, 5x + 0, 5 f ur x [1, 1]. Betrachte nun
den interessanten Fall y [0, 1] zur Berechnung der Verteilungsfunktion von
Y :
F
Y
(y) = P({Y y}) = P({|X| y}) = P({y X y})
Da wir eine absolutstetige Zufallsvariable betrachten ist P({X y}) =
P({X > y})
= P({X y} {X > y} = 1 P({X > y} {X y})
= 1 P({X > y}) P({X y}) = P({X y}) P({X y})
= F
X
(y) F
X
(y) = y
F ur y > 1 w urde sich 1 ergeben, f ur y < 0 eben 0. Die Zufallsvariable Y ist
somit gleichverteilt auf [0, 1].
(ii) Damit X und Y unkorreliert sind, muss gelten
E(XY ) = E(X)E(Y )
Die Erwartungswerte der beiden Zufallsvariablen kann man leicht berechnen,
sie liegen immer in der Mitte des Intervalls. Also E(X) = 0 und E(Y ) =
1
2
. Um
den Erwartungswert der Produkt-Zufallsvariable zu berechnen denieren wir
1
uns eine messbare Funktion hx) = x|x| und wenden die Transformationsformel
an:
E(XY ) = E(X|X|) = E(h(X))
=

h(x)f
X
(x)dx =

1
1
1
2
x |x|dx
=

0
1

1
2
x
2
dx +

1
0
1
2
x
2
dx =
1
6
+
1
6
= 0
Die beiden Zufallsvariablen sind also unkorreliert.
(iii) Um die Unabhangigkeit zu

Uberpr ufen bzw. zu widerlegen betrachten wir ein
x R
P({X x} {|X| x}) = P({X x}) = P({X x})P({|X| x})
Die Zufallsvariablen sind also nicht unabhangig, aber trotzdem unkorreliert,
was die Umkehrung von Satz 14 widerlegt.
H35
(i) X
n
ist oensichtlich Binomialverteilt mit den Parametern n und
1
6
.
(ii) Tschebyschev
P({|X
n
0
n
0
p| 0, 01n
0
}) 0, 5
1 P({|X
n
0
n
0
p| > 0, 01n
0
}) 0, 5
P({|X
n
0
n
0
p| > 0, 01n
0
}) 0, 5
Nun schatzen wir die Wahrscheinlichkeit zweimal nach oben ab, indem wir
zuerst das > durch ein ersetzen und dann die Tschebyschev-Ungleichung
benutzen

1
0, 01
2
n
2
0
n
0
p(1 p) 0, 5
n
0
2777, 77
Also ergibt sich mittels der Ungleichung von Tschebyschev ein n
0
= 2778
Hoeding
Die Vorgehensweise ist analog zu obiger Rechnung, bis auf die Tatsache,
dass man nicht in der Bedingung f ur die betrachtete Menge mit n
0
durch-
multiplizieren muss um die Ungleichung von Hoeding anzuwenden. Es
ergibt sich
2 exp(2 0, 01
2
n
0
) 0, 5
n
0
6931, 47
Folglich also n
0
= 6932.
2
Zentraler Grenzwertsatz
Zunachst einmal standardisiert man die betrachtete Zufallsvariable
P({|X
n
0
n
0
p| 0, 01n
0
}) 0, 5
P({

X
n
0
n
0
p

n
0
p(1 p)

0, 01

n
0

p(1 p)
}) 0, 5
Wir substituieren X

n
=
X
n
0
n
0
p

n
0
p(1p)
und = 0, 01

n
0

p(1p)
P({|X

n
| }) 0, 5
Die standardisierte Zufallsvariable X

n
konvergiert nach dem Zentralen
Grenzwertsatz gegen eine standardnormalverteilte Zufallsvariable Z. Wir
nahern also den obigen Ausdruck wie folgt:
P({|Z| }) = P({ Z }) 0, 5
() () = 2() 1 0, 5
Gesucht ist also das 0, 75-Quantil der Normalverteilung
= 0, 674 n
0
= 630, 939
Mit dem Zentralen Grenzwertsatz ergibt sich also ein n
0
= 631.
H36 Die diskrete Zufallsvariable die Poissonverteilt ist, X P(2):
E(h(X)) =

x=0
h(x) exp(2)
2
x
x!
= exp(2)

x=0
x
2
2
x
x!
+

x=4
(12 x)
2
x
x!

= exp(2)

22 + 12

x=0
2
x
x!
12
3

x=0
2
x
x!
+
3

x=0
x
2
x
x!

E(X)
= exp(2) (22 + 12 exp(2) 76 + 10) 2 4, 045
Die absolutstetig verteilte Y Exp(3):
Zu Beginn berechnen wir folgende 3 Integrale:

exp(ax)dx =
1
a
exp(ax)
sowie

x exp(ax)dx =
1
a
x exp(ax) +
1
a

exp(ax)dx
=

1
a
x
1
a
2

exp(ax)
3
und zuletzt

x
2
exp(ax)dx =
1
a
x
2
exp(ax) +
2
a

x exp(ax)dx
=

1
a
x
2

2
a
2
x
2
a
3

exp(ax)
Nun zur eigentlichen Berechnung des Erwartungswertes
E(h(Y )) =

h(x)f
Y
(x)dx
=

3
0
3x
2
exp(3x)dx +


3
36 exp(3x)dx


3
3x exp(3x)dx
alle Integrale haben wir bereits bestimmt, wir m ussen nur noch die Grenzen einset-
zen
= (9 2
2
9
) exp(9) +
2
9
+ 12(9) (3 +
1
3
) exp(9) 0, 2219
4

Das könnte Ihnen auch gefallen