Beruflich Dokumente
Kultur Dokumente
Quellen
Büchter, A.: Henn, H. : Elementare Stochastik, Springer Verlag Berlin Heidelberg 2005
Ein Zufallsexperiment mit genau zwei Ausgängen „Treffer“ und „Fehlschlag“ und den
jeweiligen Wahrscheinlichkeiten p und q = 1– p werde n-mal wiederholt.
p(k ) = ()n
k
pk ( 1−p )
n−k
n
E = ∑
k =0 k ()
k ⋅ n ⋅ p k ⋅ (1−p )
n−k
n
n! n−k
E = ∑ k ⋅
k !⋅(n−k)!
⋅ pk ⋅ ( 1−p )
k =1
n
( n−1 ) ! n−k
E = np ⋅ ∑ ⋅ pk−1 ⋅ ( 1−p )
k =1 ( k−1) !⋅(n−k)!
n
( n−1 ) ! n−1−(k−1)
E = np ⋅ ∑ ⋅ pk −1 ⋅ (1−p)
k =1 ( k−1) !⋅(n−1−(k−1))!
n−1
E = np ⋅ ∑
l=0
( )
n−1 ⋅ pl ⋅ ( 1−p )n−1−l
l
n−1
E = np ⋅ ( p + 1−p )
E = np ⋅ 1n−1
E = np .
n
V = ∑ (k2 − 2kE + E2 ) ⋅ p ( k )
k=0
n n n
V = ∑ k 2 ⋅ p ( k ) − 2E ⋅ ∑ k ⋅ p (k) + ∑ E2 ⋅ p ( k )
k=0 k=0 k=0
n n
2 2
V = ∑ k ⋅ p ( k ) − 2E ⋅ E + E ⋅ ∑ p (k)
k=0 k=0
n
V = ∑ k 2 ⋅ p ( k ) − 2E2 + E2 ⋅ 1
k=0
n
V = ∑ k 2 ⋅ p ( k ) − E2
k=1
n
V = ∑
k=1 k ()
k 2 ⋅ n ⋅ pk ⋅ (1−p )
n−k
− n 2 p2
n
n! n−k
V = ∑ k2 ⋅ ⋅ pk ⋅ ( 1−p ) − n2 p 2
k=1 k !⋅(n−k )!
n
(n−1) ! n−k
V = np ⋅ ∑ k ⋅ ⋅ pk ⋅ ( 1−p ) − n 2 p2
k=1 (k−1) !⋅(n−k )!
n
(n−1) ! n−1−(k −1)
V = np ⋅ ∑ k ⋅ ⋅ pk −1 ⋅ (1−p ) − n2 p2
k=1 (k−1) !⋅(n−1−(k−1))!
n−1
(n−1) ! n−1−l
V = np ⋅ ∑ (l+1) ⋅ ⋅ pl ⋅ ( 1−p ) − n2 p 2
l=0 l!⋅(n−1−l)!
( )
n−1 n−1
(n−1) ! n−1−l ( n−1)! n−1−l
V = np⋅ ∑ l⋅ ⋅pl⋅( 1−p ) + ∑ ⋅pl⋅( 1−p ) − n2 p2
l=0 l!⋅(n−1−l)! l=0 l!⋅(n−1−l)!
(∑ ( ) )
n−1 n−1
V = np⋅
l=0
l⋅ n−1 ⋅pl⋅( 1−p )
l
n−1−l
+ ∑
l=0
( )
n−1 ⋅pl⋅( 1−p )n−1−l − n2 p 2
l
V = np ⋅ ( np − p + 1 ) − n2 p 2
V = np ⋅ ( np − p + 1 − np )
V = n p ( 1−p ) .
σ = √ V
σ = √ n p ( 1−p ) .
p(k ) = () n
k
pk ( 1−p )
n−k
, k = 0 , ... , n
E = np
V = n p ( 1−p )
σ = √ n p ( 1−p )
0,1065
10 20 30 40 50 60 70 80 90 100
k2
P(k1 ≤ k ≤ k 2 ) = ∑
k =k1
()
n
k
pk ( 1−p )
n−k
P(k1 ≤ k ≤ k 2 ) = ∑
k =0
()
n
k
k
p ( 1−p )
n−k
− ∑
k=0
()
n
k
pk (1−p )
n−k
P(k1 ≤ k ≤ k 2 ) = Fn ;p (k 2 ) − Fn ;p (k1 )
1
B 20 ; 1/6 (k) E = 20 ⋅ = 3,6
6
E
E+c E+c
10 20
n
p (| k−E| ≥ c ) = ∑ p ( k) = ?
|k−E|≥c
n
2 2
σ = V = ∑ (k − E) ⋅ p(k )
k=0
n n
2 2
σ2 = ∑ ( k − E) ⋅ p ( k ) + ∑ ( k − E) ⋅ p ( k )
∣k−E∣<c ∣k −E∣≥c
n
2
σ2 ≥ ∑ (k − E) ⋅ p(k )
∣k−E∣≥c
n
σ 2
≥ ∑ c2 ⋅ p(k )
∣k−E∣≥c
n
σ2 ≥ c2 ⋅ ∑ p(k )
∣k −E∣≥c
n 2
p (| k−E| ≥ c ) = ∑ p ( k ) ≤ σ2 Tschebyscheff – Ungleichung
|k−E|≥c c
p (| k−E| ≥ 1 σ ) ≤ 1
1
p (| k−E| ≥ 2σ ) ≤
4
p (| k−E| ≥ 2σ ) ≤ 25%
1
p (| k−E| ≥ 3 σ ) ≤
9
p (| k−E| ≥ 3 σ ) ≤ 11.2 %
1
⇒ − p (| k−E| ≥ 2 σ ) ≥ −
4
1
1 − p (| k−E| ≥ 2σ ) ≥ 1 −
4
3
1 − p (| k−E| ≥ 2σ ) ≥
4
1 − p (| k−E| < 2 σ ) ≥ 75 %
1
⇒ − p (| k−E| ≥ 3 σ ) ≥ −
9
1
1 − p (| k−E| ≥ 3σ ) ≥ 1 −
9
8
1 − p (∣ k−E∣ ≥ 3σ ) ≥
9
n
k
E ( k) = ∑ n
⋅ p( k )
k=0
n
E ( k) = ∑
k=0
k
n
⋅ n
k () pk (1−p)
n−k
n
E ( k) =
1
n
∑
k =0
k ⋅ n
k () pk ( 1−p )
n−k
1
E ( k) = E
n
1
E ( k) = np
n
E(k) = p .
n
2
V (k ) = ∑ (k − p) ⋅ p(k )
k =0
n
V (k ) = ∑ (k 2 − 2k p + p2 ) ⋅ p (k )
k =0
n n n
V (k ) = ∑ k2 ⋅ p (k) − ∑ 2 k p ⋅ p (k ) + ∑ p2 ⋅ p ( k )
k =1 k =0 k =0
n n n
k2
V (k ) = ∑ n2
⋅ p ( k ) − 2p ∑ k ⋅ p(k ) + p 2
∑ p(k )
k =1 k =0 k =0
n
k2
V (k ) = ∑ n2
⋅ p(k) − 2p E ( k ) + p2 ⋅ 1
k =1
n
k2
V (k ) = ∑ n2
⋅ p(k) − 2p2 + p2
k =1
n
k2
V (k ) = ∑ ⋅ p (k) − p2
k =1 n2
n
1
V (k ) = ∑ k2 ⋅ p (k) − p2
n2 k =1
n
1 n! n−k
V (k ) = ∑ k2 ⋅ pk ( 1−p ) − p2
n2 k =1 k ! (n−k ) !
n
1 ( n−1 ) ! n−k
V ( k ) = 2 np ∑ k⋅ pk−1 ( 1−p ) − p2
n k=1 ( k−1 ) ! ( n−k ) !
n
1 ( n−1 ) ! n−1− ( k−1 )
V (k ) = np ∑ k⋅ pk−1 ( 1−p ) − p2
n2 k=1 ( k−1 ) ! ( n−1−( k−1 )) !
n
1 ( n−1 ) ! n−1− ( k−1 )
V (k ) = np ∑ k⋅ pk−1 ( 1−p ) − p2
n2 k=1 ( k−1 ) ! ( n−1−( k−1 )) !
(∑ )
n−1
1 ( n−1 ) ! n−1−l ( n−1 ) ! n−1−l
V (k) = np l⋅ p l ( 1−p ) + 1⋅ p l ( 1−p ) − p2
n2 l=0 l! ( n−1−l ) ! l! ( n−1−l) !
(∑ )
n−1 n−1
1 ( n−1 ) ! n−1−l (n−1 ) ! n−1−l
V (k ) =
n2
np l⋅
l! ( n−1−l ) !
p l ( 1−p ) + ∑ l! ( n−1−l ) !
pl ( 1−p ) − p2
l=0 l=0
1
V (k ) = np ( ( n−1 ) p + 1 ) − p2
n2
1
V (k ) = ( n2 p2 − n p2 + np ) − p2
n2
1 1
V (k ) = ( n2 p2 − n p2 + np ) − n 2 p2
n2 2
n
1
V (k ) = ( n2 p2 − n p2 + np − n2 p 2 )
n2
1
V (k ) = ( − n p2 + np )
n2
1
V (k ) = ( np − np2 )
n2
1
V (k ) = np ( 1 − p )
n2
1
V (k ) = V
n2
1 .
V (k ) = p(1 − p)
n
σ (k) =
√ 1
n
p (1 − p )
k
Die Tschebischeff – Ungleichung für die Variable k = liefert
n
2
σ(k )
p (∣ k − E ( k ) ∣ ≥ c ) ≤
c2
1
p(1 − p)
n
p (∣ k − p ∣ ≥ c ) ≤ 2
c
p (∣ k − p ∣ < c ) = 1 − p (∣ k − p ∣ ≥ c )
p(1 − p)
p (∣ k − p ∣ < c ) ≥ 1 − 2
nc
Wegen
−p ( 1−p ) = −p + p2
−p ( 1−p ) = p 2 − p
1
−p ( 1−p ) = p 2 − 2⋅p⋅
2
2 2
1
−p ( 1−p ) = p 2 − 2⋅p⋅ +
2
1
2 () () −
1
2
2 2
−p ( 1−p ) = ( p −
1
2 ) () −
1
2
2
−p ( 1−p ) ≥ −
1
2 ()
1
−p ( 1−p ) ≥ −
4
folgt
p(1 − p)
p (∣ k − p ∣ < c ) ≥ 1 −
nc 2
1
p (∣ k − p ∣ < c ) ≥ 1 − 2
4nc
Die Wahrscheinlichkeit, dass die relative Häufigkeit für „Treffer“ um weniger als c von
der Wahrscheinlichkeit p abweicht, strebt für n ∞ gegen 1 .
1
p (∣ k − p ∣ < c ) ≥ 1 −
4nc 2
B4 ; 0,5 (k)
0,4
0,3
B16 ; 0,5 (k)
0,2
B64 ; 0,5 (k)
0,1
4 16 64
B4 ; 0,5 (k)
0,4
0,3
B16 ; 0,5 (k)
0,2
B64 ; 0,5 (k)
0,1
4 16 64
p(k ) = ()n
k
k
p ( 1−p )
n−k
wird immer kleiner ,
n
da die Flächensumme ∑
k=0
()
n
k
pk ( 1−p )
n−k
= 1 ist .
k−E
Dadurch erhält man eine neue Zufallsvariable xk = σ
k −E
p( xk) = p σ ( ) = σ ⋅ p (k ) = σ ⋅ n
k () pk ( 1−p )
n−k
,
0,4
( xk ∣ σ pk ) = (k−E
σ ∣ σp ) k
(k I pk )
Bn ; p (k )
k k+1
Normierte Binomialverteilung Binomialverteilung
(
k−E
gn ( x k ) = gn σ )
= σ pk ()
pk = p(k ) = n pk qn−k , q = 1−p
k
Grenzkurve φ
an an die sich die Funktionen gn annähern
xk xk+1
Δ gn gn ( x k +1 ) − gn ( xk )
=
gn gn ( x k )
Δ gn σ pk +1 − σ pk
=
gn σ pk
Δ gn pk+1 − pk
=
gn pk
Wegen
( )
n
k+1
=
n!
( k+1 ) ! ( n−k−1 ) !
( )
n
k+1
=
n ! (n−k )
( k+1 ) k ! (n−k ) !
( )
n
k+1
=
( n−k ) n!
( k+1 ) k ! ( n−k ) !
ist
pk +1 = ( )n
k+1
pk +1 qn−k−1
(n−k ) n! k +1 n−k −1
pk +1 = p q
(k +1 ) k ! ( n−k ) !
(n−k ) p n ! k n−k
pk +1 = p q
(k +1 ) q k ! (n−k ) !
(n−k ) p
pk +1 = p
(k +1 ) q k
und es folgt
Δ gn pk+1 − pk
=
gn pk
( n−k ) p
p − pk
Δ gn ( k +1 ) q k
=
gn pk
Δ gn ( n−k ) p − (k +1 )
q
=
gn k+1
Δ gn ( k−n ) p + k +1
q
= −
gn k +1
1
Δ gn ( ( k−n) p + qk ) + 1
q
= −
gn k +1
1
Δ gn ( kp−np + qk ) + 1
q
= −
gn k +1
1
Δ gn ( k ( p+q )−np ) + 1
q
= −
gn k +1
1
Δ gn ( k−np ) + 1
q
= −
gn k +1
Δ gn k−np + q
= −
gn q ( k+1 )
Δ gn k − np + q
= −
gn q ( k − np + np + 1 )
k − np 1
Δ gn σ + q σ
= −
gn k − np
q σ ( np 1
+ σ + σ )
k − np 1
Δ gn σ + q σ
= −
gn k − np npq 1
q σ + σ + q σ
Wegen
E = np
σ 2 = npq
k−np k−E
σ = σ = xk
folgt zunächst
k − np 1
Δ gn σ + q σ
= −
gn k − np npq 1
q σ + σ + q σ
Δ gn xk + q Δ x
= −
gn q xk + σ + q Δ x
und weiter
Δ gn
Δx xk + q Δ x
= − .
gn q xk Δ x + σ Δ x + q Δ x2
Wegen σ Δx = 1 folgt
Δ gn
Δx xk + q Δ x
= − .
gn q xk Δ x + 1 + q Δ x2
Betrachte man jetzt die entsprechende Gleichung mit der kontinuierlichen Variablen x ,
erhält man
Δ gn
Δx x + q Δx
= − .
gn q x Δ x + 1 + q Δ x2
Δx 0
gn ϕ
Δ gn
ϕ'
Δx
ϕ' .
ϕ = − x
ϕ'
= − x
ϕ
1
ϕ' = − x
ϕ
'
( ln ϕ )
'
= − ( )
1 2
2
x
1 2
ln ϕ = − x + C
2
1 2
− x + C
2
ϕ = e
1 2
− x
ϕ = eC e 2
.
Da die Flächensummen der Funktionen gn immer gleich 1 sind, muss dies auch für die
Grenzfunktion ϕ gelten :
∞ ∞ 1 2
− x
C
∫
−∞
ϕ ( x ) dx = ∫
−∞
e e 2
= 1
C
Daraus ergibt sich der Wert für die Konstante e .
∞ 1 2
− x
Man zeigt zuerst, dass ∫
−∞
e 2
dx = √ 2 π ist .
wxMaxima 13.04.2
wxplot2d([exp(-0.5*x^2) ], [x,-3,3], [y,0,1.5], [gnuplot_preamble, "set size ratio 0.25" ] )$
1 1
2
V = ∫ π x dy = lim ∫ϵ π x 2 dy
0 ϵ→0
1 1
2
∫ϵ π x 2 dy = ∫ϵ π √−2 ln y dy
1 1
2
∫ϵ πx dy = ∫ϵ π (−2 ln y ) dy
1 1
2
∫ϵ πx dy = −2 π ∫ϵ ln y dy
∫ϵ π x 2 dy = −2 π [ 1 ln 1 − 1 − ( ϵ ln ϵ − ϵ) ]
1
2
∫ϵ πx dy = −2 π [ −1 − ( ϵ ln ϵ − ϵ ) ]
1
∫ϵ π x 2 dy = 2 π [ 1 + ( ϵ ln ϵ − ϵ )]
1 1
2
V = ∫ π x dy = lim ∫ϵ π x 2 dy
0 ϵ→0
1
V = ∫ π x2 dy = lim 2 π [ 1 + ( ϵ ln ϵ − ϵ) ]
0 ϵ→0
ln ϵ
lim ϵ ln ϵ = lim
ϵ→0 ϵ→0 1
ϵ
ln ' ϵ
lim ϵ ln ϵ = lim '
ϵ→0 ϵ→0
( )
1
ϵ
1
lim ϵ ln ϵ = lim ϵ
ϵ→0 ϵ→0 1
−
ϵ2
lim ϵ ln ϵ = lim −ϵ
ϵ→0 ϵ→0
lim ϵ ln ϵ = 0
ϵ→0
1
V = ∫ π x2 dy = lim 2 π [ 1 + ( ϵ ln ϵ − ϵ) ]
0 ϵ→0
1
V = ∫ π x2 dy = 2 π
0
Andererseits kann man das Volumen V des Rotationskörper auch über ein
Doppelintegral bestimmen :
y
1 2 1 2 2
− r − x + z
2 2
y = e = e
x r x
z
1 2 2
− x + z
2
Der Rotationskörper ist durch den Graphen der Funktion y = e und die
Ebene y = 0 begrenzt.
(∫ )
∞ ∞ 1 2 2
− x + z
V = ∫
−∞ −∞
e 2
dx dz
(∫ )
∞ ∞ 1 2 1 2
− z − x
V = ∫
−∞ −∞
e 2
e 2
dx dz
( )
∞ 1 2 ∞ 1 2
− z − x
V = ∫
−∞
e 2
∫
−∞
e 2
dx dz
(∫ )
∞ 1 2 ∞ 1 2
− z − x
V = ∫
−∞
e 2
−∞
e 2
dx dz
(∫ )
∞ 1 2 ∞ 1 2
− x − z
V =
−∞
e 2
dx ∫
−∞
e 2
dz
∞ 1 2 ∞ 1 2
− x − z
V = ∫
−∞
e 2
dx ∫
−∞
e 2
dz
2
( )
∞ 1 2
− x
V = ∫
−∞
e 2
dx
( )
∞ 1 2
− x
2π = ∫
−∞
e 2
dx ,
∞ 1 2
− x
√2 π = ∫
−∞
e 2
dx .
∞ ∞ 1 2
− x
C
∫
−∞
ϕ ( x ) dx = ∫
−∞
e e 2
= 1 .
∞ 1 2
− x
∫ eC e 2
= 1
−∞
∞ 1 2
− x
eC ∫
−∞
e 2
= 1
C
e √2 π = 1
1
eC =
√2 π
1 2
− x
C 2
ϕ ( x) = e e
1 2
1 −
2
x
ϕ ( x) = e
√2 π
1 2
1 −
2
x
y = e
√2 π
0,4
-3 -2 -1 1 2 3
k−E
Wegen σ pk = gn σ ( ) = gn ( x k ) und gn ϕ für n ∞ gilt
σ pk ≈ (
k−E
ϕ σ )
pk ≈
1 k−E
σ ϕ σ ( )
2
1
(k−E )
p(k) = n () 1 1 − σ
k n−k 2
p q ≈ σ e
k √2 π
k2−E
σ
P(k1 ≤ k ≤ k 2 ) ≈ ∫ ϕ ( t ) dt
k1−E
σ
k −E
P(k1 ≤ k ≤ k 2 ) ≈ Φ σ2 ( ) (k −E
− Φ σ1 )
P(k1 ≤ k ≤ k 2 ) ≈ Φ σ2(
k −E
) − Φ σ1(
k −E
) mit E = np , σ = √np (1−p ) .
Die Näherung liefert brauchbare Werte, wenn die Faustformel npq > 9 erfüllt ist .
Für k 1 = 0 liegt
0−E
Φ σ ( ) unterhalb der Genauigkeitsgrenze. Damit ergibt sich für
P(k ≤ k) ≈ (
k−E
Φ σ ) .
1. Beispiel
Gegeben ist ein Würfel, von dem man nicht weiß, wie groß die Wahrscheinlichkeit p ist,
1
eine Eins zu werfen. Die Vermutung oder Hypothese ist p = . Die Hypothese soll
6
durch Experiment und durch folgende Überlegungen bestätigt oder abgelehnt werden .
0,1065
B 100 ; 1/6 (k)
10 20 30 40 50 60 70 80 90 100
16,6
Die Wahrscheinlichkeit , dass k ein „Ausrutscher“ ist, also etwa k < 10 oder
24 < k , kann folgendermaßen berechnet werden :
9 k n−k
p ( k < 10) = ∑
k=0
( ) ( )( )
100
k
1
6
5
6
p ( k > 24 ) = 1 − P (k ≤ 24)
24 k n−k
p ( k > 24 ) = 1 − ∑
k =0
( ) ( )( )
100
k
1
6
5
6
p ( k > 24 ) = 1 − 0,9783
p ( k > 24 ) = 0,0217
Die numerischen Werte für F 1 ( k ) sind der Tabelle für die Summenfunktion der
100;
6
Binomialverteilung B 1 (k ) entnommen (siehe nächste Seite) .
100;
6
p ( 10 ≤ k ≤ 24 ) > 1 − 5%
p ( 10 ≤ k ≤ 24 ) > 95 %
Wenn nun beim Experiment k -mal die 1 geworfen wird mit k ∈ [ 10 ;24 ] , wird
1
man die Hypothese p(1) = annehmen.
6
Die Wahrscheinlichkeit, dass man bei dieser Entscheidung einen Fehler begeht, dass also
das Ergebnis in Wahrheit ein statistischer „Ausrutscher“ ist, beträgt weniger als 5 % .
Diese Wahrscheinlichkeit heißt Irrtumswahrscheinlichkeit .
Bemerkung :
Beim Testen einer Wahrscheinlichkeit für Treffer, wird die Irrtumswahrscheinlichkeit immer
vor dem Experiment festgelegt .
2. Beispiel
Der Bürgermeister einer Stadt erhielt bei der letzten Wahl 60% der Stimmen. Bei der
Befragung von n = 100 Personen vor der kommenden Wahl bevorzugten k = 48
Personen den Bürgermeister.
Kann man mit einer Irrtumswahrscheinlichkeit α = 5% schließen, dass sich der
Stimmenanteil verändert hat ?
Hypothese H0 : p = 60 % = 0,6 .
Gegenhypothese H1 : p ≠ 0,6 .
Bestimmung des Ablehnungsbereichs mit Hilfe der Tabelle für die Summenfunktion der
Binomialverteilung F100 ; 0,6 ( k ) (siehe nächste Seite) .
10 20 30 40 50 60 70 80 90 100
p ( k ≤ k 1 ) ≤ 2,5 % p ( k 2 ≤ k ) ≤ 2,5 %
p ( k ≤ k 1 ) ≤ 0,025 p ( k 2 ≤ k ) ≤ 0,025
k 1 = 49 1 − p ( k < k 2 ) ≤ 0,025
1 − p ( k ≤ k 2 −1 ) ≤ 0,025
p ( k ≤ k 2 −1 ) ≥ 1 − 0,025
p ( k ≤ k 2 −1 ) ≥ 0,0975
k 2−1 = 69
k 2 = 70
Ablehnungsbereich : A = [ 0 ; 49 ] ∪ [ 70 ; 100 ] .
Die folgenden Überlegungen beziehen sich zahlenmäßig auf das 2. Beispiel , auf die
Bürgermeisterwahl.
Man macht einen Fehler 1. Art, wenn man die Hypothese H0 , dass p = 0,6 ist,
ablehnt, obwohl diese richtig ist.
Man macht einen Fehler 2. Art, wenn man die Hypothese H0 , dass p = 0,6 ist,
beibehält, obwohl diese falsch ist.
β ≈ 0,9999 − 0,4602
β ≈ 0,5379
β ≈ 54%
Die Irrtumswahrscheinlichkeit β beim Fehler 2. Art kann also recht hoch sein im
Vergleich zur Irrtumswahrscheinlichkeit α beim Fehler 1. Art .
Hypothese H0 : p ≤ 0,04 .
Bestimmung des Ablehnungsbereichs mit Hilfe der Tabelle für die Summenfunktion der
Binomialverteilung F100 ; 0,04 (k ) (siehe nächste Seite) .
10 20 30 40 50 60 70 80 90 100
p (k2 ≤ k ) ≤ 5 %
p ( k 2 ≤ k ) ≤ 0,05
1 − p ( k < k 2 ) ≤ 0,05
1 − p ( k ≤ k 2 −1 ) ≤ 0,05
p ( k ≤ k 2 −1 ) ≥ 1 − 0,05
p ( k ≤ k 2 −1 ) ≥ 0,95
F100;0,04 ( k 2 −1 ) ≥ 0,95
F100;0,04 ( 6 ) ≈ 0,8936
F100;0,04 ( 7 ) ≈ 0,9525
k 2−1 = 7
k2 = 8
Ablehnungsbereich : A = [ 8;100 ] .
Ein Kandidat hatte bei der letzten Wahl 40 % der Stimmen . Vor der nächsten Wahl wird
eine Umfrage gestartet . Von n = 100 Personen geben k = 34 Personen an, den
Kandidaten wählen zu wollen .
Kann man mit der Irrtumswahrscheinlichkeit α = 5% schließen, dass der
Stimmenanteil gesunken ist ?
Bestimmung des Ablehnungsbereichs mit Hilfe der Tabelle für die Summenfunktion der
Binomialverteilung F100 ; 0,4 ( k ) (siehe nächste Seite) .
10 20 30 40 50 60 70 80 90 100
p ( k ≤ k 1 ) ≤ 5%
p ( k ≤ k 1 ) ≤ 0,05
F100 ; 0,4 ( k 1 ) ≤ 0,05
F100 ; 0,4 ( 31 ) ≈ 0,0398
F100 ; 0,4 ( 32 ) ≈ 0,0615
k 1 = 31
Ablehnungsbereich : A = [ 0 ;31 ] .
Im Gegensatz zu Testproblemen bei denen man immer eine Vermutung über den zu
testenden Parameter hat, hat man bei Schätzproblemen praktisch keine Anhaltspunkte .
Beispiel
Aus einer Urne mit sehr vielen schwarzen und weißen Kugeln wird eine Stichprobe mit
großem Umfang n entnommen . Es wird nach der Wahrscheinlichkeit p für eine
schwarze Kugel gefragt .
k
Hierzu betrachtet man die relative Häufigkeit k = für das Vorkommen einer
n
schwarzen Kugel , die nach dem Gesetz der großen Zahlen immer weniger von p
abweicht .
Die Variable k ist B n;p - verteilt und werde durch die Gaußfunktion ϕ approximiert .
Das heißt :
k ()
p ( k ) = bn: p ( k ) = n pk (1−p )
n−k
k2
P(k1 ≤ k ≤ k 2 ) = ∑
k=k1
() n k(
k
p 1−p )
n−k
k2 −E
σ
P(k1 ≤ k ≤ k 2 ) ≈ ∫ ϕ ( t ) dt
k1 −E
σ
1 2
1 − t
mit ϕ ( t ) := e 2
, E = np , σ = √np (1−p )
√2 π
k2 −E
σ 1 2
1 − t
P(k1 ≤ k ≤ k 2 ) ≈ ∫ √2π e 2
dt
k1 −E
σ
P(k1 ≤ k ≤ k 2 ) ≈ Φ σ2(
k −E
) k −E
− Φ σ1 ( ) mit Φ ( x ) := ∫
−∞
ϕ ( t ) dt
P (∣
k
n
− p ≤
cσ
n ∣ ) = P p −( cσ
n
≤
k
n
≤ p +
cσ
n )
Binomialverteilung, Gaußfunktion, Näherungsformel von de Moivre - LaPlace, Test- und Schätzverfahren 37
P (∣
k
n
− p ≤
cσ
n ∣ ) = P ( np − c σ ≤ k ≤ np + c σ )
P (∣
k
n
− p ≤
cσ
n ∣ ) = P(E − c σ ≤ k ≤ E + cσ)
P (∣
k
n
− p ≤
cσ
n ∣ ) ≈ (
E+c σ − E
Φ σ ) (
E−c σ − E
− Φ σ )
P (∣
k
n
− p ≤
cσ
n ∣ ) ≈ Φ ( c ) − Φ (−c )
P (∣
k
n
− p ≤
cσ
n ∣ ) ≈ Φ ( c) − (1 − Φ ( c))
P (∣
k
n
− p ≤
cσ
n ∣ ) ≈ 2 Φ ( c) − 1
k
n
cσ p cσ
p+ p+
n n
k
Zeigt das Experiment jetzt eine zufällige relative Häufigkeit , so denkt man sich um
n
k cσ
ebenfalls ein Intervall der Länge 2 :
n n
k
n
cσ p cσ
p+ p+
n n
k
n
k cσ p k cσ
+ +
n n n n
(∣
P p −
k
n ∣
≤
cσ
n ) = P ( k
n
−
cσ
n
≤ p ≤
k
n
+
cσ
n )
(∣
P p −
k
n ∣
≤
cσ
n ) = P − ( k
n
−
cσ
n
≤ −p ≤ −
k
n
+
cσ
n )
(∣
P p −
k
n ∣
≤
cσ
n ) = P − ( cσ
n
≤
k
n
−p ≤
cσ
n )
(∣
P p −
k
n ∣
≤
cσ
n ) = (
P p −
cσ
n
≤
k
n
≤ p +
cσ
n )
(∣
P p −
k
n ∣
≤
cσ
n ) = P (∣ k
n ∣
− p ≤
cσ
n )
(∣
P p −
k
n ∣
≤
cσ
n ) ≈ 2 Φ ( c) − 1
k
Die Wahrscheinlichkeit , dass p in diesem zufälligen Intervall um liegt, ist also
n
ebenfalls ≈ 2 Φ (c ) − 1 .
Das Intervall
k
n
− [
cσ
n
;
k
n
+
cσ
n ]
heißt Vertrauensintervall für p zur Wahrscheinlichkeit γ = 2 Φ (c ) − 1 .
Schätzung von p aus dem Urnenmodell mit schwarzen und weißen Kugeln :
Dann folgt mittels der Tabelle für die Gaußsche Summenfunktion (siehe nächste Seite) :
2 Φ (c ) − 1 = 0,95
1 + 0,95
Φ ( c) =
2
Φ ( c ) = 0,975
c = 1,96
∣p −
k
n
≤ ∣
cσ
n
c √ np ( 1−p )
∣p −
k
n
≤ ∣
n
∣p −
k
n ∣
≤ c 2
n √
np ( 1−p )
∣p −
k
n ∣
≤ c
n √
p ( 1−p )
∣p − 0,29∣ ≤ 1,96
√ p ( 1−p )
100
p ( 1−p )
( p − 0,29 )2 ≤ 1,96 2
100
2
100 ( p − 0,29 ) ≤ 1,962 p ( 1−p )
p1/2 =
61,8416 ± √(−61,8416 ) − 4 ⋅ 103,8416 ⋅ 8,41
2⋅103,8416
p1 = 0,21
p2 = 0,39
γ = 90% ⇒ c = 1,64
γ = 95% ⇒ c = 1,96
γ = 99% ⇒ c = 2,58
γ = 99,9% ⇒ c = 3,29