Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Mengentheorie
Bedingte
Wahrscheinlichkeit
Einfache
Wahrscheinlichkeiten
Binomialverteilung und
Bernoulliketten
Stochastische
Tests
Kombinatorik
Zufallsgrößen
„Traue keiner Statistik, die du nicht selbst gefälscht hast.“
3 Stochastik
Alle möglichen Ereignisse eines Zufallsexperiments fassen wir in der Ergebnismenge Ω zusammen.
Ereignisse sind Teilmengen von Ω. Umfasst das Ereignis nur ein Element von Ω, dann handelt es sich um
ein Elementarereignis. Die Menge, welche keine Elemente enthält ist die Leere Menge (Symbolik
{𝐿} 𝑜𝑑𝑒𝑟 ∅ ).
Ω = {1,2,3,4,5,6}.
Ein mögliches Ereignis A ist, dass man eine gerade Zahl würfelt: 𝐴 = {2,4,6}
Ein mögliches Elementarereignis wäre B = {6}, also das Ereignis, dass eine 6 gewürfelt wird.
Wir definieren ein weiteres Ereignis C - Die geworfene Augenzahl ist eine Priemzahl: 𝐶 = {2,3,5}.
Als Vereinigung zweier Mengen bezeichnen wir die Menge bestehend aus den Elementen, welche
nur in der einen Menge, nur in der anderen Menge sowie in beiden Mengen enthalten sind.
Bsp.: 𝐴 ∪ 𝐶 = {2, 3, 4, 5, 6}; 𝐵 ∪ 𝐶 = {2, 3, 5, 6 } gesprochen: „A vereinigt B“
Als Komplement oder komplementäre Menge zu einer Menge A bezeichnet man, die Menge 𝐴̅
(gesprochen: „A – quer“) bestehend aus den Elementen vom Ω die nicht in der Menge A enthalten
sind. Bsp.: 𝐴 = {2,4,6}; 𝐴̅ = {1,3,5}
3.1.1 Laplace-Experiment
Man geht bei einem Laplace-Experiment davon aus, dass es nur endlich viele Elementarereignisse gibt:
│Ω│ = n.
H
Jedes Elementarereignis e soll mit derselben Wahrscheinlichkeit auftreten ⇒ 𝑃(𝑒) = I
|K| |K| M H
Somit gilt für ein Ereignis A: 𝑃(𝐴) = |L| = = N = O „Mit einer Wahrscheinlichkeit von 0,5 wird eine
I
|P∪Q| R
gerade Zahl gewürfelt.“ Analog gilt für das Ereignis 𝐵 ∪ 𝐶: 𝑃(𝐵 ∪ 𝐶) = |L|
=
N
Für alle Teilmengen der Ergebnismenge Ω gilt: Für alle Teilmengen der Ergebnismenge Ω
𝐸 = {𝑒H , 𝑒O +, … + 𝑒Y } → gilt:
|𝐴| 𝐴𝑛𝑧𝑎ℎ𝑙 𝑑𝑒𝑟 𝐺ü𝑛𝑠𝑡𝑖𝑔𝑒𝑛
𝑃(𝐴) = =
𝑃(𝐸) = 𝑃(𝑒H ) + 𝑃(𝑒O ) + ⋯ + 𝑃(𝑒Y ) |Ω| 𝐴𝑛𝑧𝑎ℎ𝑙 𝑑𝑒𝑟 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑒𝑛
𝑃(𝐸) = 0, falls 𝐸 = ∅ (das unmögliche Ereignis) ist. 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
Beispiel 2: In einer Urne sind 20 Kugeln mit den Ziffern 1, 2, ..., 20 beschriftet. Es wird zufällig eine
Kugel gezogen.
Ereignis A: Es wird eine Kugel mit einer Ziffer gezogen, die durch 9 teilbar ist.
Ereignis B: Es wird eine Kugel mit einer Ziffer gezogen, die durch 6 teilbar ist.
Ereignis C: Es wird eine Kugel mit einer Ziffer gezogen, die größer 1 ist.
𝐴 = {9, 18}
𝐵 = {6, 12, 18}
𝐶 = {2, 3, … , 20}; 𝐶̅ = {1}
2 3 1 4 1
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵) = + − = =
20 20 20 20 5
1 19
𝑃(𝐶) = 1 − 𝑃(𝐶̅ ) = 1 − =
20 20
Beispiel 3: Eine Urne enthält 10 blaue (b), 6 rote (r), und 4 gelbe (g) Kugeln. Es wird zwei Mal mit
Zurücklegen eine Kugel gezogen.
Es sind folgende Elementarereignisse möglich: (b,r); (b,g); (b,b); (r,b); (r,g); (r,r); (g,b); (g,r); (g,g)
Ergebnismenge: Ω = {(b, r); (b, g); (b, b); (r, b); (r, g); (r, r); (g, b); (g, r); (g, g)}
Start
1/2 1/5
3/10
1/2 1/2
1/5 1/5 1/5
3/10 1/2 3/10
3/10
Additionsregel: „Bedarf das Ereignis mehrere Pfade, so werden die Wahrscheinlichkeiten der
Elementarereignisse (Pfad) addiert.“
Ereignis B: genau eine rote Kugel 𝑃(𝐵) = 𝑃({(𝑏, 𝑟)}) + 𝑃({(𝑔, 𝑟)}) + 𝑃({(𝑟, 𝑏)}) + 𝑃({(𝑟, 𝑔)})
1 3 1 3 3 1 3 1 3 3 3 3 42
𝑃(𝐵) = ∙ + ∙ + ∙ + ∙ = + + + =
2 10 5 10 10 2 10 5 20 50 20 50 100
1/2 1/5
3/10
9/19
10/19
6/19 4/19 5/19 4/19 10/19
6/19
3/19
3.1.3 Kombinatorik
Permutation: Die Anzahl der Möglichkeiten n verschiedene Objekte in ihrer Reihenfolge zu vertauschen
ist.
Beispiel: Permutation ohne Wiederholung - „5 Autos auf 5 Parkplätze verteilen“
Möglichkeiten:
• 5 Möglichkeiten für den ersten Parkplatz
• 4 Möglichkeiten für den zweiten Parkplatz
• ...
• Nur eine Möglichkeit für den Letzten
• 5 ∙ 4 ∙ 3 ∙ 2 ∙ 1 = 5! = 120 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
Beispiel: Permutation mit Wiederholung - „3 braune und 2 rote Autos auf 5 Parkplätze verteilen“
Möglichkeiten:
• 5 ∙ 4 ∙ 3 ∙ 2 ∙ 1 = 5! = 120 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
• 3 ∙ 2 ∙ 1 = 3! = 6 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛 für jede Anordnung
der roten Autos die braunen Autos anzuordnen
→ 120 ∶ 6 = 20
• 2 ∙ 1 = 2! = 2 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛 für jede Anordnung der
braunen Autos die roten Autos anzuordnen
→ 20: 2 = 10 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
•
Kombination: Auswahl von k aus n Möglichkeiten. Die Reihenfolge ist dabei unwichtig.
Beispiel: Kombination ohne Wiederholung - „Die ersten drei Autos bei einem Rennen mit 7
gleichschnellen Autos, wobei die Qualität der Rennfahrer und die Platzierung unberücksichtigt bleibt.“
Möglichkeiten:
• 7 ∙ 6 ∙ 5 = 7! ∶ 4! = 210 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
1 2 3 • 3! = 6 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛 die ersten drei zu belegen
• 210 : 6 = 35 Möglichkeiten
7! 7
= p q = 35 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
4! ∙ 3! 3
Kombination: Auswahl von k aus n Möglichkeiten. Die Reihenfolge ist dabei unwichtig.
Möglichkeiten:
13 10 + 4 − 1
p q=p q
10 10
Variation: Auswahl von k aus n Möglichkeiten. Die Reihenfolge ist dabei wichtig.
Beispiel: Variation ohne Wiederholung - „Die ersten drei Autos bei einem Rennen mit 7 gleichschnellen
Autos, wobei die Qualität der Rennfahrer unberücksichtigt bleibt.“
Möglichkeiten:
• 7 ∙ 6 ∙ 5 = 7! ∶ 4! = 210 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
1 2 3 • Bzw.
7! 7! 7
= ∙ 3! = p q ∙ 3! = 210 𝑀ö𝑔𝑙𝑖𝑐ℎ𝑘𝑒𝑖𝑡𝑒𝑛
4! 4! ∙ 3! 3
• Erst werden 3 aus 7 ausgewählt. Im Anschluss werden alle
Möglichkeiten (3!) für die Anzahl der Platzierungs-
verteilung mit eingerechnet.
Möglichkeiten:
• Jedes Rad hat 10 Möglichkeiten
• Für jede Möglichkeit des Rädchens gibt es beim
Folgerädchen wieder 10 Möglichkeiten
• Also 10 ∙ 10 ∙ 10 ∙ 10 = 10R Möglichkeiten
3.2 Zufallsgrößen
3.2.1 Erwartungswert und Varianz
𝑯𝒊𝒏𝒘𝒆𝒊𝒔𝒆:
𝒅𝒊𝒔𝒌𝒓𝒆𝒕𝒆 𝑍𝑢𝑓𝑎𝑙𝑙𝑠𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑛 𝑠𝑖𝑛𝑑 𝑎𝑏𝑧äℎ𝑙𝑏𝑎𝑟 … äℎ𝑛𝑙𝑖𝑐ℎ 𝑤𝑖𝑒 ℕ 𝑜𝑑𝑒𝑟 ℤ
Die Varianz ist ein Maß der Streuung einer Zufallsvariable und ist für Ω = {𝑥H , 𝑥O , 𝑥M , … , 𝑥I } wie folgt
definiert:
V(X) = (xH − 𝜇)O ∙ 𝑃(𝑋 = 𝑥H ) + (xO − 𝜇)O ∙ 𝑃(𝑋 = 𝑥O ) + ⋯ + (xz − 𝜇)O ∙ 𝑃(𝑋 = 𝑥I )
Als Symbol für die Varianz V(X) wird auch 𝜎 O verwendet. Die Wurzel aus der Varianz 𝜎 = •𝑉(𝑋)ist
die Standardabweichung.
Je größer die Varianz bzw. die Standardabweichung ist, umso schlechter eignet sich der EW als ein Wert
für eine Vorhersage bzw. umso mehr streuen die Werte um den EW.
Beispiel:
1
2
Kann eine endliche Zufallsgröße 𝑋: Ω → ℝ nur die Werte 𝑥H , 𝑥O , … , 𝑥I annehmen, so heißt die Funktion
𝑥— → 𝑝— = 𝑃(𝑋 = 𝑥— ) mit 𝑖 ∈ {1; 2; … ; 𝑛} Wahrscheinlichkeitsverteilung der Zufallsgröße X. Die
Funktion F mit 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) nennt man Verteilungsfunktion von X.
Beispiel: Zwei sechsseitige Würfel werden geworfen und die Augenzahl addiert.
Wahrscheinlichkeitsverteilung (tabellarisch):
𝑥I 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
𝑝I
36 36 36 36 36 36 36 36 36 36 36
Wahrscheinlichkeitsverteilung im Histogramm:
Verteilungsfunktion:
3.3 Binomialverteilung
3.3.1 Bernoulli-Ketten
Einleitung/Herleitung:
œ gibt. E
Ein Zufallsversuch wird als Bernoulli-Versuch bezeichnet, wenn es nur zwei Ausgänge E und E
œ als Niete (Misserfolg) bezeichnet. Die Wahrscheinlichkeit p für das
wird als Treffer (Erfolg) und E
Eintreten von E wird als Trefferwahrscheinlichkeit bezeichnet.
Beispiele:
• Beim Werfen einer Münze: „Kopf“ oder „Zahl“
• Beim Werfen eines Würfels: „Sechs“ oder „Keine Sechs“
• Beim Werfen eines Reißnagels: „Kopflage“ oder „Schräglage“
Wiederholt man einen Bernoulli-Versuch n-mal in exakt gleicher Weise, so spricht man von einer
Bernoulli-Kette der Länge n mit der Trefferwahrscheinlichkeit p.
Lösung: Jeder Pfad der zu diesem Ereignis gehört, besitzt zwei Erfolge (1/6) und zwei Misserfolge (5/6)
Daher errechnet sich die Wahrscheinlichkeit jedes Pfades gleich:
𝟒 𝟏 𝟏 𝟓 𝟓 4
→ 𝑃(𝑋 = 2) = p q ∙ p𝟔q ∙ p𝟔q ∙ p𝟔q ∙ p𝟔q ... p q ist dabei die Anzahl der „günstigen“ Pfade für das
𝟐 2
Ereignis. Die Anzahl der Pfade ergibt sich aus der kombinatorischen Überlegung heraus, wie viele
Möglichkeiten es gibt, die zwei „Erfolge“ bei 4 Versuchen zu verteilen (bzw. 2 von 4 Positionen
auszuwählen). Dieses Vorgehen lässt sich für beliebig lange Bernoulli-Ketten wie folgt verallgemeinern:
Liegt eine Bernoulli-Kette der Länge n mit der Wahrscheinlichkeit p vor, so wird die Wahrscheinlichkeit
für X = k Treffer mit 𝐵(𝑛; 𝑝; 𝑘) 𝑏𝑧𝑤. 𝐵I,¢ (𝑘) bezeichnet und wie folgt berechnet:
𝒏
𝑷(𝑿 = 𝒌) = 𝑩(𝒏; 𝒑; 𝒌) = p q ∙ 𝒑𝒌 ∙ (𝟏 − 𝒑)𝒏§𝒌 𝑪𝑨𝑺: 𝒃𝒊𝒏𝒐𝒎𝒊𝒂𝒍𝑷𝑫𝒇(𝒌, 𝒏, 𝒑)
𝒌
Beispiel: Ein Multiple-Choice-Test enthält vier Fragen mit jeweils drei Antwortmöglichkeiten Er
gilt als bestanden, wenn mindestens zwei Fragen richtig beantwortet werden. Ein ganz und gar
ahnungsloser Zeitgenosse versucht den Test durch zufälliges Ankreuzen zu bestehen. Wie groß
sind seine Chancen? Ereignis A ... der Test wird bestanden (mindestens 2 richtige Antworten).
1 2
𝑝 = ;1 − 𝑝 =
3 3
𝑃(𝐴) = 𝑃(𝑘 ≥ 2) = 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) + 𝑃(𝑋 = 4)
4 1 O 2 O 4 1 M 2 H 4 1 R 2 ³
𝑃(𝑋 = 2) = p q ∙ ’ “ ∙ ’ “ ; 𝑃(𝑋 = 3) = p q ∙ ’ “ ∙ ’ “ ; 𝑃(𝑋 = 4) = p q ∙ ’ “ ∙ ’ “
2 3 3 3 3 3 4 3 3
𝑃(𝐴) = 𝑃(𝑋 ≥ 𝑘) = 0,4074 ≈ 41%
n ... Anzahl der Wiederholungen; k ... Anzahl der „Erfolge“; p ... Wahrscheinlichkeit für „Erfolg“
Erwartungswert: 𝝁 = 𝑬𝑿 = 𝒏 ∙ 𝒑
Varianz: 𝑽𝒂𝒓𝑿 = 𝒏 ∙ 𝒑 ∙ (𝟏 − 𝒑)
Standardabweichung: 𝝈 = √𝑽𝒂𝒓𝑿
Start
A ... „Es fällt eine Fünf“
𝑃(𝐵)
B ... „Es fällt eine grüne Fläche“
𝐵 𝐵¿
H
𝑃(𝐴) = N
𝑃P (𝐴)
H
𝑃P (𝐴) = R
𝐴 𝐴̅ 𝐴 𝐴̅
𝑃(𝐴 ∩ 𝐵)
H
Lösung: Die Wahrscheinlichkeit für die Augenzahl Fünf beträgt im Prinzip , da es sechs gleich-
N
wahrscheinliche Ergebnisse 1, 2, 3, 4, 5, 6 gibt. Hat man jedoch die Vorinformation, dass eine grüne Fläche
gefallen ist, so kommen nur noch die Ergebnisse 1, 2, 5 und 6 in Frage, und man wird unter dieser
H
Bedingung die Wahrscheinlichkeit für die Augenzahl Fünf auf R taxieren.
Durch das Eintreten eines bestimmten Ereignisses B kann sich die Wahrscheinlichkeit für das Eintreten
eines weiteren Ereignisses A ändern. Ist das der Fall, so werden A und B als abhängige Ereignisse
bezeichnet. Ändert sich die Wahrscheinlichkeit von A durch das Eintreten von B jedoch nicht, so heißen A
und B unabhängige Ereignisse. Die exakte Definition des Begriffs lautet folgendermaßen:
Definition: Ereignisse A und B mit positiven Wahrscheinlichkeiten werden als stochastisch unabhängig
voneinander bezeichnet, wenn 𝑃P (𝐴) = 𝑃(𝐴)𝑏𝑧𝑤. 𝑃K (𝐵) = 𝑃(𝐵) gilt.
Beispiel: Ein Würfel (W6) wird zweimal geworfen. 𝐴I sei das Ereignis, dass die Augensumme n erzielt
wird. B sei das Ereignis, dass im ersten Wurf eine Priemzahl fäll. Zeigen Sie, dass 𝐴Á und B unabhängig
sind, während 𝐴Â und B abhängig sind.
Lösung:
Vorüberlegung: „Es gibt die Priemzahlen 2,3 und 5“
2 4 2
𝑃P (𝐴Á ) = ; 𝑃(𝐴Á ) = = → 𝑃P (𝐴Á ) = 𝑃(𝐴Á )
18 36 18
3 6 5
𝑃P (𝐴Â ) = = ; 𝑃(𝐴Â ) = → 𝑃P (𝐴Â ) ≠ 𝑃(𝐴Â )
18 36 36
Aufgabe 1: Eine Schule wird von 1036 Schülern besucht, 560 Jungen und 476 Mädchen. 125 Jungen und
105 Mädchen tragen eine Brille. Hängt das Sehvermögen der Kinder vom Geschlecht ab? Begründen Sie
das errechnete Ergebnis bzw. Ihre Schlussfolgerung.
Aufgabe 2: Eine Umfrage unter den Eltern der Schüler aus letzterer Aufgabe ergibt, dass bei 213 Kindern
beide Elternteile Brillenträger sind. In 70 dieser Fälle trägt das Kind ebenfalls eine Brille. Ist das
Sehvermögen der Kinder von dem der Eltern abhängig?
Aufgabe 3: In einer empirischen Untersuchung wird geprüft, ob ein Zusammenhang zwischen blonden
Haaren und blauen Augen bzw. blonden Haaren und dem Geschlecht besteht. Von 842 untersuchten
Personen hatten 314 blonde Haare. Unter den 268 Blauäugigen waren 121 Blonde. 116 von 310 Mädchen
waren blond. Überprüfen Sie die untersuchten Zusammenhänge rechnerisch.
314
𝑳ö𝒔𝒖𝒏𝒈𝒆𝒏: 𝟏) 𝑃Ç (𝐵) = 0,222; 𝑃(𝐵) = 0,221 → 𝑃Ç (𝐵) ≈ 𝑃(𝐵); 𝟐) 𝑃È (𝐵) ≈ 0,33; 𝑃(𝐵) = 0,22 → 𝑃È (𝐵) ≠ 𝑃(𝐵); 𝟑) 𝑃(𝑏𝑙𝑜𝑛𝑑) = ≈ 0,3729;
842
HOH HHN
𝑃ÊËÌÍÎ KÍÏÎI (𝑏𝑙𝑜𝑛𝑑) = ≈ 0,45 → Blond /blaue Augen sind abh. Ereignisse. 𝑃ÇäÐÑÒÎI (𝑏𝑙𝑜𝑛𝑑) = ≈ 0,3742 → Blond /Mädchen sind unabh. Ereignisse.
ONÂ MH³
3.4.3 Der Satz von der totalen Wahrscheinlichkeit und der Satz von Bayes
Die erste Pfadregel („Entlang eines Pfades wird multipliziert.“) ist äquivalent zum Multiplikationssatz für
Schnittereignisse. In entsprechender Weise gibt es eine Äquivalent zur zweiten Pfadregel („Die
Wahrscheinlichkeiten aller Pfade die zum selben Ereignisses gehören werden addiert.“) für
Baumdiagramme, nämlich die folgende Formel der totalen Wahrscheinlichkeit.
Lösung: B... „Die abstimmende Person ist Arbeiter“; A... „Entscheidung für gleitende Arbeitszeit“
Rechnung: 𝑃(𝐴) = 𝑃(𝐵) ∙ 𝑃P (𝐴) + 𝑃(𝐵¿) ∙ 𝑃P¿ (𝐴) = 0,59 ∙ 0,25 + 0,41 ∙ 0,8 = 0,4755
Schlussfolgerung: Die Wahrscheinlichkeit, dass ein beliebiges Mitglied der Belegschaft für die gleitende
Arbeitszeit (Ereignis A) stimmt liegt mit 47,55% unter 50%. Somit ist damit zu rechnen, dass auch bei einer
Gesamtabstimmung die Zustimmung für die gleitende Arbeitszeit nur bei 47,55 % liegt und es somit
aufgrund des Belegschaftsentscheides nicht zu deren Einführung kommt.
Aufgabe: In einem Entwicklungsland leiden ca. 0,1% der Menschen an einer bestimmten
Infektionskrankheit. Ein Test zeigt die Krankheit bei 98% der Kranken korrekt an, während er bei 5% der
Gesunden irrtümlich die Krankheit anzeigt. Mit welcher Wahrscheinlichkeit zeigt der Test bei einer zufällig
ausgewählten Person ein positives Resultat? (Lösen Sie mithilfe eines Baumdiagramms und des Satzes von
der totalen Wahrscheinlichkeit.)
Wir entwickeln im Folgenden eine Formel, die einem Gleichungszusammenhang zwischen den bedingten
Wahrscheinlichkeiten 𝑃P (𝐴) und 𝑃K (𝐵) herstellt. Man spricht daher auch vom sogenannten
Umkehrproblem für bedingte Wahrscheinlichkeiten. Die Formel lässt sich leicht gewinnen, wenn man den
zu den Ereignissen A und B gehörigen Wahrscheinlichkeitsbaum mit dem dazu „inversen“
Baumdiagramm vergleicht.
Inverses
Baumdiagramm: Start Baumdiagramm: Start
𝑃(𝐵) 𝑃(𝐴)
𝐵 𝐴 𝐴̅
𝐵¿
𝑃P (𝐴) 𝑃K (𝐵)
𝐵 𝐵¿ 𝐵 𝐵¿
𝐴 𝐴̅ 𝐴 𝐴̅
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴 ∩ 𝐵)
𝑑𝑎𝑟𝑎𝑢𝑠 𝑓𝑜𝑙𝑔𝑡 𝑑𝑢𝑟𝑐ℎ 𝑔𝑙𝑒𝑖𝑐ℎ𝑠𝑒𝑡𝑧𝑒𝑛 → 𝑃(𝐵) ∙ 𝑃P (𝐴) = 𝑃(𝐴) ∙ 𝑃K (𝐵) durch das Auflösen nach 𝑃P (𝐴) ergibt sich die
sogenannte Formel von Bayes:
Sind A und B Ereignisse mit 𝑃(𝐴) ≠ 0, 𝑃(𝐵) ≠ 0. Dann gelten folgende Formeln:
𝑷(𝑩) ∙ 𝑷𝑩 (𝑨) 𝑷(𝑩) ∙ 𝑷𝑩 (𝑨)
𝑷𝑨 (𝑩) = 𝑷𝑨 (𝑩) =
𝑷(𝑨) 𝑷(𝑩) ∙ 𝑷𝑩 (𝑨) + 𝑷(𝑩œ ) ∙ 𝑷𝑩œ (𝑨)
Dabei ergibt sich die zweite Formel durch das Anwenden des Satzes der totalen Wahrscheinlichkeit
auf den Nennerterm P(B) aus der ersten Formel.
Lösung: K... „Die getestete Person ist krank“ T... „Test positiv“
Rechnung: gesucht wird 𝑃á (𝐾)
œ) ∙ 𝑃àœ (𝑇) "𝑆𝑎𝑡𝑧 𝑣. 𝑑. 𝑡𝑜𝑡𝑎𝑙𝑒𝑛 𝑊𝑎ℎ𝑟𝑠𝑐ℎ. "
𝑃(𝑇) = 𝑃(𝐾) ∙ 𝑃à (𝑇) + 𝑃(𝐾
𝑃(𝑇) = 0,0001 ∙ 0,9 + 0,9999 ∙ 0,02 = 0,020088 →
å(à)∙åæ (á) ³,³³³H∙³,ç
𝑃á (𝐾) = å(á)
= ³,³O³³ÂÂ
≈ 0,45% „S𝑎𝑡𝑧 𝑣. 𝐵𝑎𝑦𝑒𝑠" Abb.: aus Lehrbuch Mathematik Band 2
3.5 Hypothesentests
Einführungsbeispiel: Ein Großhändler erhält eine Importlieferung von Kisten, die sehr viele Schrauben
enthalten. Ein Teil der Kisten ist erste Wahl, d.h. der Anteil der fehlerhaften Schrauben liegt bei 10%. Die
restlichen Kisten sind 2. Wahl, deren Ausschussanteil beträgt 30%.
Da alle Kisten gleich aussehen, wird eine Stichprobe von 20 Schrauben entnommen, um zu testen welche
Qualität vorliegt.
„Nun folgen einige Begriffe, die im Zusammenhang mit den Hypothesentests gängige wissenschaftliche
Standards bilden.“
Hypothesen:
H0-Hypothese: Die Kiste ist 2. Wahl. Kurz kann auch geschrieben werden - H0: p = 0,3
H1-Hypothese: Die Kiste ist 1. Wahl. Kurz kann auch geschrieben werden - H1: p = 0,1
Wahl der kritischen Zahl: K klein – geringes Risiko, dass 2. Wahl als 1. Wahl eingestuft wird
K groß – geringes Risiko, dass 1. Wahl als 2. Wahl eingestuft wird
Annahme-/Verwerfungsbereich:
𝐻 𝑎𝑛𝑛𝑒ℎ𝑚𝑒𝑛 𝐻 𝑎𝑛𝑛𝑒ℎ𝑚𝑒𝑛
𝑋 ∈ {0,1,2} ∶ é H 𝑋 ∈ {3,4,5,6, … ,20} ∶ é ³
𝐻³ 𝑣𝑒𝑟𝑤𝑒𝑟𝑓𝑒𝑛 𝐻H 𝑣𝑒𝑟𝑤𝑒𝑟𝑓𝑒𝑛
Fehler 1. Art: Die Nullhypothese wird verworfen, obwohl sie tatsächlich wahr ist.
Fehler 2. Art: Die Nullhypothese wird angenommen, obwohl sie tatsächlich falsch ist.
0 0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Berechnung des Fehlers 1. Art: (Siehe auch Histogramm Binom. n = 20, p = 0,3)
𝑃("Fehler 1. Art") = 𝐵O³,³,M (𝑘 ≤ 2) ≈ 0,0355 ≈ 3,55%
„Mit einer Wahrscheinlichkeit von 3,55% wird eine Kiste 2. Wahl irrtümlich als Kiste 1. Wahl
eingestuft.“
Berechnung des Fehlers 2. Art: (Siehe auch Histogramm Binom. n = 20, p = 0,1)
𝑃("Fehler 2. Art") = 𝐵O³,³,H (𝑘 > 2) ≈ 0,3231 ≈ 32,31%
„Mit einer Wahrscheinlichkeit von 32,31% wird eine Kiste 1. Wahl irrtümlich als Kiste 2. Wahl
eingestuft.“
Aufgabe: Ein Spieler besitzt eine gefälschte Münze, bei welcher die Wahrscheinlichkeit p für Kopf auf
20% erniedrigt ist. Dem Spieler ist entfallen, ob die Münze in seiner Hosentasche fair oder gefälscht ist,
und er testet sie daher durch 12 Probewürfe. Fällt dabei mehr als viermal Kopf, so stuft er die Münze als
fair ein, andernfalls als gefälscht. Wie groß sind die Irrtumswahrscheinlichkeiten?
Lösung:
H0: Münze ist fair ïH0: p = 0,5 𝑋 > 4 → 𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑𝑢𝑛𝑔 𝑓ü𝑟 𝐻³
H1: Münze ist gefälscht ïH1: p = 0,2 𝑋 ≤ 4 → 𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑𝑢𝑛𝑔 𝑓ü𝑟 𝐻H
𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 1. 𝐴𝑟𝑡) = 𝑃ìí (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻H ) = 𝐵HO,³,Á (𝑋 ≤ 4) = 0,1938 ≈ 19,38%
𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 2. 𝐴𝑟𝑡) = 𝑃ìî (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻³ ) = 𝐵HO,³,O (𝑋 > 4) = 0,0726 ≈ 7,26%
In der Wissenschaft und Forschung hat man häufig das Problem, dass man über die Wirksamkeit eines
Medikaments oder einer Methode (z.B. Impfstoff, Trainingsprogramm) keine Aussagen treffen kann. Das
heißt, die Wahrscheinlichkeit des erhofften Effekts ist unbekannt. Die Signifikanztests bieten hier eine
Möglichkeit (meist über Studien mit vielen Probanden bzw. großer Stichprobe) auf die unbekannte
Wahrscheinlichkeit und somit auf die Wirksamkeit zu schließen.
Hypothesen:
H0-Hypothese: Das Medikament ist nur genauso gut wie das alte Medikament ïH0: p = 0,5
H1-Hypothese: Das Medikament ist besser als das alte Medikament ïH1: p > 0,5
Stichprobe: n = 50; Prüfgröße: X = „Anzahl Probanden, bei denen das Medikament ausreichend wirkt.“
Fehler 1. Art: Die Irrtumswahrscheinlichkeit dafür, dass man davon ausgeht, das Medikament würde
besser wirken, obwohl es höchstens genauso gut wirkt.
𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 1. 𝐴𝑟𝑡) = 𝑃ìí (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻H ) = 𝐵Á³,³,Á (𝑋 > 30) = 0,0595 ≈ 5,95%
Fehler 2. Art: Muss nicht konkret berechnet werden, da hier nur interessiert, ob das Medikament besser
wirkt als das Alte (p > 0,5 ?). Es bedarf einer konkreten Wahrscheinlichkeit z.B. p = 0,6.
Das Signifikanzniveau (Wahrscheinlichkeit sich bei seiner Hypothese zu irren) des Tests: 𝛼 = 5,95%
In der Praxis versucht man häufig umgekehrt zum Einführungsbeispiel 1 vorzugehen und legt im Vorfeld
einer Testung das Signifikanzniveau selbst fest (üblich sind hierbei 1% oder 5%, seltener 0,1 oder 10%).
Ausgehend von dieser Festlegung konstruiert man (berechnet man) die Entscheidungsregel für die
Annahme bzw. die Verwerfung der Hypothesen.
Fehler 1. Art: Die Irrtumswahrscheinlichkeit dafür, dass man davon ausgeht, das Medikament würde
besser wirken, obwohl es höchstens genauso wirkt.
𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 1. 𝐴𝑟𝑡) = 𝑃ìí (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻H ) = 𝐵Á³,³,Á (𝑋 > 𝑘) = 0,01
Systematisches Probieren: 𝐵Á³,³,Á (𝑋 > 30) = 0,0595
Systematisches Probieren: 𝐵Á³,³,Á (𝑋 > 31) = 0,0325
Systematisches Probieren: 𝐵Á³,³,Á (𝑋 > 32) = 0,0164
Systematisches Probieren: 𝐵Á³,³,Á (𝑋 > 33) = 0,0077 < 0,01 ‼!
Ab einer kritischen Zahl von K > 33 kann das Signifikanzniveau von höchstens 1% sichergestellt
werden.
Aufgabe: Die Behauptung H1, dass mehr als 20% aller Abc-Schützen Linkshänder sind, soll anhand einer
Stichprobe von 80 Kindern getestet werden. Findet man mehr als 20 Linkshänder, so wird H1 als zutreffend
eingestuft.
a) Wie groß ist das Signifikanzniveau des Tests (Irrtumswahrscheinlichkeit 1. Art)
b) Wie muss der Annahme-/Verwerfungsbereich gewählt werden, um ein Signifikanzniveau von 5%
sicherzustellen.
c) Mit welcher Wahrscheinlichkeit wird die Behauptung verworfen, wenn der wahre Anteil von
Linkshändern unter allen Abc-Schützen 30% beträgt?
Lösung:
H0: höchstens 20% Linkshänder ïH0: p = 0,2 𝑋 ≤ 20 → 𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑𝑢𝑛𝑔 𝑓ü𝑟 𝐻³
H1: mehr als 20% Linkshänder ïH1: p > 0,2 𝑋 > 20 → 𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑𝑢𝑛𝑔 𝑓ü𝑟 𝐻H
𝑎) 𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 1. 𝐴𝑟𝑡) = 𝑃ìí (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻H ) = 𝐵³,³,O (𝑋 > 20) = 0,1066 ≈ 10,66%
𝑏) 𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 1. 𝐴𝑟𝑡) = 𝐵³,³,O (𝑋 > 𝑘) = 0,05 → 𝑆𝑦𝑠𝑡𝑒𝑚𝑎𝑡𝑖𝑠𝑐ℎ𝑒𝑠 𝑃𝑟𝑜𝑏𝑖𝑒𝑟𝑒𝑛: 𝑘 > 23
𝑐) 𝑃(𝐹𝑒ℎ𝑙𝑒𝑟 2. 𝐴𝑟𝑡) = 𝑃ìî (𝐸𝑛𝑡𝑠𝑐ℎ𝑒𝑖𝑑. 𝑓ü𝑟 𝐻³ ) = 𝐵³,³,M (𝑋 ≤ 20) = 0,1978 ≈ 19,78%