Sie sind auf Seite 1von 211

Statistische Datenanalyse und

Versuchsplanung
Wahlpflicht für Studenten der
Biotechnologie

2 SWS IV (VL/Ü/PR) ⇒ Abschluss: Übungsnote

U. Römisch
http:// www.lmtc.tu-berlin.de/angewandte_statistik_und_consulting
LITERATUR zur Lehrveranstaltung
„Statistische Datenanalyse und Versuchsplanung“
/1/ Autorenkollektiv (2004):
Einführung in die Biometrie.
Richter , Ch.: 1- Grundbegriffe und Datenanalyse
Sumpf, D. und E. Moll: 2- Schätzen eines Parameters und Vergleich von bis zu
zwei Parametern
Schumacher, E.: 3- Vergleich von mehr als zwei Parametern
Rasch, D. und R. Verdooren: 4- Grundlagen der Korrelations- und Regressionsanalyse.
2. Aufl., Saphir- Verl. Ribbesbüttel

/2/ Bärlocher, F. (2008):


Biostatistik.
2. Aufl., Thieme Verl. Stuttgart

/3/ Bortz, J., G. A. Lienert u. K. Boehnke (1990):


Verteilungsfreie Methoden in der Biostatistik.
Springer- Verl. Berlin

/4/ Fahrmeir, L., R. Künstler, I. Pigeot u. G. Tutz (2004):


Statistik- Der Weg zur Datenanalyse.
5. Aufl., Springer- Verl. Berlin
/5/ Hartung, J. u. a. (1989):
Statistik. Lehr- und Handbuch der angewandten Statistik.
7. Aufl., Oldenbourg Verl. München

/6/ Klein, Bernd (2007):


Versuchsplanung- DoE. Einführung in die Taguchi/Shainin- Methodik.
2. Aufl. Oldenbourg Verl. München

/7/ Kleppmann, W. (2006):


Taschenbuch Versuchsplanung
4. Auflage Hanser Verl. München

/8/ Rudolf, M. u. W. Kuhlisch (2008)


Biostatistik- Eine Einführung für Biowissenschaftler.
Pearson Studium, München

/9/ Stahel, W. (1999):


Statistische Datenanalyse - Eine Einführung für Naturwissenschaftler.
2. Aufl., Vieweg Verl. Braunschweig/ Wiesbaden

/10/ Timischl, W. (2000)


Biostatistik- Eine Einführung für Biologen und Mediziner.
2. Aufl., Springer Verl. Berlin
Inhaltsverzeichnis
EINLEITUNG
1. Was versteht man unter Statistik, Biometrie, Chemometrie,
Ökonometrie und Technometrie und stat. Versuchs-
planung?

2. Wie lügt man mit Statistik?


● Umfragen
● Mittelwert- und Streuungsmaße
● Grafiken
Teil I: Statistische Datenanalyse

1. Beschreibende und explorative Methoden


1.1 Charakterisierung von Merkmalen
1.2 Grundgesamtheit und Stichprobe
1.3 Die Häufigkeitsverteilung diskreter und stetiger eindim.
Merkmale
- absolute u. relative Häufigkeiten und ihre grafische
Darstellung, empirische Verteilungsfunktion

1.4 Lage- und Streuungsmaße, Schiefe und Exzeß


- arithm. Mittel, Median, gestutztes Mittel, Modalwert,
geometrisches Mittel, α- Quantil
- Spannweite, Medianabstand, Quartilsabstand, Varianz,
Standardabweichung, Standardfehler des arithm.
Mittelwertes, Variationskoeffizient, Box- und Whisker Plots
- zufällige und systematische Fehler
- Schiefe und Exzess

1.5. Zweidimensionale Merkmale


- grafische Darstellung (XY-Scatterplot)
- 2-dim. Häufigkeitsverteilung
- Zusammenhangsmaße (Maß- und Rangkorrelations-
koeffizient)
- lineare Regression (einf. und multiple lineare Regression)
2. Wahrscheinlichkeitsrechnung

2.1 Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße


2.2 Parameter von Verteilungen (Erwartungswert u. Varianz)
2.3 Normalverteilung
2.4 Prüfverteilungen (χ2-, t- u. F- Verteilung)

3. Schließende Methoden

3.1 Punktschätzungen, Konfidenzintervalle


3.2 Statistische Tests
3.2 Varianzanalyse
Teil 2: Statistische Versuchsplanung
4. Einführung in die stat. Versuchsplanung
4.1 Arten statistischer Versuchspläne

- Faktorielle Versuchspläne 1. Ordnung 2k und 2k-1


- Zentral zusammengesetzte Versuchspläne
- Mischungspläne

4.2 Beispiele zu stat. Versuchsplänen


- Herstellung eines chemischen Produktes
- Entwicklung eines glutenfreien und ballaststoff-
angereicherten Gebäckes mit optimalen Eigenschaften

In einer Übung am PC werden mit einem Statistikprogramm


konkrete Datensätze ausgewertet.
EINLEITUNG

1. Was ist Statistik? (Biometrie, Technometrie, Ökonometrie)


Statistik ist die Wissenschaft des Sammelns, Analysierens
und Interpretierens von Daten.

Sie beantwortet die Fragen:


1. Wie gewinnt man welche Daten?
2. Wie kann man Daten beschreiben? und
3. Welche Schlüsse kann man aus Daten ziehen?
Teilgebiete:

Beschreibende Statistik
Wahrscheinlichkeitstheorie Stat. DA
Stochastik Schließende Statistik Stat. VP
2. Wie lügt man mit Statistik?
Bsp. 1: Wir leben im Zeitalter der Umfragen!

Bsp. 2: Mittelwert- und Streuungsmaße

Bsp. 3: Vorsicht bei Grafiken!


1.Teil: Statistische Datenanalyse

1. Beschreibende
Methoden

s. /11/ Stahel
Die Beschreibende und explorative Statistik dient
der Beschreibung, Strukturierung und
Verdichtung umfangreichen Datenmaterials.
Wie erhält man nun Daten und welcher Art sind die Daten?

Erhebungen und Versuche

Ziel: Kenntnisse über die Eigenschaften bestimmter Objekte


(z.B. Anlagen, Messmethoden, Weinproben, Hefestämme)
oder Individuen (z.B. Personen, Tiere, Pflanzen) zu
erhalten
• Erhebungen ⇒ Ist-Standsanalysen

• Versuche ⇒ - Vergleich von Gruppen


- Untersuchung von Zusammenhängen
zwischen Merkmalen
1.1. Charakterisierung von Merkmalen

Die Objekte/ Individuen, an denen Beobachtungen vorge-


nommen werden, heißen Beobachtungseinheiten
(Merkmalsträger).
Dabei ist kein Objekt/ Individuum mit einem anderen
identisch. Diese Unterschiedlichkeit nennt man Variabilität.
Die Variabilität biologischer Objekte/ Individuen ist häufig
genetisch oder umweltbedingt.

- Die Größen oder Eigenschaften, auf die sich die


Beobachtungen beziehen, heißen Merkmale.

- Jedes Objekt/ Individuum ist durch eine spezielle Merkmals-


ausprägung gekennzeichnet.

- Alle beobachteten Werte eines Merkmals heißen


Merkmalswerte.
Klassifizierung von Merkmalen
Merkmale
1.

Qualitative Merkmale Quantitative Merkmale


(Unterscheidung durch Art) (Unterscheidung durch Größe)
Bsp.: Geschlecht, Rasse, Sorte, Bsp.: Alter, Gewicht, Masse, Länge,
Land, Hefestamm, Aroma Volumen, Einkommen, Wasser- u.
Lufttemperatur, Konzentration,
Zellzahl
2. Merkmale

Diskrete Merkmale Stetige Merkmale


(endlich viele oder abzählbar unendlich (überabzählbar unendlich viele Aus-
viele Merkmalsausprägungen) prägungen, d.h. Werte im reellen
Zahlenintervall)
Bsp.: Geschlecht, Rasse, Sorte, Land,
Hefestamm, Aroma, Zellzahl Bsp.: Alter, Gewicht, Masse, J
3. Merkmale

Nominalskalierte Ordinalskalierte Metrisch skalierte


Merkmale Merkmale Merkmale
(Skala mit niedrigstem (Skala mit höherem (Skala mit höchstem
Niveau, keine Niveau, Werte unter- Niveau, Abstände
Vergleichbarkeit oder scheiden sich in ihrer zwischen den Werten
Rangfolge zwischen Intensität, ermöglichen sind interpretierbar)
den Werten) eine Rangfolge-
Bsp.: Geschlecht, Rasse, ordnung, jedoch keine Bsp.: Alter, Gewicht, Masse,
Interpretation der Länge, Volumen, Ein-
Sorte, Land,
Abstände zwischen kommen, Wasser- u.
Hefestamm,
den Rängen) Lufttemperatur, Zell-
Aroma
zahl, Konzentration,
Bsp.: Aroma, Härtegrad,
sensor. Parameter,
Zensuren
Intervallskala Proportions-
skala
1.2. Grundgesamtheit und Stichprobe
Daten kann man durch Befragung von Personen (Erhebungen)
oder durch Experimente (Messungen) gewinnen.

Experimente

Passive Experimente Aktive Experimente

Alle Beobachtungswerte Aktive Planung der Experimente


ergeben sich zufällig vor deren Durchführung, Planung
während des Versuches! der Versuchsbedingungen

Anwendung der Methoden


der statistischen
Kombinierte Experimente Versuchsplanung (SVP)!
Methoden der statistischen Versuchsplanung

Ziel: Erzielen von Ergebnissen mit ausreichender


Sicherheit und Genauigkeit bei minimaler Anzahl
von Versuchen

Problem

Planung

3 (4) Versuchsetappen: Durchführung

Auswertung
Bsp.: Herstellung einer Chemikalie

Mittelwerte der Ausbeute mit Konfidenzintervall


68,012 (66,48,69,55)

(+++)
55,387 (53,85,56,92)
62,387 (60,85,63,92)

Katalysator
54,012 (52,48,55,55)
68,887 (67,35,70,42)

56,112 (54,58,57,65)
61,813 (60,28,63,35)

53,287 (51,75,54,82)
Zeit (- - -) Temperatur
Def.: Die Menge aller möglichen Werte eines Merkmals nennt
man Grundgesamtheit.
Eine endliche Teilmenge der Grundgesamtheit nennt
man Stichprobe.
Besteht die Teilmenge aus n Elementen, so heißt n
Stichprobenumfang.
Def.: Der Gesamtheit der Merkmalswerte entspricht eindeutig
eine Gesamtheit von Beobachtungseinheiten
(Merkmalsträgern), die man ebenfalls als Grundgesamt-
heit oder Population bezeichnet.
Die Grundgesamtheit muss bei jeder Aufgabenstellung
festgelegt werden!
Eine Grundgesamtheit kann auch unendlich viele Elemente
enthalten, denn theoretisch können wir den Versuch unendlich
oft wiederholen.
Mathematische Statistik

Beschreibende Schließende Wahrscheinlichkeits-


Statistik Statistik rechnung

Induktionsschluss

Stichprobe Grundgesamtheit

Deduktionsschluss
Was ist bei einer Stichprobenentnahme zu
beachten?

Die Stichprobenauswahl muss so erfolgen, dass die


Stichprobe die Grundgesamtheit repräsentiert!
1. Zufälligkeit der Stichprobe
2. Vermeiden systematischer Fehler
3. Umfang der Stichprobe
Optimaler Stichprobenumfang ist abhängig von :
- zeitlichen, arbeitstechnischen und finanziellen Faktoren
- Wahl des statistischen Modells
- Genauigkeit der Ergebnisse
- Umfang der Grundgesamtheit

4. Homogenität und gleiche Genauigkeit


5. Vergleichbarkeit
1.3. Die Häufigkeitsverteilung diskreter und
stetiger eindim. Merkmale

Bei einem Versuch wird an n Beobachtungseinheiten ein


Merkmal X beobachtet, d.h. an jeder Einheit wird die
Ausprägung dieses Merkmals festgestellt.

Sind a1,...,am die möglichen Ausprägungen des Merkmals X,


so wird also der i-ten Beobachtungseinheit (i=1,...n) seine
Ausprägung aj als Merkmalswert xi zugeordnet:

xi = aj (i)

Merkmalswert Beobachtungseinheit
Ausprägung
Schritte der Datenerfassung und -aufbereitung:

1. Schritt: Erfassung der Daten eines oder mehrerer


Merkmale

Stichprobe (ungeordnete Urliste): Merkmalswerte x1,...,xn

Variationsreihe (geordnete Urliste): x(1) ,...,x(n) ,


wobei x(1) ≤... ≤ x(n)

Skalierung der Ausprägungen: a1,J,am


Bsp.: Weindaten
Nr. Land Art Rebsorte Histamingehalt Butandiolgehalt
i L A R H [mg/l] B [g/l]
1 l1 a1 r1 h1 b1
J J J J J J
7 l7 = 5 a7 = 2 r7 = 2 h7 = 0,4 b7 = 0,49
J J J J J J
n ln an rn hn bn

Art:
Skalierung: ai = 1 = „Rotwein“
Land: 2 = „Weißwein“
li = 1 = „Deutschland“ 3 = „Roséwein“
2 = „Bulgarien“ Rebsorte:
3 = „Österreich“ ri = 1 = „Cabernet Sauvignon“
4 = „Frankreich“ 2 = „Chardonnay“
5 = „Australien“ 3 = „Merlot“
4 = „Riesling“
2. Schritt: Ermittlung der abs. und rel. Häufigkeiten

2.1. (Primäre) Häufigkeitsverteilung (HV) bei diskreten


Merkmalen
Def.: Beobachtet man an n Beobachtungseinheiten ein
Merkmal X, das in m Ausprägungen a1,...,am
vorkommt, so heißt
fn(aj) = "Anzahl der Fälle, in denen aj auftritt" für j=1,...,m
absolute Häufigkeit der Ausprägung aj.

Bem.: - Σ fn(aj) = n
- Die abs. Häufigkeiten hängen vom Stichproben-
umfang n ab
Def.: Die relative Häufigkeit
hn(aj) = (1/n) fn(aj) für j=1,...,m
gibt den Anteil der Beobachtungseinheiten bezogen
auf n an, die die Ausprägung aj haben.
Bem.: - Σ hn(aj) = 1
- 0 ≤ hn(aj) ≤ 1
- Die Folge der relativen Häufigkeiten hn(a1),...,hn(am)
heißt rel. Häufigkeitsverteilung des Merkmals X.

2.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen


Merkmalen (mit Klassenbildung)
- Da stetige Merkmale in sehr vielen Ausprägungen auftreten,
fasst man verschiedene Ausprägungen in Klassen
zusammen.
- Man zerlegt das Intervall, in dem alle Beobachtungswerte
liegen in m Klassen: K1,...,Km mit Kj = (yj-1; yj] ; j=1,...,m
mit den Klassengrenzen: yj-1 und yj
und den Klassenmitten: xj = (yj-1+yj) /2

- Die Anzahl der Klassen wählt man häufig m ≤ n


(oder 5 ≤ m ≤ 20), wobei n der Stichprobenumfang ist.

- Der Abstand d =yj - yj-1 für j=1,...,m heißt Klassenbreite.


(äquidistante Klassen)

Bem.: Durch die Angabe der unteren Anfangsklassengrenze


y0 und die Klassenbreite d oder durch y0, ym und m
wird eine Klasseneinteilung eindeutig bestimmt.
Def.: Als absolute Klassenhäufigkeit bezeichnet man
fn(xj) = "Anzahl der Beobachtungswerte in der j- ten
Klasse mit der Klassenmitte xj" (j=1,...,m)

Def.: Als relative Klassenhäufigkeit bezeichnet man


hn(xj) = (1/n) · fn(xj)

Bem.: Die Folge der relativen Häufigkeiten hn(x1),...,hn(xm)


heißt rel. Häufigkeitsverteilung des stet. Merkmals X.
3. Schritt: Grafische Darstellungen
- Stabdiagramm (Strecken- oder Linien-
hn(aj)
diagramm)
● über jeder Ausprägung auf der Abszisse
wird die zugehörige Häufigkeit als
senkrechte Strecke abgetragen, aj
● besonders für diskrete Merkmale geeignet, a1...
z.B.: Anzahl der Stillstände einer Anlage,
Aromastufen, Hefestämme, Schrotarten
hn(aj)
- Häufigkeitspolygon
● erhält man durch Verbindung der End-
punkte der Strecken des Stabdiagramms,
● besonders zur Darstellung zeitlicher aj
a1...
Verläufe geeignet,
z.B.: monatliche Entwicklung der Arbeits-
losenzahlen
- Histogramm hn(xj)

● Häufigkeiten werden als


aneinanderstoßende Rechtecke
dargestellt, deren Flächen proportional
den Häufigkeiten sind, xj
● besonders für stetige Merkmale geeignet x1
y0 y1 J

- Flächendiagramme, z.B.:
Kreisdiagramme 13%

● Häufigkeiten werden durch Flächen 13%


repräsentiert, 57%
● zur Strukturdarstellung geeignet, 17%

z.B.: Anzahl der Beschäftigten in ver-


schiedenen Wirtschaftszweigen,
Wahlergebnisse
4. Schritt: Ermittlung der empirischen Verteilungsfunktion

4.1. (Primäre) Häufigkeitsverteilung bei diskreten


Merkmalen (ohne Klassenbildung)

Def.: Die absolute Summenhäufigkeit der j- ten Ausprägung


aj ist die Anzahl der Beobachtungseinheiten, bei denen
eine Ausprägung ≤ aj beobachtet wurde, d.h.
j

fn(a1) + ... + fn(aj) = ∑ f (a


k =1
n k ) ; j=1,...,m

Def.: Die relative Summenhäufigkeit der j- ten Ausprägung


gibt den Anteil der Beobachtungseinheiten an, bei
denen eine Ausprägung ≤ aj beobachtet wurde, d.h.
j
hn(a1) + ... + hn(aj) = ∑ h (a
k =1
n k ) ; j=1,J,m
Durch die Folge der relativen Summenhäufigkeiten wird die
empirische Verteilungsfunktion des Merkmals X bestimmt.

Def.: Die empirische Verteilungsfunktion des Merkmals X


ist eine Funktion über dem Bereich der reellen Zahlen R

 0 ; x < a1
 j
F̂n ( x ) = ∑ hn (ak ) ; a j ≤ x < a j+1 j = 1,..., m
 k =1
(x∈R)  1 ; x ≥ am
Bem.: Die empirische Verteilungsfunktion ist auf jedem
Intervall [aj,aj+1) konstant und springt bei aj+1 um den
Wert hn(aj+1) nach oben. Die erste Sprungstelle liegt bei
der kleinsten, die letzte bei der größten beobachteten
Merkmalsausprägung.

F̂n (x)
1

hn(a1)+ hn(a2)
hn(a1)
x
a1 a2
Ausprägungen
4.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen
Merkmalen (mit Klassenbildung)

Def.: Die absolute Klassensummenhäufigkeit der j- ten


Klasse ist die Anzahl der Beobachtungswerte, die in
einer Klasse mit einer Klassenmitte ≤ xj liegen, d.h.
j

fn(x1) + ... + fn(xj) = ∑ f (x


k =1
n k ) ; j=1,...,m

Def.: Die relative Klassensummenhäufigkeit der j- ten


Klasse gibt den Anteil der Beobachtungswerte an, die
in einer Klasse mit der Klassenmitte ≤ xj liegen, d.h.
j
hn(x1) + ... + hn(xj) = ∑h (x
k =1
n k ) ; j=1,...,m

Durch die Folge der relativen Klassensummenhäufigkeiten


wird die empirische Verteilungsfunktion von X bestimmt!
Def.: Die empirische Verteilungsfunktion des Merkmals X,
deren Beobachtungswerte in Klassen vorliegen, hat
folgende Gestalt:

 0 ; x < x1
 j
F̂n ( x ) = ∑ hn ( x k ) ; x j ≤ x < x j+1 j = 1,...,m
 k =1
 1 ; x ≥ xm

Bem.: Die empirische Verteilungsfunktion an der Stelle x ist


die Summe der relativen Häufigkeiten aller Klassen,
deren Mitten xj ≤ x sind. Als Sprungstellen werden jetzt
die Klassenmitten verwendet.
Bsp.: Weindaten- stet. Merkmal Butandiolgehalt

Sekundäre Verteilungstabelle (y0 = 0 ; d = 0,25):

Kl.Nr. Kl.grenzen Kl.mitte abs.Häuf. rel.Häuf. abs.K.S.H. rel.K.S.H.


j (yj-1 ; yj] xj fn(xj) hn(xj)
------------------------------------------------------------------------------------------------------
0 (- ∞ ; 0]
1 (0 ; 0,25] 0,125 f1 h1 f1 h1
2 (0,25 ; 0,50] 0,375 f2 h2 f1+f2 h1+h2

M M M M

7 (1,50 ; 1,75] 1,625 f7 h7 n 1


(1,75 ; ∞)

j=1,J.m
Bem.: Die empirische Verteilungsfunktion ist auf jedem
Intervall [xj,xj+1) konstant und springt bei xj+1 um den
Wert hn(xj+1) nach oben. Die erste Sprungstelle liegt bei
der kleinsten, die letzte bei der größten Klassenmitte.

F̂n (x)
1

hn(x1)+ hn(x2)
hn(x1)
x
x1 x2
Klassenmitten
Bsp.1: Kolonien von Mikroorganismen (s. /9/)

Aufgabe: Untersuchung der Eigenschaften von Mikro-


organismen in der Luft

Versuch: Nährboden auf Agarplatte wurde 30 min. bei


Zimmertemperatur offen im Raum stehen gelassen,
nach Inkubation über 3 Tage waren 40 Pilz- bzw.
Bakterienkolonien gewachsen, von denen der
Durchmesser, die Antibiotikaresistenz, sowie die
Farbe bestimmt wurden.
1. Frage: Wie kann man die Verteilung der Merkmale
beschreiben?
Unterscheiden sich die Verteilungen der Durch-
messer zwischen den Kolonien unterschiedlicher
Farbe?
1. Schritt: Datenerfassung und Merkmalsklassifizierung

X: Durchmesser [mm] – quantitativ, stetig, metrisch skaliert


Y: Antibiotikaresistenz [-] – qualitativ, diskret, ordinal skaliert
Ausprägungen: 1- sehr sensitiv,
2- sensitiv,
3- intermediär,
4- resistent,
5- sehr resistent
Z: Farbe [-] – qualitativ, diskret, nominal skaliert
Ausprägungen: 1- gelb,
2- weißlich,
3- braun,
4- orange,
5- farblos,
6- rosa,
7- grün
2. Schritt: Erfassung der Daten (Stichprobe)
Nr. i Durchmesser xi Resistenz yi yi cod Farbe zi zi cod

1 0,5 sehr sensitiv 1 gelb 1


2 4,1 sensitiv 2 gelb 1
J J J J J
14 2,1 resistent 4 weißlich 2
J J J J J
28 0,2 sehr sensitiv 1 orange 4
29 1,5 sensitiv 2 orange 4
30 2,8 intermediär 3 farblos 5
J J J J J
34 4,2 resistent 4 rosa 6
J J J J J
38 10,1 sehr sensitiv 1 braun 3
39 3,3 intermediär 3 grün 7
40 4,2 intermediär 3 grün 7
3. Schritt: Bestimmung der empir. Häufigkeitsverteilung
Merkmal X: Durchmesser
Frequency Tabulation for Durchmesser

--------------------------------------------------------------------------------
Lower Upper Relative Cumulative Cum. Rel.
Class Limit Limit Midpoint Frequency Frequency Frequency Frequency
--------------------------------------------------------------------------------
at or below 0,0 0 0,0000 0 0,0000
1 0,0 2,0 1,0 3 0,0750 3 0,0750
2 2,0 4,0 3,0 7 0,1750 10 0,2500
3 4,0 6,0 5,0 10 0,2500 20 0,5000
4 6,0 8,0 7,0 10 0,2500 30 0,7500
5 8,0 10,0 9,0 7 0,1750 37 0,9250
6 10,0 12,0 11,0 3 0,0750 40 1,0000
above 12,0 0 0,0000 40 1,0000
--------------------------------------------------------------------------------

Histogram (abs. frequencies) Histogram (rel. cumulative frequencies) Box-and-Whisker Plot


10 100 12
percentage [%]

10

Durchmesser
8 80
frequency

8
6 60
6
4 40
4
2 20 2

0 0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Durchmesser Durchmesser
Merkmal Y: Antibiotikaresistenz (Ausprägungen hier nicht codiert!)
Frequency Table for Antibiotikaresistenz

------------------------------------------------------------------------
Relative Cumulative Cum. Rel.
Class Value Frequency Frequency Frequency Frequency
------------------------------------------------------------------------
1 intermediär 8 0,2000 8 0,2000
2 resistent 6 0,1500 14 0,3500
3 sehr resistent 4 0,1000 18 0,4500
4 sehr sensitiv 13 0,3250 31 0,7750
5 sensitiv 9 0,2250 40 1,0000
------------------------------------------------------------------------

Barchart for Antibiotikaresistenz


15

12
frequency

3
Piechart for Antibiotikaresistenz

0 22,50% 20,00%
intermediär resistent sehr resistent
sehr sensitiv sensitiv

15,00%
Antibiotikaresistenz
intermediär
Kategorien weisen hier keine Ordnung auf! 32,50% 10,00%
resistent
sehr resistent
sehr sensitiv
sensitiv
Merkmal Y: Antibiotikaresistenz (Ausprägungen hier numerisch codiert!)
Frequency Tabulation for Antibiotikaresistenz_1

Ausprägungen
--------------------------------------------------------------------------------
Lower Upper Relative Cumulative Cum. Rel.
Class Limit Limit Midpoint Frequency Frequency Frequency Frequency
--------------------------------------------------------------------------------
at or below 0,5 0 0,0000 0 0,0000
1 0,5 1,5 1,0 13 0,3250 13 0,3250
2 1,5 2,5 2,0 9 0,2250 22 0,5500
3 2,5 3,5 3,0 8 0,2000 30 0,7500
4 3,5 4,5 4,0 6 0,1500 36 0,9000
5 4,5 5,5 5,0 4 0,1000 40 1,0000
above 5,5 0 0,0000 40 1,0000
--------------------------------------------------------------------------------

Histogram
15
Ordnung zwischen den Kategorien
12
frequency

9
Dot Diagram
6
13
3
Frequency

0
0 1 2 3 4 5 6
Antibiotikaresistenz_1

0
0 1 2 3 4 5
Antibiotikaresistenz_1
Merkmal Z: Farbe (Ausprägungen hier nicht codiert!)
Frequency Table for Farbe

------------------------------------------------------------------------
Relative Cumulative Cum. Rel.
Class Value Frequency Frequency Frequency Frequency
------------------------------------------------------------------------
1 braun 1 0,0250 1 0,0250
2 farblos 4 0,1000 5 0,1250
3 gelb 13 0,3250 18 0,4500
4 grün 2 0,0500 20 0,5000
5 orange 2 0,0500 22 0,5500
6 rosa 4 0,1000 26 0,6500
7 weißlich 14 0,3500 40 1,0000
------------------------------------------------------------------------

Barchart for Farbe


Kategorien weisen keine Ordnung auf!
15

12
frequency

9 Piechart for Farbe


2,50%
6 10,00%

3 35,00%

0 Farbe
braun
braun farblos gelb grün orange rosa weißlich
32,50% farblos
gelb
grün
orange
10,00%
rosa
5,00% 5,00%
weißlich
Vergleich der rel. Häufigkeitsverteilungen der Durchmesser
zwischen den Kolonien unterschiedlicher Farbe

Histogram Histogram
40 30
25
percentage

percentage
30
20
20 15
10
10
5
0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Durchmesser der gelben Kolonien Durchmesser der weißlichen Kolonien

Histogram
40
percentage

30

20

10

0
-1 1 3 5 7 9 11
Durchmesser der sonstigen Kolonien
2. Frage: Wie kann man mittels statistischer Maßzahlen einen
quantitativen Vergleich der Häufigkeitsverteilungen
vornehmen?
Wie unterscheiden sich die mittleren Durchmesser
zwischen den Kolonien unterschiedlicher Farbe, wie
stark streuen die Werte?

1.4 Lage- und Streuungsmaße, Schiefe und Exzeß

1.4.1 Lagemaße
1. Mittelwertmaße
Mittelwertmaße geben an, wo sich das Zentrum einer
Häufigkeitsverteilung befindet.
● Arithmetischer Mittelwert
Seien x1, ... ,xn die Beobachtungswerte des Merkmals X

1 n
x = ∑ xi
n i =1
Vorteile: - der arithm. Mittelwert einer Stichprobe ist ein
unverzerrter Schätzwert für den Mittelwert einer
normalverteilten Grundgesamtheit und gut geeignet
bei eingipfligen Häufigkeitsverteilungen
- alle Informationen der Stichprobe werden
ausgeschöpft

Nachteile: - das arithm. Mittel ist unbrauchbar bei schiefen


oder mehrgipfligen Verteilungen
- das arithm. Mittel ist nicht robust gegenüber
Ausreißern
● Median (Zentralwert)
- Der Median ist dadurch charakterisiert, dass jeweils 50 %
der Beobachtungswerte einen Wert ≤ und 50 % einen Wert
≥ dem Median haben.
- Wir ordnen daher die Beobachtungswerte der Größe nach
und erhalten die Variationsreihe x(1) , ... ,x(n) mit
x(1) ≤ ... ≤ x(n)

 x ( k +1) ; für n = 2k + 1
~ 
x 0 ,5 =  x ( k ) + x ( k +1)
 ; für n = 2k
2
Vorteile: - der Median ist auch bei asymmetrischen und
mehrgipfligen Verteilungen verwendbar
- er ist zu bevorzugen bei nur wenigen Messwerten
und auch bei ordinalskalierten Beobachtungs-
merkmalen
- er ist robust gegenüber Ausreißern

Nachteile: - es werden nicht alle Informationen der Stichprobe


ausgeschöpft (nicht alle Messwerte gehen
in die Berechnung des Medianes ein)
- bei normalverteilten Merkmalen hat er schlechtere
Schätzeigenschaften als das arithm. Mittel
● Gestutztes Mittel
- Wir ordnen wieder die Stichprobe der Größe nach und
streichen dann die m untersten und die m obersten
Merkmalswerte.
- Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem
man das arithmetische Mittel aus den verbleibenden n - 2m
Merkmalswerten bildet.
1
xm = ( x(m+1) + ... + x(n−m) )
n n − 2m
• Vorteil: - das gestutzte Mittel ist robust gegenüber Aus-
reißern und basiert im Vergleich zum Median auf
einer größeren Anzahl von Werten
• Nachteil: - es besitzt bei Normalverteilung schlechtere Schätz-
eigenschaften als das arithm. Mittel und schöpft
nicht alle Informationen der Stichprobe aus
● Modalwert (Dichtemittel, Modus)
Bei eingipfligen Verteilungen gibt das Dichtemittel die
Ausprägung mit der größten Häufigkeit in der Messreihe an.
Bei klassierten Daten (stet. Merkmale) gibt es die Klassen-
mitte der Klasse mit der größten Klassenhäufigkeit an.
fn (xmod) ≥ fn (aj) ∀aj j=1,...,m
Vorteile: - das Dichtemittel ist auch bei nominal- und ordinal-
skalierten Merkmalen anwendbar
- bei mehrgipfligen Verteilungen gibt man neben
dem Median auch die lokalen Dichtemittel an
- das Dichtemittel ist robust gegenüber Ausreißern
Nachteile: - bei Normalverteilung hat das Dichtemittel
schlechtere Eigenschaften als das arithm. Mittel
- nicht alle Beobachtungswerte gehen in die
Berechnung des Dichtemittels ein
● Geometrisches Mittel
- Sind die Merkmalswerte relative Änderungen (Zuwachsraten,
Produktionssteigerungen), so wird das geometrische Mittel
verwendet, da die Gesamtänderung nicht durch eine Summe,
sondern durch ein Produkt beschrieben wird.
- Die Bezeichnung geom. Mittel ist ein Hinweis auf Zähl- oder
Messdaten, die statt der arithm. eine geometr. Zahlenfolge
bilden (z.B. bei Verdünnungsreihen).
- Es wird verwendet bei Zähldaten, von denen bekannt ist, dass
sie durch multiplikative Wirkungen entstanden sind und deren
Werte sehr unterschiedliche Größenordnungen aufweisen,
sowie fast immer eine stark asymmetrische Häufigkeits-
verteilung aufweisen (z.B. Keimzahlen in flüssigen Medien,
wie Milch und Gülle).
- das geom. Mittel findet auch Anwendung bei logarithmischen
Daten (z.B. Spektralanalyse)
Es gibt folgende Möglichkeiten der Berechnung des geom.
Mittels und der durchschnittlichen Zuwachsrate:
1. Seien x1, ... ,xn Beobachtungswerte (rel. Änderungen, bez.
auf 1 = 100%) mit xi ≥ 0 für i=1,...,n und r die durch-
schnittliche Zuwachsrate.
xg = n x1 ⋅K⋅ xn und r = xg − 1
2. Manche Analysenmethoden liefern die Logarithmen der
gesuchten Gehalte (z.B. Spektralanalyse).
1 n
lg x g = ∑ lg x i = lg x x g = 10 lg x
n i=1
3. Wenn sich eine Anfangsmenge A in einer Zeiteinheit um eine
konstante Zuwachsrate r erhöht, dann erhält man nach n
Zeiteinheiten die Endmenge E: E = A(1+r)n
xg = n E A und r = xg − 1
Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl
der Bakterien pro Einheit von 100 auf 500.
Wie groß ist die durchschnittliche tägliche Zunahme in
[%]?
Lösung:

Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]


gemessen:
5150 26900 285 265 4750 60900 1410 3950 2150
8250 30500 295
Wie groß ist die mittlere Keimzahl?
Lösung:
Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl
der Bakterien pro Einheit von 100 auf 500.
Wie groß ist die durchschnittliche tägliche Zunahme in
[%]?
Lösung: r = x g − 1 = n E A − 1 = 0,71 = 71 %

Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]


gemessen:
5150 26900 285 265 4750 60900 1410 3950 2150
8250 30500 295
Wie groß ist die mittlere Keimzahl?
Lösung: Da die Werte über mehrere Zehnerpotenzen
schwanken, wird das geom. Mittel bestimmt.
x g = 10 lg x
= 10= 3.433.998
6,5358

(Im Vergleich: x = 12.067.083 )


2. Weitere Lagemaße:
● α - Quantil
Wir betrachten die Variationsreihe x (1) , ... ,x (n) .
Dann sind α % der Merkmalswerte ≤ und (1- α) % der
Merkmalswerte ≥ dem α - Quantil.

 x(k+1) ;k = int(n ⋅ α), falls n ⋅ α keine


~  g.Z.
xα =  x(k ) + x(k+1)
 ;k = n ⋅ α, falls n ⋅ α g.Z.
2
(int = ganzer Teil; g.Z.= ganze Zahl)

 0 ,5 ⇒ Median

Wenn α =  0 , 25 ⇒ unteres Quartil
 0 , 75 ⇒ oberes Quartil

1.4.2. Streuungsmaße

- Maße, die die Abweichung der Beobachtungswerte vom


Zentrum einer Häufigkeitsverteilung beschreiben, heißen
Streuungs- oder Dispersionsmaße.

- Kennt man Lage- und Streuungsmaße, hat man schon


eine recht gute Vorstellung von der Häufigkeitsverteilung,
ohne diese explizit zu kennen.
● Spannweite (Range, Variationsbreite)

Sie ist das einfachste Streuungsmaß und gibt den Streu-


bereich einer HV an, d.h. den Bereich, in dem alle Merkmals-
werte liegen.
Sei x(1), ... ,x(n) eine Variationsreihe, dann gilt:

R = x(n) - x(1) .

Vorteil: - Einfach zu bestimmendes Streuungsmaß,


einfach interpretierbar
Nachteile: - R ist nicht robust gegenüber Ausreißern
- R besitzt keine guten stat. Schätzeigenschaften,
da außer den extremen Merkmalswerten alle
anderen Werte unberücksichtigt bleiben.
● Quartilsabstand (Interquartile range)
- Der Quartilsabstand gibt den Bereich zwischen oberem und
unterem Quartil einer Messreihe an.
- Er enthält 50 % aller Merkmalswerte.

I = ~
x 0 ,75 − ~
x 0 , 25

Vorteile: - I ist robust gegenüber Ausreißern


- I ist anschaulich und besitzt bessere statistische
Schätzeigenschaften als die Spannweite

Nachteil: - nicht alle Informationen der Stichprobe gehen in


die Berechnung ein
● Mittlere absolute Abweichung vom Median
Man wählt hier als Bezugsgröße für die Abweichung der
Merkmalswerte vom Zentrum der Häufigkeitsverteilung den
Median.

1 n
d = ∑ xi − ~
x 0 ,5
n i =1

Vorteile: - d ist robust gegenüber Ausreißern


- d ist gut geeignet bei schiefen Häufigkeits-
verteilungen

Nachteil: - bei Normalverteilung ist die empir. Varianz das


bessere Schätzmaß
● Median der absoluten Abweichungen vom Median

x 0 ,5 ) = ~
MAD = med ( x i − ~ y 0 ,5 yi = x i − ~
x 0 ,5

Vor- und Nachteile: analog wie mittlere abs. Abweichung


vom Median
● Stichprobenvarianz und Standardabweichung

- Wir betrachten nun als Bezugsgröße für das Zentrum der HV


das arithmetische Mittel.

- Dann ist die Stichprobenvarianz die durchschnittliche


quadratische Abweichung der Messwerte vom arithmetischen
Mittelwert.

- Dabei wird jedoch durch den Faktor (n-1), d.h. die Anzahl der
voneinander unabhängigen Abweichungen, genannt
Freiheitsgrad, dividiert.

- Der Stichprobenumfang n sollte mindestens 6 betragen!

1 n
1   n
2 2
s =
2

n − 1 i=1
( xi − x ) =
2
  ∑ xi  − n ⋅ x 
n − 1  i=1  
- Als Standardabweichung s bezeichnet man:
1 n 1 n

∑ (( ∑ x i ) − n x 2 )
2
s= ( x i − x ) 2
=
n − 1 i=1 n − 1 i=1
- Der Standardfehler des arithm. Mittelwertes bezieht sich
auf den Stichprobenumfang:
s
sx =
n
Vorteile: - Die Varianz s2 hat die besten Schätzeigenschaften
bei Normalverteilung
- Die Standardabweichung s hat die gleiche
Dimension wie die Messwerte und der arithm.
Mittelwert, man kann daher Intervalle der Form
x±s bzw. x ± 3 ⋅ s angeben.
Nachteil: - s2 ist nicht robust gegenüber Ausreißern
- Variationskoeffizient
Der Variationskoeffizient ist ein von x bereinigtes Streuungs-
maß, das das Verhältnis von s und x misst.
s
v= ⋅ [100 %]
I xI

Vorteil: - v ist gut geeignet zum Vergleich von Streuungen


von Beobachtungsreihen mit unterschiedlichem
Mittelwert
Grafische Darstellung von Lage- und Streuungsmaßen:
1. Box- und Whisker Plot

Enzymaktivitäten von 8 Mutanten Vanadiumgehalt von Weinen

Box & Whisker Plot Multipler Box- Whisker Plot für Vanadium
(Enzymaktivitäten) 3,0
75
2,5
70
2,0
65 1,5
Enzymkonzentrationen

60 1,0

55 0,5

Vanad ium
50 0,0

-0,5
45
-1,0
40
-1,5

Czech Republic
Hu ngary

Czech Republic
Hu ngary
Ro mania

Ro mania
So uth Africa

So uth Africa
35

30
Median
25
25%-75%
20 Median Non-Outlier Range
1 2 3 4 5 6 7 8 25%-75%
Weisswein Rotwein
Min-Max
Mutanten Land
Grafische Darstellung von Lage- und Streuungsmaßen:

2. Mittelwertplots

Enzymaktivitäten von 8 Mutanten

Mittelwertplot Mittelwertplot
(Enzymaktivitäten von Mutanten) (Enzymaktivitäten)
75 70

70 65
65
60
Enzymkonzentrationen

Enzymkonzentrationen
60
55
55

50 50

45 45

40
40
35
35
30

25 30

20 arithm . Mittelwert 25
1 2 3 4 5 6 7 8 MW + - 95%-iges Konfidenzintervall 1 2 3 4 5 6 7 8 arithm . MW
Extrem werte Mean±0,95*SD
Mutanten Mutanten
Bsp.1: 40 Kolonien von Mikroorganismen
Mittelwertmaße:

Merkmal X: Durchmesser (metrisch)


Stichprobe Verteilungsform Arithm. MW Median Vergleich
Alle Kolonien (40) symmetrisch 5,9 6,0 ≈
Gelbe Kolonien (13) rechtssteil 7,1 7,7 <
Weißliche Kolonien (14) symmetrisch 6,0 6,0 ≈
SonstigeKolonien (13) linkssteil 4,5 4,2 >

Merkmal Y: Antibiotikaresistenz (ordinal)


~
x 0,5 = 2
Median: (sensitiv) (13 · „1“, 10 · „2“, 8 · „3“, 5 · „4“, 4 · „5“ )

Modalwert: D = 1 (sehr sensitiv)

Merkmal Z: Farbe (nominal)

Modalwert: D = 2 (weißlich ist die am häufigsten auftretende Farbe)


Streuungsmaße:

Merkmal X: Durchmesser
Spann- Stand. Quartils- Var.
Stichprobe Varianz
weite abw. abst. koeff.
Alle Kolonien (40) 11,7 8,71 2,95 4,3 0,50
Gelbe Kolonien (13) 11,4 8,77 2,96 3,6 0,41
Weißliche Kolonien (14) 8,0 7,50 2,74 3,8 0,45
Sonstige Kolonien (13) 9,9 7,62 2,76 3,4 0,61

Box-and-Whisker Plot Box-and-Whisker Plot


12 12
10 10
Durchmesser

Durchmesser
8 8
6 6
4 4
2 2
0 0
gelb sonstige weißlich braunfarblosgelb grünorangerosaweißlich
Farbgruppe Farbe
1.4.3. Schiefe und Exzess
1. Schiefe
- Wenn der Median und der Modalwert vom arithmetischen
Mittel abweichen, bezeichnet man eine Verteilung als schief.
- Man charakterisiert schiefe Verteilungen außerdem durch die
Schiefe g1 als Maß für die Schiefheit und ihre Richtung.
- Echt schiefe Verteilungen liegen vor, wenn bei Vorliegen
einer großen Anzahl von Beobachtungswerten und der
Anwendung aller möglichen Transformation der Daten die
Schiefheit der Verteilung bestehen bleibt.
- Keine echte Schiefe liegt vor, wenn man schiefe
Verteilungen durch Transformationen (z.B. Logarithmieren) in
symmetrische überführen kann.
Bsp.: Auftreten log. Verteilungen bei:
• Analyse sehr niedriger Gehalte (z.B. Spurenanalyse)
• Merkmalen mit sehr großer Spannweite (mehrere
Zehnerpotenzen)
• sehr großem Zufallsfehler (z.B. halbquantitative
Spektralanalyse)
1 n
∑ i
n i=1
( x − x ) 3
1 n  xi − x 
3

g1 = = ∑ 
1 n n i=1  s 
( ∑ ( x i − x ) 2 )3
n i=1

Eine HV ist symmetrisch, wenn x=~


x 0,5 = x mod und g1 = 0

Eine HV ist linksschief oder rechtssteil, wenn x<~


x 0,5 < x mod
und g1 < 0
~
Eine HV ist rechtsschief oder linkssteil, wenn x > x 0,5 > x mod
und g1 > 0
2. Exzeß und Kurtosis
- Mängel in den gewählten Versuchsbedingungen können zu
einer Überhöhung (Streckung) oder Unterhöhung
(Stauchung) der Häufigkeitsverteilung führen.
Derartig verzerrte Verteilungen werden durch den Exzeß g2
charakterisiert.
- Der Exzeß gibt an, ob das absolute Maximum der
Häufigkeitsverteilung (bei annähernd gleicher Varianz)
größer oder kleiner dem Maximum der Normalverteilungs-
dichte ist.
1 n

n i=1
( x i − x ) 4
1 n
 i
x − x 
4

g2 = 2
− 3 = ∑ 
n i=1  s 
 − 3 = g 2 ' −3
1 n 2
n ∑ (xi − x) 
 i=1 
g2‘ heißt Kurtosis.
Wenn g2 = 0 ⇒ Häufigkeitsverteilung entspricht der NV

Wenn g2 < 0 ⇒ abs. Häufigkeitsmaximum < Maximum der


NV- Dichte (HV ist flachgipfliger),
d.h. die Anzahl „größerer“ Abweichungen
von x ist geringer als bei der NV bei
gleicher Varianz.

Wenn g2 > 0 ⇒ abs. Häufigkeitsmaximum > Maximum der


NV- Dichte (HV ist steilgipfliger),
d.h. die Anzahl „größerer“ Abweichungen
von x ist größer als bei der NV bei
gleicher Varianz.
n
1

k
Als k- tes Moment bezeichnet man: xi
n i=1

1 n
und als k-tes zentriertes Moment: ∑
n i =1
( x i − x ) k

Bem.: Damit stellen der arithm. Mittelwert das 1. Moment


und die empirische Varianz das 2. zentrierte Moment
dar, während Schiefe und Exzeß auf dem 3. bzw. 4.
zentrierten Moment basieren.
1.5. Mehrdimensionale Merkmale

- Bei vielen praktischen Problemen wirken Merkmale nicht


nur einzeln, sondern auch im Komplex. Es interessiert
dann der Zusammenhang zwischen zwei oder mehreren
Merkmalen.

- Wir bezeichnen einen Komplex von Merkmalen auch als


mehrdimensionales Merkmal (od. Merkmalsvektor) und
schreiben: (X1,...,Xn), bzw. (X,Y) bei einem zwei-
dimensionalen Merkmal.
Beispiele:
1. X- Lagerzeit von Zuckerrüben (X- deterministische d.h.
Y- Saccharosegehalt von Zuckerrüben einstellbare Einflussgröße,
Y- zufällige Zielgröße)

2. X- Körpermasse von Schweinen (X und Y - zufällige Größen,


Y- Körpergröße von Schweinen jede kann als Einfluss- bzw.
Zielgröße betrachtet werden)

3. Prozess des Nass-Salzens von Hartkäse


(X1,X2,X3 - determ.
X1- Natriumchloridgehalt im Salzbad Einflussgrößen,
X2- Temperatur des Salzbades Y1,Y2 - zufällige
X3- Salzdauer Zielgrößen)
Y1- Masseausbeute des Käses nach dem Salzen
Y2- Sensorischer Qualitätsparameter

WICHTIG: Erfassung aller für den zu untersuchenden Sach-


verhalt (Produkt, Prozess) wesentlichen Merkmale!
5 Fragestellungen sind von Interesse:
1. Welche Art von Merkmalen werden betrachtet?
(Klassifizierung, Einflussgröße einstellbar oder zufällig?)
2. Wie lassen sich zweidimensionale Merkmale grafisch
darstellen? (Punktwolke, Streudiagramm, XY- Scatterplot)
3. Wie sieht die Häufigkeitsverteilung (tabellarisch und
grafisch) eines zweidimensionalen Merkmals aus?
(2-dim. Häufigk.tabelle, Kontingenztafel, 3-dim. Histogramm)
4. Wie stark ist der Zusammenhang zwischen 2 Merkmalen
X und Y und welche Richtung hat er?
(Assoziations-, Kontingenz-, Maßkorrelations- oder
Rangkorrelationskoeffizient)
5. In welcher Form lässt sich der Zusammenhang
darstellen?
(Kontingenztafel-, Varianz- u. Regressionsanalyse)
zu 2.) Streudiagramm (XY- Scatterplot)
y

annähernd linearer Zusammenhang

y y

Hyperbel
Rezipr. Transf.

x 1/x
Bsp.: Fallhöhe und Schwingungsfrequenz von Wasserfällen
zu 3.) Häufigkeitsverteilung
Zur Darstellung von Häufigkeitsverteilungen dienen
Häufigkeitstabellen (Vierfeldertafeln, Kontingenztafeln) und
grafische Darstellungen durch zweidimensionale Histogramme
oder Polygone.
1. Fall:
- Sei (X,Y) ein nominalskaliertes 2- dim. Merkmal mit je 2
Ausprägungen (aj,bk) j,k=1,2 (z.B.: ja/ nein, vorhanden, nicht
vorhanden)
Vierfeldertafel (2 x 2):
Y
Summe
vorhanden nicht vorhanden
X vorhanden f11 f12 f11+f12
nicht vorh. f21 f22 f21+f22
Summe f11+f21 f12+f22 n
Bem.:
- Die absoluten Häufigkeiten fjk (j,k=1,2) im Innern der Tafel
stellen die 2- dim. absolute Häufigkeitsverteilung dar.
(analog: die relativen Häufigkeiten hjk = fjk/n stellen die 2-
dim. relative Häufigkeitsverteilung dar).
- Die Randsummenhäufigkeiten (Zeilen- und Spalten-
summen) stellen die entsprechenden 1- dim. Häufigkeits-
verteilungen von X bzw. Y dar.

- Aus der zweidimensionalen Häufigkeitsverteilung kann


man auf die eindimensionalen Häufigkeitsverteilungen
schließen, es gilt aber nicht die Umkehrung!
Bsp.: Untersuchung von 227 Ratten auf Milbenbefall der
Spezies A und B

Vierfeldertafel (2x2):
Spezies A Summe
vorhanden nicht vorhanden
Spezies vorhanden 44 23 67
B nicht vorhanden 75 85 160
Summe 119 108 227

- Die Randsummen geben Aufschluss darüber, wie viele der


Ratten eine der beiden Milben beherbergen bzw. nicht beher-
bergen, unabhängig davon, ob die andere Spezies vorhanden
ist oder nicht, d.h. sie geben die eindimensionalen Häufigkeits-
verteilungen an.
Ergebnis:
- Die Chance, eine A- Milbe anzutreffen, ist bei den Ratten,
bei denen schon B- Milben festgestellt wurden, größer als bei
allen Ratten zusammengenommen, denn: nur auf etwa der
Hälfte aller 227 Ratten kamen A- Milben vor (Randsumme
119), aber in der Teilmenge der 67 Ratten, die B- Milben
beherbergen, befinden sich 44 Träger von A- Milben.
Damit ist der Anteil der Träger von A- Milben unter den
Trägern von B- Milben größer als in der Gesamtprobe!
Umgekehrt gilt dasselbe.
- Zwischen dem A- Milbenbefall und dem B- Milbenbefall
scheint also ein statistischer Zusammenhang zu bestehen.
2. Fall:
- Sei (X,Y) ein ordinalskaliertes 2- dim. Merkmal, bei dem
jede Komponente auf einer Rangskala gemessen wird,
d.h. als Merkmalsausprägung eine Rangzahl hat.
- Vorliegen einer Tabelle der Rangzahlen (keine Häufigkeits-
tabelle!)
Tabelle der Rangzahlen:

i R(xi) R(yi) di di2


1 R(x1) R(y1) d1 d12
... ... ... ... ...

n R(xn) R(yn) dn dn2

- dabei ist di = R(xi) - R(yi) die Differenz der Rangzahlen der


i- ten Komponente von X und Y
Bsp.: Weinverkostung
Bei einer Weinverkostung sollen 8 Weinsorten hinsichtlich
ihres Aromas in eine Rangordnung gebracht werden. 2 Prüfer
sollen unabhängig voneinander die Sorten begutachten, wobei
die Sorte mit dem schwächsten Aroma die Rangzahl 1 und die
Sorte mit dem stärksten Aroma die Rangzahl 8 erhalten soll.
Tabelle der Rangzahlen:
i Sorte Prüfer 1 Prüfer 2 di
R(xi) R(yi)
1 A 6 5 1
2 B 3 2 1
3 C 8 8 0
4 D 2 4 -2
5 E 1 1 0
6 F 7 6 1
7 G 4 3 1
8 H 5 7 -2
Ergebnis:
- Nur bei 2 Sorten gab es Übereinstimmung in der Bewertung,
bei allen übrigen Sorten gab es Differenzen, die aber nicht
mehr als 2 Rangzahlen betragen.
- Man kann einen statistischen Zusammenhang vermuten,
denn je höher im allgemeinen die Rangzahl des 1. Prüfers
ist, desto höher ist im allgemeinen auch die Rangzahl des 2.
Prüfers.
- Die Weinsorten scheinen also Aromaunterschiede
aufzuweisen und beide Prüfer waren in der Lage, diese
zu erkennen.
3. Fall:
- Sei (X,Y) ein nominal- oder ordinalskaliertes 2- dim.
Merkmal, deren Ausprägungen (aj,bk) mit den absoluten
Häufigkeiten fjk und den relativen Häufigkeiten hjk für j=1,...,l
und k=1,...,m auftreten.
Kontingenztafel (l x m):

Y Summe
b1 b2 ... bm
a1 f11 f12 ... f1m f1.
X a2 f21 f22 ... f2m f2.
... ... ... ... ...
al fl1 fl2 flm fl .
Summe f.1 f.2 ... f.m n
Bsp.: Untersuchung der Noten von 32 Studenten in
Mathematik und Statistik (2 ordinalskalierte Merkmale)

Kontingenztafel (5 x 5):

Note in Mathematik
1 2 3 4 5 Summe
Note 1 1 1 0 0 0 2
in 2 0 2 3 0 0 5
3 0 2 10 4 0 16
Statistik
4 0 0 2 4 0 6
5 0 0 1 1 1 3
Summe 1 5 16 9 1 32
Ergebnis:

- Je besser im allgemeinen die Note in Mathematik ist, desto


besser ist im allgemeinen auch die Note in Statistik und
umgekehrt.

- Man kann also einen statistischen Zusammenhang zwischen


den Noten vermuten, den man daran erkennt, dass die in
der Nähe der Diagonalen gelegenen Felder der
Kontingenztafel die höchsten absoluten Häufigkeiten
aufweisen.
4. Fall:

- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, für deren


Komponenten X und Y eine Klasseneinteilung vorliegt

Häufigkeitstabelle (analog Kontingenztafel!) (l x m):

Klassen- Y
grenzen (y0;y1] (y1;y2] ... (ym-1;ym] Summe
(x0;x1] f11 f12 ... f1m f1.
X (x1;x2] f21 f22 ... f2m f2.
... ... ... ... ...
(xl-1;xl] fl1 fl2 flm fl⋅
Summe f.1 f.2 ... f.m n

Bsp.: Untersuchung des Asche- und Kaliumgehaltes von


Weinen
Bsp.: Weindaten (3- dim.Histogramm)
2- dim. Histogramm
(Weine aus Ungarn und Tschechien)

2- dim. Histogramm
(Weine aus Ungarn und Tschechien)
zu 4.) Zusammenhangsmaße
Art der Merkmale Häufigkeitsvert. Zusammenhangsmaß
nominalskaliert Vierfeldertafel Assoziationskoeff. von
Cramér, Kontingenzkoeff.
von Pearson
nominal- oder (und) Kontingenztafel Assoziationskoeff. von
ordinalskaliert Cramér und Kontingenz-
koeff. von Pearson
ordinalskaliert (Tab. von Rangkorrelationskoeff. von
Rangzahlen) Spearman
metrisch skaliert 2- dim. Vor.: X,Y zufällige Merkmale
Häufigkeitstabelle Lin. Abhängigkeit → Maß-
(Kontingenztafel) korrelationskoeff. von
Bravais/ Pearson
Mon. Abhängigkeit → Rang-
korrelationskoeff. von
Spearman
1. Kontingenzkoeffizient C von Pearson:
- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes
diskretes Merkmal, das in den Ausprägungen (aj, bk) für
j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt.
- Der Kontingenzkoeffizient ist ein Maß für die Stärke des
stochastischen Zusammenhanges zwischen 2 diskreten
Merkmalen.

χ2
C= 2
χ +n
2
 f j⋅ ⋅ f⋅k 

 f jk − 
l m
 n 
wobei χ = ∑∑
2

j =1 k =1
f j⋅ ⋅ f⋅k
n
Bem.: - Der Kontingenzkoeffizient C nimmt Werte im Intervall
vollst. Zusammenhang
kein Zusammenhang
min (l, m ) − 1
0≤C≤ an.
min (l, m )

- Der maximale Wert von C (d.h. vollständige Kontingenz)


ist von der Tafelgröße (Zeilen- bzw. Spaltenzahl l und m)
abhängig und nähert sich für große l bzw. m gegen 1.
⇒ besser: korrigierter Kontingenzkoeffizient von
Pearson Ccorr

- Für die Vierfeldertafel gilt: 0 ≤ C ≤ 0,707


Bem.: - Der korrigierte Kontingenzkoeffizient Ccorr wird
berechnet nach:

χ2 min (l, m )
C corr = ⋅
χ +n
2
min (l, m ) − 1

und es gilt nun: 0 ≤ Ccorr ≤ 1 ,


d.h. bei vollständiger Kontingenz wird immer der
Wert 1 angenommen, unabhängig von der
Größe der Kontingenztafel.
2. Assoziationskoeffizient von Cramér (Cramér‘s V):
- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes
diskretes Merkmal, das in den Ausprägungen (aj, bk) für
j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt.
- Der Assoziationskoeffizient ist ebenfalls ein Maß für die
Stärke des stochastischen Zusammenhanges zwischen 2
diskreten Merkmalen. vollst. Zusammenhang
kein Zusammenhang
χ2
V= mit 0≤V≤1
n (min (l, m )) − 1
2
 f j⋅ ⋅ f⋅k 

 f jk − 
l m
 n 
wobei χ = ∑∑
2

j =1 k =1
f j⋅ ⋅ f⋅k
n
3. Rangkorrelationskoeffizient rs von SPEARMAN:
- Sei (X,Y) ein 2- dim. , ordinal oder metrisch skaliertes
Merkmal, bei dem jede Komponente Merkmalswerte mit
einer eindeutigen Rangfolge hat (rangskaliert).
- Wir beobachten an den n Beobachtungseinheiten die
Merkmalswerte (xi,yi) für i=1,...,n
- Wir ordnen nun jedem Beobachtungswert xi bzw. yi für
i=1,...,n eine Rangzahl R(xi) bzw. R(yi) zu, wobei gilt:
R(x(i)) = i für i=1,...,n und x(1) ≤ x(2) ≤ ... ≤ x(n)
- Tritt eine Ausprägung mehrfach auf („Bindungen“), so ordnet
man diesen gleichen Werten als Rang das arithmetische
Mittel der Ränge zu, die sie einnehmen.
- Bsp.: x(1)=2; x(2)=4; x(3) =4; x(4) =6; x(5) =9
→ R(x(1))=1; R(x(2))=2,5; R(x(3))=2,5; R(x(4))=4; R(x(5))=5
- Der Rangkorrelationskoeffizient ist ein Maß für die Stärke
und Richtung eines monotonen stochastischen Zusammen-
hanges zwischen 2 rangskalierten Merkmalen.

Formel für den Rangkorrelationskoeffizienten rs:

∑ (R (x ) − R (x ))⋅ (R (y ) − R (y ))
n

i i
rs = i=1

(∑ (R (x ) − R (x )) )⋅ (∑ (R (y ) − R (y )) )
i
2
i
2

 n 
 ∑ R (x i ) ⋅ R (y i ) − n ⋅ R ( x ) ⋅ R ( y )
rs =  i =1 
((∑ R (x ) ) − n ⋅ R (x ) )⋅ ((∑ R (y ) ) − n ⋅ R (y ) )
i
2 2
i
2 2
Wenn keine „Bindungen“ vorliegen,
d.h. wenn xi ≠ xj für i ≠ j und yi ≠ yj für i ≠ j gilt:
n


2
6 ⋅ di
rs = 1 − i= 1
, wobei d i = R (x i ) − R (y i )
n ⋅ n ( 2
− 1 ) i=1,J,n
Bem.: Für den Rangkorrelationskoeffizienten gilt:
● Wenn rs < 0 → neg. Rangkorrelation
Wenn rs > 0 → pos. Rangkorrelation
● -1 ≤ rs ≤ +1
● |rs| = 1 , wenn X und Y monoton zusammenhängen
rs = 1 , wenn die x- Ränge mit den y- Rängen
übereinstimmen
rs = -1 , wenn die x- und y- Ränge genau
entgegengesetzte Rangfolgen ergeben.
Bsp.: Aromaprüfung von 8 Weinsorten durch 2 Prüfer
Der Rangkorrelationskoeffizient von rs = 0,86 deutet auf
einen recht starken, monoton wachsenden
stochastischen Zusammenhang hin.
4. Maßkorrelationskoeffizient rXY von BRAVAIS- PEARSON:
- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, deren
Merkmalswerte (xi,yi) , i=1,...,n, einen näherungsweise
linearen Zusammenhang zwischen X und Y vermuten
lassen.
- Wir beobachten an den n Beobachtungseinheiten die
Merkmalswerte (xi,yi) für i=1,...,n
- Der Maßkorrelationskoeffizient ist ein Maß für die Stärke und
Richtung eines linearen stochast. Zusammenhanges
zwischen 2 metrisch skalierten Merkmalen.
Formel für den Maßkorrelationskoeffizienten rXY:

n
( n − 1) ∑ (x i − x ) ⋅ (y i − y )
rXY = i =1

( n − 1) (∑ (x i − x) ⋅
2
) (∑ (y i − y)
2
)

 n 
 ∑ x i ⋅ y i  − n ⋅ x ⋅ y
rXY =  i=1 
((∑ x ) − n ⋅ x )⋅ ((∑ y ) − n ⋅ y )
i
2 2
i
2 2
Bem.: Für den Maßkorrelationskoeffizienten rXY gilt:
● Wenn rXY < 0 → negative Korrelation
Wenn rXY > 0 → positive Korrelation
● -1 ≤ rXY ≤ +1
● |rXY| = 1 , wenn X und Y linear zusammenhängen
● Wenn rXY = 0 → Unkorreliertheit zwischen X und Y
Wenn rXY = 0 und (X,Y) 2- dim. normalverteilt
→ Unabhängigkeit zwischen X und Y
● Der Korrelationskoeffizient ist nicht imstande,
nichtlineare Zusammenhänge zwischen Merkmalen
zu erkennen.
● Man beachte Schein- und Unsinnkorrelationen!
Bem.: ● Merkmale mit sehr schiefen Häufigkeitsverteilungen
können mitunter auch einen Korrelationskoeffizienten
nahe 0 haben, obwohl ein statistischer Zusammen-
hang zwischen ihnen besteht.
● B = rXY2 heißt Bestimmtheitsmaß. Es gibt den Anteil
der Variation der y- Werte an, der durch den linearen
Zusammenhang zwischen X und Y bestimmt wird.
● Bei der Untersuchung von linearen Abhängigkeiten
zwischen mehr als 2 Merkmalen gibt es:
- partielle Korrelationskoeffizienten,
- multiple Korrelationskoeffizienten und
- kanonische Korrelationskoeffizienten.
Zu 5.) Form der statistischen Abhängigkeit
- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal mit den
Merkmalswerten (xi,yi) für i=1,...,n.
- Es interessiert die Form der Abhängigkeit eines Merkmals Y
(abhängiges Merkmal, Zielgröße, Regressand) von einem
Merkmal X (unabh. Merkmal, Einflussgröße, Regressor).
- Alle kontrollierbaren Einflussgrößen werden konstant
gehalten.
- Wir beschränken uns auf den Fall des Modells I der einfachen
linearen Regression (1Einflussgröße, lineare Abhängigkeit).
Vor.: ● Y zuf. Merkmal,

 einstellbares Merkmal 
● X  zuf. Merkmal, mit kleinem Fehler messbar  → RM I

 zuf. Merkmal → RM II
● Streudiagramm (XY- Scatterplot) →
Annahme eines linearen Modells für die Abhängigkeit
zwischen X und Y in der Grundgesamtheit:
y = β0 + β1 x, genannt lineare Regressionsgleichung.

Dann gilt für die zuf. Beobachtungen der Zielgröße:


Yi = β0 + β1 xi + εi i=1,J,n
Zufallsfehler,
wobei εi unabhängig und identisch
verteilt mit Eεi =0 und D2εi = σ2
und σ2 unabhängig von den
Messpunkten xi

Bem.: Wenn εi ~ N(0, σ2)


→ bei RM I : Yi~ N(β0 + β1 xi, σ2)
bzw. Y~ N(β0 + β1 x, σ2)
Regressionsanalyse:
1. Schätzung der empirischen linearen Regressionsgleichung
(Ausgleichsgerade) nach der Methode der kleinsten
Quadrate (MkQ, LS):
Zuf. Beobachtungswerte Modellwerte
1 n 1 n 2
Q(β0 , β1 ) = ∑ (Yi − (β0 + β1 ⋅ x i )) = ∑ εi → min
2

n i=1 n i=1
Residuen
Die Werte von β0 und β1, für die Q(β0, β1) ihr Minimum
annimmt, nennt man Kleinste-Quadrate-Schätzer βˆ 0 und βˆ1 .

Durch Nullsetzen der partiellen Ableitungen von Q nach β0


und β1 erhält man ein Normalgleichungssystem, das zu
lösen ist.
Die auf der Basis der konkreten Stichprobe ermittelten
Schätzwerte für β0 und β1 bezeichnet man mit b0 und b1.
n

∑ (x i − x ) ⋅ (y i − y )
SPXY sY
b1 = i =1
n
= oder: b 1 = rXY
SQ X
∑ (x − x) sX
2
i
i=1

und b0 = y − b1 ⋅ x
→ geschätzte lineare Regressionsgleichung:
ŷ (b 0 , b1 ) = b 0 + b 1 ⋅ x
1 n 1
Bem.: s XY = ∑ (x i − x ) ⋅ (y i − y ) = ⋅ SP XY
n − 1 i =1 n −1
heißt Kovarianz zwischen X und Y und
1 n 1
sX
2
= ∑ (x i − x ) =
2
⋅ SQ X Varianz von X.
n − 1 i=1 n −1
2. Zeichnen der Regressionsgerade ins Streudiagramm:

y
ŷ = b0 + b1 ⋅ x

ŷ i

 ε̂ i

yi

b0

x
0 xi
3. Güte des Regressionsmodells
- Beurteilung der Güte der Modellvorhersage für jeden Mess-
wert mit Hilfe der geschätzten Residuen εˆ i = y i − ŷ i , i=1,J, n
- Maß für die Variation der Stichprobenwerte um die
geschätzte Regressionsgerade: Restvarianz
1 n 1 n 1 n 2
sR
2
= ∑ (y i − ŷi ) =
2
∑ (y i − (b0 + b1 ⋅ x i )) =
2
∑ εˆ i
n − 2 i=1 n − 2 i=1 n − 2 i=1
2 1
sR = ⋅ SQR
n−2 geschätzte Residuen
FG Restquadratsumme

- Streuungszerlegung (Zerlegung der Quadratsummen!):


SQ T = SQR + SQM durch den Modellzusammenhang
erklärte „Streuung“
„Gesamtstreuung“ „Reststreuung“
n n n

∑ (y − y ) = ∑ (y i − ŷ i ) + ∑ (ŷ i − y )
2 2 2
i
i=1 i=1 i =1
Erklärte Streuung: Darstellung der Variation der y- Werte,
die auf den linearen Zusammenhang
SQM zwischen X und Y zurückzuführen ist,
d.h. sie enthält die Variation der Werte
auf der Geraden um den Mittelwert y .
Reststreuung: Verbleibender Rest der Variation der y-
SQR Werte
Bem.: ● Liegen alle beobachteten Werte exakt auf einer
Geraden, so sind die Residuen 0 und ebenso die
Reststreuung. Dann ließe sich die gesamte Variation
von Y durch den linearen Modellzusammenhang mit
X erklären (funktionaler linearer Zusammenhang).
● Je größer die Reststreuung ist, desto schlechter
beschreibt das Modell die Daten.
- Als Maßzahl für die Güte der Modellanpassung
verwendet man häufig das Bestimmtheitsmaß B.
Es gibt den Anteil an der Gesamtstreuung der y- Werte
an, der durch die Regression von Y auf X erklärt wird
und ist der Quotient aus erklärter und Gesamtstreuung.
n n

∑ (ŷi − y ) (
∑ i i )
2 2
y − ŷ
SQM
B= = i=1
n
= 1− i=1
n
SQ T
(
∑ i
y − y )2
(
∑ i
y − y )2

i =1 i=1

0≤B≤1

kein linearer Zusammenhang funktionaler linearer Zusammenhang

B = rXY2 Für Vorhersagen sollte das Bestimmtheits-


maß möglichst ≥ 0,8 sein!

Aber: B ist bei RM I vom Versuchsplan abhängig!


- Tests zur Prüfung der Modelladäquatheit (F- Test der
Varianzanalyse) und zur Prüfung der Modellparameter
(t- Tests, Konfidenzintervalle) im Rahmen der schließenden
Statistik

4. Residualanalyse
- Prüfen der Modellvoraussetzungen über den Zufallsfehler
(ε ~ N(0, σ2) und σ2 unabhängig von den Messpunkten xi)
- Residualplots
εˆ i
εˆ i = y i − ŷ i → normierte Residuen di =
d
s εˆ Ausreißer
d
d
+3

0 ŷ 0 ŷ 0 ŷ

-3
idealer Verlauf ungleiche Varianzen d i > 3 → Ausreißer
Bsp.: Weindaten, Abhängigkeit zwischen den seltenen Erden-
Parametern Lanthanum und Gadolinum

XY- Scatterplot (Lanthanum, Gadolinum)


y = -0,7128 + ,91690 * x
Korrelationskoeffizient: r = 0,98136
1

-1
Gadolinum

-2

-3

-4

-5
-4 -3 -2 -1 0 1 2

Lanthanum 95% Konfigen zgrenzen


Normierte Residuen
1,2

1,0

0,8

0,6
Normierte Residuen

0,4

0,2

0,0

-0,2

-0,4

-0,6

-0,8

-1,0

-1,2

-1,4
-5 -4 -3 -2 -1 0 1

Geschätzte Werte für Gadolinum


Geschätzte gegen beobachtete Werte (Gadolinum)
1

0
Beobachtete Werte

-1

-2

-3

-4

-5
-5 -4 -3 -2 -1 0 1

Geschätzte Werte 95% Konfidenzgrenzen


Bsp.: Weindaten (Matrix Plot)

Matrix Plot (Histogramm und Scatterplot)


für Alkalinität, Asche und Kalium (transformiert)
Alkalinität

As che

Kalium
2. Wahrscheinlichkeits-
rechnung

Die Wahrscheinlichkeitsrechnung
liefert mathematische Modelle für
Zufallserscheinungen.

/11/ Stahel, W.
(1995)
Es werden Experimente betrachtet, deren Ergebnisse einen
zufälligen Ausgang haben, so genannte zufällige Versuche.

2.1. Zufälliges Ereignis, Wahrscheinlichkeit,


Zufallsgröße

Begriffe und Definitionen:

Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei


einem Versuch, bei dem bestimmte Bedingungen
eingehalten werden, eintreten kann, aber nicht
notwendig eintreten muss. Es ist das Ergebnis eines
zufälligen Versuches.

Bez.: A,B,C,...,A1,B1,...
Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung
der geworfenen Augenzahl (zuf. Versuch)

• zufällige Ereignisse sind:


• Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ",
• aber auch: A7:= "Eine gerade Augenzahl wird
gewürfelt"

Begriffe: - Elementarereignis:
Elementarereignisse lassen sich nicht weiter in
zufällige Ereignisse zerlegen.
Bez.: ei ; i=1,...,n

Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 "


- Zusammengesetzte Ereignisse:
lassen sich weiter in zufällige Ereignisse zerlegen.
Bez.: Ai, Bi,... ; i=1,...,n

Bsp.1: A7 := "Würfeln einer geraden Zahl"


= {e2,e4,e6}

Def.: Die Menge E (oder: Ω) heißt Menge der zu einem


zufälligen Versuch gehörenden Elementarereignisse,
wenn jedem Versuchsausgang genau ein Element
dieser Menge E entspricht.

Bsp.1: E = {e1,...,e6}

⇒ Schlussfolgerung: Methoden der Mengenlehre


(Vereinigung, Durchschnitt, Differenz)
sind anwendbar!
Def.: Ein zufälliges Ereignis A ist eine Teilmenge der
Menge E der Elementarereignisse, d.h. A ⊆ E .

Grenzfälle von zufälligen Ereignissen:

Def.: Sichere Ereignisse sind dadurch gekennzeichnet,


dass sie immer eintreten. Sie bilden die Teilmenge
von E, die alle Elementarereignisse enthält.

Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt"


= {e1,...,e6}

Def.: Unmögliche Ereignisse sind dadurch charakterisiert,


dass sie nicht eintreten können. Sie sind die Teilmenge,
die kein Elementarereignis enthält.

Bsp.1: Ø := "Es wird eine '0' gewürfelt!"


Relationen und Operationen zwischen zufälligen
Ereignissen:

Def.: Ein zufälliges Ereignis A ist genau dann in dem


zufälligen Ereignis B enthalten, wenn alle Elementar-
ereignisse, die zu A gehören, auch zu B gehören.
Bez.: A ⊆ B
Bsp.1: Würfeln mit 1 Würfel: A 2 ⊆ A 7

Bem.: Für ein beliebiges zufälliges Ereignis A gilt immer:


Ø ⊆ A ⊆E
Def.: Zwei zuf. Ereignisse A und B heißen äquivalent (gleich),
wenn sowohl das Ereignis A in B enthalten ist ( A ⊆ B ),
als auch das Ereignis B in A enthalten ist (B ⊆ A ) .
Bez.: A = B
Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter
der Summe von A und B (Vereinigung) das Ereignis,
das genau die Elementarereignisse enthält, die zu A
oder zu B gehören. E

Bez.: A ∪B A B

Bsp.1: Würfeln A1 ∪ A 7 = {e1, e2 , e 4 , e6 }

Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter


dem Produkt von A und B (Durchschnitt) das Ereignis,
das genau die Elementarereignisse enthält, die zu A
und zu B gehören.
E

Bez.: A ∩B A B

Bsp.1: Würfeln A1 ∩ A 7 = ∅
Def.: Zwei zufällige Ereignisse A und B heißen miteinander
unvereinbar (unverträglich), wenn sie keine
gemeinsamen Elementarereignisse besitzen.

Bez.: A ∩ B = ∅

Bsp.1: A1 ∩ A7= ∅

Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis,


das genau die Elementarereignisse enthält, die nicht zu
A gehören, das zu A komplementäre Ereignis.
Bez.: A
Bsp.1: A 7 = {1,3,5}
Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter
der Differenz von A und B das Ereignis, das genau
die Elementarereignisse enthält, die zu A, aber nicht
zu B gehören. (d.h. wenn A, aber nicht B eintritt!)

Bez.: A \ B
E

Bsp.1: Würfeln A B

A7 \ A2 = {4, 6}

Es gelten folgende Aussagen:

• A =E\A

• A ∩B = A \ B
Wahrscheinlichkeit:
Die Wahrscheinlichkeit ist das Maß für den Grad der
Gewissheit des Eintretens eines zufälligen Ereignisses A

1. Klassische Definition der Wahrscheinlichkeit (Laplace):


Ausgangspunkt:
• zufälliger Versuch mit endlich vielen Versuchsausgängen n,
d.h. E = {e1, ..., en}
• jeder Versuchsausgang sei gleichmöglich (Symmetrie)
• N(A) - Anzahl der Versuchausgänge, bei denen A eintritt
• n = N(E) - Gesamtzahl der Versuchsausgänge
Def.: Das Verhältnis von N(A) und n heißt Wahrscheinlich-
keit des zuf. Ereignisses A und wird mit P(A)
bezeichnet. N( A )
P( A ) =
n
Satz: Eigenschaften der klassische Wahrscheinlichkeit:

1. 0 ≤ P(A) ≤ 1

2. P(E) = 1 und P(∅) = 0

3. Sind A und B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅,


so gilt: P(A ∪ B) = P(A) + P(B)
(Additionsregel für unvereinbare zuf. Ereignisse)

4. Sind A, B beliebige zuf. Ereignisse, so gilt:


P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
(allg. Additionsregel für bel. zuf. Ereignisse)

5. P( A) = 1 – P(A)

6. Sind A und B unabhängige zuf. Ereignisse, so gilt:


P(A ∩ B) = P(A) ⋅ P(B)
(Multiplikationsregel für unabhängige zuf. Ereignisse)
Bsp.:
In einem Bierkasten befinden sich 25 Flaschen Bier, von
diesen sind 2 nicht qualitätsgerecht.
Der zufällige Versuch bestehe in der Entnahme einer
Flasche, wobei jede Flasche die gleiche Chance habe,
entnommen zu werden.

Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig


entnommene Flasche qualitätsgerecht ist (Ereignis A)?

Lösung: ● Anzahl der möglichen Versuchsausgänge n = 25


● Anzahl der für A „günstigen“ Versuchsausgänge
N(A) = 25 – 2 = 23

N( A ) 23
Damit ergibt sich: P( A ) = = = 0,92
n 25
2. Statistische Definition der Wahrscheinlichkeit:

Wir betrachten das Bsp.1: Würfeln mit 1 Würfel


Sei A das zuf. Ereignis, das im Ergebnis des zuf. Versuches
eine „6“ gewürfelt wird.
Der Versuch wird n- mal wiederholt (n = 50, 100, ...).
Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...)
auf, d.h. N(A) ist die absolute Häufigkeit des Auftretens von A.

Def.: Der Quotient aus der absoluten Häufigkeit und der


Gesamtzahl der Versuche heißt relative Häufigkeit

N( A )
hn ( A ) =
n
und hn(A) konvergiert stochastisch gegen P(A).
hn(A) ist also ein Schätzwert der Wahrscheinlichkeit P(A).
Bsp.: Münzwurf Anzahl der Anzahl des relative
Würfe n Auftretens des Häufigkeit
"Wappen" N(A) hn=N(A)/n
Buffon 4040 2048 0.5069
Pearson 12000 6019 0.5016
Pearson 24000 12012 0.5005
Stabilität der relativen Häufigkeit

hn(A)

P(A)

0 n ∞
Zufallsgröße (ZG)

Zufällige Ereignisse kann man durch reelle Zahlen


ausdrücken:

Zufallsgröße

E . ei
0 xi
R

=X(ei)
Def.: Eine Abbildung X heißt Zufallsgröße (ZG), wenn sie ihre
Werte mit einer bestimmten Wahrscheinlichkeit annimmt.
X
ei ∈ E → xi ∈ R X(ei) = xi

Beispiele Elementarereignisse Werte der ZG X


1. Würfeln mit e1 – “Würfeln einer 1” → 1 gewürfelte
einem Würfel J J Augenzahl
(Augenzahl) e6 – “Würfeln einer 6” →6
2. Herstellung e0 – “genau 0 Ausschusserzeugnisse” → 0 Anzahl der
von e1– “genau 1 Ausschusserzeugnis” → 1 Ausschuss-
Erzeugnissen J J erzeug.
en– “genau n Ausschusserzeugnisse” →n

Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi


und ihre Werte (Realisierungen) mit: x, y, z bzw. xi, yi, zi.
Weitere Beispiele für Zufallsgrößen sind:

● Länge von Baumwollfasern einer bestimmten Sorte

● Länge und Volumen von Escherichia Coli -Zellen

● Anzahl der Stillstände einer Flaschenreinigungsanlage


● Anzahl nicht qualitätsgerechter Produkte

● Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und


Ozongehalt, sowie Schwebestaubgehalt in der Luft

● Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen

● Enzymkonzentrationen verschiedener Mutanten der


Gattung Aspergillus niger
● Zellzahlen, Mikrokoloniezahlen
Wahrscheinlichkeit von zuf. Ereignissen → Wahrscheinlichkeit
von Zufallsgrößen
Bsp.: Münzwurf
e1:= “Wappen“ → P(e1) = 0,5
e2:= “Zahl“ → P(e2) = 0,5

P(e1) = P(X=0) = 0,5


P(e2) = P(X=1) = 0,5

Bsp. 1: Würfeln mit 1 Würfel


A:= “Würfeln einer Augenzahl i ≤ 3“
3
A = {e1, e2, e3} → P( A ) = = 0,5
6
P( A ) = P( X ≤ 3) = 0,5
1 1 1
P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + = 0,5
6 6 6
Def.: Sei X eine Zufallsgröße und P die Wahrscheinlichkeit
Dann heißt die durch FX(x) = P(X ≤ x) definierte
Funktion FX Verteilungsfunktion der ZG X.
Dann gilt auch: P(X > x) = 1- FX(x) und
P(a < X ≤ b) = FX(b) – FX(a)

Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich


oder abzählbar unendlich viele Werte annehmen kann.

Bsp.: Zellzahlen, Anzahl nicht qualitätsgerechter Produkte

Bem.: Man beschreibt eine diskrete ZG X durch die Werte


xi, die sie annehmen kann und die Einzelwahrschein-
lichkeiten pi = P(X = xi), mit denen sie diese Werte
annimmt. ∞
Es gilt: ∑ p i = 1
i =1
Bsp. 1: Würfeln mit 1 Würfel (Gleichverteilung)

Verteilungstabelle mit Verteilungsfunktion:


xi <1 1 2 3 4 5 6 >6
pi = P(X = xi) 0 1/6 1/6 1/6 1/6 1/6 1/6 0
FX(xi) 0 1/6 2/6 3/6 4/6 5/6 1 1
FX (x) 1

p1=1/6
x
1 2 3 4 5 6

Die Verteilungsfunktion ist: FX ( x i ) = P ( X ≤ x i ) =


k
∑ P( X = x k )
xk ≤ xi
Def.: Eine Zufallsgröße heißt stetig, wenn sie überabzählbar
unendlich viele Werte (d.h. Werte aus einem reellen
Zahlenintervall) annehmen kann.
Ihre Verteilungsfunktion lässt sich wie folgt darstellen:
x

P(X ≤ x) = F X ( x ) = ∫f
−∞
X ( t ) dt ∀x∈R

fX(x) heißt Dichtefunktion von X

Bsp.: Eiweiß- und Fettgehalt von Milch, Enzymkonzentration,


Cholesteringehalt im Blut

Bem.: Für die Dichtefunktion gilt:


+∞

∫f
−∞
X ( x ) dx = 1
Dichtefunktion der Normalverteilung
0,4
0,1
Dichte 0,3 Bsp.: Normalverteilung
0,2
X ~ N(0,1)
0,1

0
-5 -3 -1
0 1 3 5 (Standard-Normalverteilung)
x

Verteilungsfunktion der Normalverteilung x

1 FX ( x ) = ∫f ( t ) dt
Verteilungsfunktion

X
0,1
0,8 −∞

0,6

0,4

0,2

0
-5 -3 -1 0 1 3 5
x
Bem.: Für eine stetige ZG X gilt:
x
1. P( X ≤ x) = FX ( x) = ∫ f(t)dt
−∞
x


2. P( X > x) = 1− FX (x) = 1− f (t)dt
−∞
b


3. P(a < X ≤ b) = FX (b) − FX (a) = f ( x)dx
a
∀x mit a < x ≤ b

P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass


eine Realisierung von X in das Intervall (a, b] fällt!
2.2 Parameter von Verteilungen

1. Erwartungswert:
Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das
Zentrum ihrer ∞
Verteilung:
∑ xi ⋅ pi , X diskr. ZG
EX =
i =1
+∞
EX ∈ R

∫ x ⋅ fX (x)dx
−∞
, X stet. ZG

Bem.: Der Erwartungswert einer diskr. ZG ist das gewogene


Mittel aller Werte xi von X, wobei die Einzelwahr-
scheinlichkeiten pi die Gewichte darstellen.

Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ EX = 3,5


2. Varianz:
Def.: Als Varianz bezeichnen wir die mittlere (erwartete)
quadratische Abweichung einer ZG X von ihrem
Erwartungswert:
D2X = E [X - EX]2

∑ i
( x
i =1
− EX ) 2
⋅ pi , X diskr. ZG
= +∞ D2 X ∈ R

∫ (x − EX) ⋅ fX (x)dx
2
, X stet. ZG
−∞

D2 X heißt Standardabweichung.

Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ D2X = 2,92


Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung)
Für die Varianz von diskreten oder stetigen Zufallsgrößen X,
X1, J, Y, Z und Konstanten a,b ∈R gilt:
1. D2X ≥ 0, D2X = 0 ⇔ P(X = EX) = 1
2. D2X = EX2 – [EX]2 (Verschiebungsregel)
3. D2 [aX + b] = a2 • D2X (lin. Transformation)
4. X1,X2 unabhängig ⇒
D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz)

und für Y =X1• X2 und Z = X1/X2 (Produkt und Quotient)


2 2 2 2
 D Y   D X1   D X2
2 2 2   D Z 2
  ≈  +  ≈ 
 EY   EX1   EX2   EZ 
       
(Quadr. Variationskoeffizienten addieren sich!)
Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln,
X:=„ Augensumme“, X = X1 + X2
D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83
Normierung und Standardisierung:

Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt.

Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und


EX = 0 gilt.

Satz: Für eine beliebige ZG X gilt:


X
1. Y=
D2 X ist eine normierte ZG und

X − EX
2. Y= ist eine standardisierte ZG.
2
D X
Wahrscheinlichkeitsverteilungen

Diskrete Verteilungen Stetige Verteilungen

- 2- Pkt.- Verteilung - Gleichmäßig stet. Verteilung


(Münzwurf) - Normalverteilung und
- Gleichverteilung logarithmische NV
(Bsp. 1: Würfeln mit 1 Würfel) - Exponentialverteilung
- Binomialverteilung (Wachstumsprozesse)
(Qualitätskontrolle) - Weibullverteilung
- Hypergeometrische Vert. (Abnutzungsprozesse)
- Poissonverteilung - Prüfvert. (t-, χ2-, F- Vert.)
2.3 Normalverteilung (Gauss, 1809: „Theorie der
Beobachtungsfehler“)
Hintergrund:
Führt man wiederholt Messungen an ein und demselben
Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund
zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es
zeigt sich aber, dass bei häufiger Wiederholung der Messung
die erhaltenen Werte kleinere oder größere Abweichungen
voneinander und von einem bestimmtem „wahren“ Wert, dem
Erwartungswert, aufweisen.

Beispiele:
● zuf. Mess- und Beobachtungsfehler
● Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von
Bier, Saccharosegehalt von Zuckerrüben
Def.: Eine stetige ZG X heißt normalverteilt mit den
Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihre
Dichtefunktion die Form

( x −µ )
2

1
fX ( x ) = ⋅e 2 ⋅σ 2 x∈R, hat.
2π ⋅ σ
Satz: Eigenschaften der Dichtefunktion der NV
1. fX(x) ≥ 0 x∈R
2. fX besitzt an der Stelle x = µ ein Maximum und
1
fX (µ) =
2π ⋅ σ
3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σ
zwei Wendepunkte
4. fX ist symmetrisch bez. µ: fX(µ - x) = fX(µ + x)
Dichtefunktion der Normalverteilung
0,8
0,1
4,1
0,6
4,2
Dichte

4,0,5
0,4 0,2

0,2
fX(x; 0, 1) = ϕX(x)
0
-10 -6 -2 2 6 10 14
x
Standard- Normalverteilung
X ~ N (0, 1)
Verteilungsfunktion der Normalverteilung
Verteilungsfunktion

1
0,1
0,8 4,1
4,2
0,6 4,0,5
0,2 FX(x; 0, 1) = ΦX(x)
0,4

0,2

0 ist tabelliert!
-10 -6 -2 2 6 10 14
x
Bem.: - Für eine normalverteilte ZG X gilt:
EX = µ und D2X = σ2

- Der Parameter µ bedeutet : Verschiebung des


Symmetriezentrums
Der Parameter σ bedeutet: Streckung oder
Stauchung der Dichte
x
- Die Verteilungsfunktion: FX (x)= P(X ≤ x) =
∫ f (t )dt
−∞
X

aber: Integral nicht geschlossen integrierbar!

⇒ Standardisierung der normalverteilten ZG X und


Bestimmen der standardisierten Verteilungs-
funktion Φ (ist tabelliert!) !
Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σ
standardisiert werden, so dass Y ~ N(0, 1), und man
erhält:
fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y)
(Zusammenhang von Dichte- und Verteilungsfunktionen)

Dichtefunktion der Normalverteilung Verteilungsfunktion der Normalverteilung


N(0,1) N(0,1)

Verteilungsfunktion
0,4 1
0,1 0,1
0,8
0,3
Dichte

0,6
0,2
0,4
0,1
0,2

0 0
-5 -3 -1 1 3 5 -5 -3 -1 1 3 5
x x

ϕY(-y) = ϕY(y) ΦY(-y) = 1- ΦY(y)


Bestimmen von Intervallwahrscheinlichkeiten:

 X−µ x −µ
1. P( X ≤ x) = FX ( x) = P ≤  = P( Y ≤ y) = Φ Y ( y)
 σ σ 

2. P( X > x) = 1− P( X ≤ x) = 1 − FX ( x) =
 X−µ x −µ
1− P ≤  = 1− P( Y ≤ y) = 1− Φ Y ( y)
 σ σ 

3. P( x1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x1 )  x1 −µ
y1 =  
 X−µ   σ 
= P y1 < Y = ≤ y 2  = Φ Y ( y 2 ) − Φ Y ( y1 )
 σ   x2 −µ
y2 =  
 σ 
4. Spezialfall von 3.

Seien x1 = µ - kσ und x2 = µ + kσ

Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1

Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich


folgende Wahrscheinlichkeiten:
P(|X - µ|) ≤ 1σ) = 0,638
P(|X - µ|) ≤ 2σ) = 0,955
P(|X - µ|) ≤ 3σ) = 0,997 σ- Regel

d.h. es ist praktisch „fast sicher“, dass eine normal-
verteilte ZG X Werte zwischen µ - 3σ und µ - 3σ
annimmt.
Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten (ZG X)
sei normalverteilt mit X~ N(31,4; 0,04) [g].
Eine Tüte ist normgerecht gefüllt, wenn X Werte im
Intervall [30,9; 31,7] annimmt.

a) Wieviel % der Tüten sind normgerecht gefüllt?


b) Wieviel % der Tüten sind nicht normgerecht gefüllt?
c) Wieviel % der Tüten sind unterdosiert?
d) Wieviel % der Tüten sind überdosiert?
e) Wie müßte die untere Grenze des Toleranzbereiches
xu sein, damit nur 0,2 % der Tüten unterdosiert sind?
f) Welchen Wert müßte die Standardabweichung σ
haben, damit bei ursprünglichem Toleranzbereich nur
2% der Tüten unterdosiert sind?
Lösung:
a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319-
(1-0,99379) = 0,92698 ≈ 92,7 %
b) P( A ) = 1- P(A) = 7,3 %
c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 %
d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 %
e) P(X ≤ xu) = 0,002
 x u − 31,4 
= ΦY   = 0,002 1-0,002 = 0,998
 0,2  → ΦY(2,88) = 0,998

 x u − 31,4 
→ ΦY(-2,88) = 0,002 →   = −2,88
 0,2 
→ xu = 30,824
f) analog zu e)
 30,9 − 31,4   30,9 − 31,4 
ΦY   = 0,002 →   = −2,88
 σ   σ  → σ = 0,1736
2.4 Prüfverteilungen

Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die


insbesondere in der induktiven Statistik eine Rolle spielen.
Für die praktische Durchführung von Prüfverfahren benötigt
man insbesondere die Quantile dieser Prüfverteilungen.

Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX


und p∈(0,1) ⊆ R.
Dann heißt eine Zahl xp Quantil der Ordnung p, wenn
Fx(xP) = P(X ≤ xP) = p gilt.

Bem.: Ein Quantil der Ordnung p = ½ heißt Median


χ² - Verteilung (Helmert, 1876)

Chi-Quadrat Verteilung
0,1 FG
10
(n − 1)S ²
W = ~ χ ²( m )
0,08 20
30
σ²
Dichte

0,06 50
100
0,04

0,02 Freiheitsgrad m = n-1


0
0 30 60 90 120 150 180
x

Das Quantil der Ordnung p der χ²-Verteilung


mit m Freiheitsgraden wird mit χ²p;m
bezeichnet.
t-Verteilung („STUDENT“ , W. Gosset)

t- Verteilung
0,4 FG
10
20
0,3
30 X −µ
t= ⋅ n ~ t (m )
Dichte

50
0,2 100
S
0,1

0
-6 -4 -2 0 2 4 6
x
t- Verteilung
- Das Quantil der Ordnung p der

Verteilungsfunktion
1 FG
10
t- Vert. mit m FG- en wird mit 0,8 20
30
tp;m bezeichnet. 0,6 50
100
0,4
- Die t- Verteilung ist symmetrisch
0,2
und konvergiert für m→∞ gegen 0
die Standardnormalverteilung -6 -4 -2 0 2 4 6
x
F-Verteilung (Fisher)

F- Verteilung
2,4 FG
10,10
2 20,20
1,6 30,30 2
S
Dichte

50,50
1,2 100,100
F= 1
~ F(m1, m2 )
2
0,8
0,4
S 2
0
0 1 2 3 4 5
x

F- Verteilung
Das Quantil der Ordnung p der
1 FG

Verteilungsfunktion
F-Verteilung mit m1 und m2 0,8
10,10
20,20
FG- en wird mit Fp;m1;m2 0,6
30,30
50,50

bezeichnet. 0,4
100,100

0,2

0
0 1 2 3 4 5
x
3. Schließende
Methoden

/11/ Stahel, W. (1995)


Obj. Realität Stat. Modell

Merkmale Zufallsgröße X mit best.


Vert. oder Menge aller = GG
Real. der ZG, d.h. Menge
E aller Versuchsausgänge:
x1, x2, ...

Menge aller möglichen


Stichproben vom = Mathem.
Umfang n: Stichprobe
X = (X1, ..., Xn)

Messwerte Realisierungen der ZG X: = Konkrete


x = (x1, ..., xn) Stichprobe
1- Stichprobenproblem:
Konkrete Stichprobe Mathematische Stichprobe
(x1, Y, xn) (X1, Y, Xn) Grundgesamtheit
Schätzwert Schätzfunktion X
(Realisierung) (Stichprobenfunktion)
F̂n ( x ) Fn ( x) FX ( x )
1 n 1 n
x = ∑ xi X = ∑ Xi µ bei X~N(µ, σ2)
n i =1 n i=1
~ ~ ρ0
x 0 ,5 X 0 ,5
x mod X mod Mod
1 n
s =
2 1 n

n − 1 i=1
( x i − x )2 S =
2

n − 1 i=1
( Xi − X)2 σ2 bei X~N(µ, σ2)
mad MAD MADth
g1 G1 γ1
g2 G2 γ2
Y Y Y
Wichtigste Aufgabe der Statistik:
Aus den in der Stichprobe enthaltenen Informationen
Aussagen über die Grundgesamtheit zu gewinnen!

Es treten dabei 2 wichtige Probleme auf:


1. Schätzen der Verteilung der GG bzw. von Parametern

2. Prüfen von Hypothesen über die Verteilung der GG bzw.


von Parametern
3.1 Punktschätzungen und Konfidenzintervalle

Wir betrachten Punkt- und Intervallschätzungen für


Parameter von Zufallsgrößen.
Auf der Basis konkreter Stichproben führen:
Punktschätzungen ⇒ Näherungswerten und
Intervallschätzungen ⇒ Näherungsintervallen
für einen unbekannten Parameter.

1. Punktschätzungen
Bei Punktschätzungen wird ein einziger aus der Stichprobe
gewonnener Wert zur Schätzung des unbekannten
Parameters herangezogen.

Ein Punktschätzer ist eine Stichprobenfunktion T(X1,J, Xn)


der math. Stichprobe und ein Schätzwert ist eine Realisierung
t(x1,J, xn) auf der Basis der konkreten Stichprobe.
Bsp.: Unter der Voraussetzung, dass die GG X normalverteilt
ist mit EX = µ und D2X = σ2 , haben die Punktschätzer
n
1 n 1
X = ∑ Xi
n i=1
und S2 =
n − 1

i=1
( X i − X ) 2

die besten statistischen Eigenschaften


(Erwartungstreue, Konsistenz, Effizienz, Suffizienz)!

Man erhält Punktschätzer mit folgenden


Schätzmethoden:
● Momentenmethode
● Maximum Likelihood- Methode (MLM)
● Methode der kleinsten Quadrate (MkQ)

Die Realisierungen x und s2 stellen die zugehörigen


Punktschätzwerte (reelle Zahlen) aufgrund einer
konkreten Stichprobe dar.
Veranschaulichung von Treff- und Wiederholgenauigkeit
Parameter Θ (Schießscheibe)

Treff- u. Wieder- Treffgenauigkeit Treffgenauigkeit Treff- u. Wieder-


holungsgenauig- niedrig, hoch, holungsgenauig-
keit hoch Wiederholungs- Wiederholungs- keit niedrig
genauigkeit hoch genauigkeit
niedrig
Bem.: Die Treffgenauigkeit (Erwartungstreue) eines Schätzers
ist hoch (Bias klein), wenn die Schätzwerte wiederholter
Schätzungen den Parameter im Mittel gut treffen.
Die Wiederholungsgenauigkeit (Präzision) ist hoch
( D 2 θ̂ klein), wenn die Schätzwerte wiederholter
Schätzungen nahe beieinander liegen.
2. Konfidenzintervalle (Vertrauensintervalle)
● Mit einer Punktschätzung gewinnen wir keine
Aussage über die Genauigkeit einer solchen Schätzung.

● Die Abweichungen einzelner Punktschätzwerte vom wahren


Wert des Parameters können z.B. dann recht groß sein,
wenn der Stichprobenumfang klein ist.

● Mit Hilfe einer Intervallschätzung können wir uns eine Vor-


stellung von der Genauigkeit der Schätzung verschaffen.

Def.: Ein Konfidenzintervall ist ein Intervall, dass einen


unbekannten Parameter der Grundgesamtheit mit einer
vorgegebenen Wahrscheinlichkeit (1-α) enthält.
Bsp.: Konfidenzintervall für den Erwartungswert µ einer
normalverteilten GG
Sei X ~ N(µ, σ2) eine normalverteilte ZG und (X1, ..., Xn) eine
mathematische Stichprobe aus der GG X.
1. Fall: Die Varianz σ2 der normalverteilten GG sei bekannt
Für den unbekannten Parameter µ ist eine Konfidenz-
schätzung anzugeben.

Dann hat das Konfidenzintervall für µ die Form:

 σ σ 
= P X − ⋅z α < µ < X+ ⋅ z α  = 1 − α
n 1− n 1−
 2 2 

α
wobei z α das (1−
2
) - Quantil der Standardnormalverteilung
1−
ist. 2
Jede konkrete Stichprobe liefert uns dann ein realisiertes
Konfidenzintervall: z α
1-α α 1− z 2 1-α
0,95 0,05 1,96 1,64
 σ σ 
x − ⋅ z α; x + ⋅z α 0,99 0,01 2,58 2,33
 n 1− 2 n 1− 2   
Φ z α  = 1−

α
 1− 2  2

Dichtefunktion der Standard- Normalverteilung


0,4

0,3 1-α
Dichte

0,2

0,1 α/2 α/2

0
-5 -3 -1 1 3 5
z α z
z 1−
α
2
2
= −z α α
1−
2 1− -Quantil der Standard- NV
2
Bem.: Die Breite dieses Konfidenzintervalls für den Erwar-
tungswert µ beträgt 2d und ist von α, n, σ und der
Verteilung des zugehörigen Schätzers abhängig.
σ
2d = 2 ⋅z α
n 1−
2

Je größer α desto kleiner das Konfidenzintervall


Je größer n desto kleiner das Konfidenzintervall

Die Breite des Konfidenzintervalls ist hier ein Maß für die
Genauigkeit der Schätzung von µ und die
Irrtumswahrscheinlichkeit α ein Maß für das Risiko.

⇒ Planung des Stichprobenumfangs:


geg.: halbe Breite des Konf.intervalls d,
Varianz σ ,
2 σ 2
→ n = 2 ⋅ z 2 1− α
Konfidenzniveau (1-α) d 2
2. Fall: Die Varianz σ2 der normalverteilten GG sei nicht
bekannt und muß geschätzt werden.
Für den unbekannten Parameter µ ist eine Konfidenz-
schätzung anzugeben.
Wir wählen als Punktschätzer:
1 n
für den Erwartungswert µ: X = ∑ Xi und
n i=1
n
1
für die Varianz σ2 S2 = ∑
n − 1 i=1
( Xi − X)2

Dann hat das Konfidenzintervall für µ die Form:

 S S 
P X − ⋅t α < µ < X+ ⋅ t α  = (1 − α)
n 1− ; m n 1− ; m
 2 2 
α
wobei t 1− α ;m das (1−
2
) - Quantil der t- Verteilung ist.
2
Jede konkrete Stichprobe liefert uns wieder ein realisiertes
Konfidenzintervall:  s s 
x − ⋅t α
1− ; m
;x + ⋅t α
1− ; m

 n 2 n 2 
s
d= ⋅t α
n 1− 2 ;m

Veranschaulichung analog
wie beim 1. Fall!
Toleranzintervall: Anwendung bei der Kontrollkartentechnik:
( x - Kontrollkarte)
Mittelwert liegt außerhalb
des Toleranzbereiches!

S
µ0 + ⋅t α
n 1− 2 ;m
Toleranz-
µ0 bereich

s
µ0 − ⋅ t α
n 1− 2;m

xi
x1 x3 x5 x7
3.2 Statistische Tests
Es werden zwei Hypothesen für die GG aufgestellt:
● die Nullhypothese H0 (Annahme über die Verteilung
oder unbekannte Parameter
in der Grundgesamtheit) und
● die Alternativhypothese HA (wird angenommen, falls
H0 verworfen wird)

Durch einen statistische Test wird eine Entscheidung


zwischen beiden Hypothesen auf Grund einer Stichprobe
herbeigeführt.
Bei der Entscheidung für eine der beiden Hypothesen durch
einen Test kann man zwei Fehler begehen:
- Fehler 1. Art: Entscheidung für HA, obwohl H0 richtig ist und
- Fehler 2. Art: Entscheidung für H0, obwohl HA richtig ist
Betrachten wir ein paar Beispiele:
Bsp. 1: Es ist auf Grund einer Stichprobe zu prüfen, ob die
Länge von Escherichia Coli- Zellen eines best.
Bakterienstammes normalverteilt ist.
H0: FX = F0X HA: FX ≠ F0X (F0 - Vert.fkt. der Normalvert.!)
⇒ Test auf Normalverteilung
Bsp. 2: Der Wassergehalt von Butter X sei normalverteilt. Auf
Grund einer Stichprobe aus einer Molkerei soll geprüft
werden, ob der erhaltene Mittelwert mit dem Qualitäts-
sollwert µ0 = 15% verträglich ist, d.h.
ob die Abweichung zwischen x und µ0 nur zufällig ist
oder ob stat. signifikante Unterschiede vorliegen.

H0 : µ = µ0 = 84% HA: µ ≠ µ0 = 84%


⇒ Mittelwerttest für ein Einstichprobenproblem
Bsp. 3: Eine sehr zeitaufwendige Standardmethode M1 zur
Bestimmung der Trockenmasse von Kondensmilch soll
durch eine Schnellmethode M2 ersetzt werden. Auf der
Basis zweier Stichproben ist nun zu prüfen, ob die
Mittelwerte und Varianzen beider Methoden überein-
stimmen oder ob es signifikante Unterschiede gibt.
H0: µ1 = µ2 HA: µ1 ≠ µ2 (Vor.: NV!)
H0: σ12 = σ22 HA: σ12 ≠ σ22
⇒ Mittelwert- und Varianztest für ein 2-Stichproben-
problem

Bsp.4: Es ist zu prüfen, ob in einer Stichprobe ein stark nach


oben (bzw. nach unten) abweichender Wert als
„Ausreißer“ zu betrachten ist. (Vor.: NV!)
H0: xmax ist kein Ausreißer HA: xmax ist ein Ausreißer
⇒ Ausreißertest
Mögliche Entscheidungen bei einem stat. Test:
Realität Entscheidung für H0 Entscheidung für HA
HA wird abgelehnt H0 wird abgelehnt
H0 richtig richtige Entscheidung Fehler 1. Art
Sicherheitswahrsch. (1- α) Irrtumswahrsch. α
HA richtig Fehler 2. Art richtige Entscheidung
β Güte des Tests (1- β)

Bei zwei Entscheidungen entscheidet man sich richtig, jeweils


mit den Wahrscheinlichkeiten (1- α) bzw. (1- β) .
Führt ein Test nun zur Ablehnung von H0, so ist diese
Entscheidung für HA mit einer Irrtumswahrscheinlichkeit von α
behaftet und man sagt:
Das Ergebnis ist signifikant zum Signifikanzniveau α.
Bem.: 1. Beim Signifikanztest (auch α- Test genannt) wird
nur der Fehler 1. Art durch die Vorgabe von α
kontrolliert, während der Fehler 2. Art, der mit der
(unbekannten) Wahrscheinlichkeit β auftritt, unberück-
sichtigt bleibt.
Daher formuliert man die Hypothesen so, dass der
Fehler 1. Art der in seinen Folgen schwerwiegendere
ist, den man auf jeden Fall vermeiden möchte!
2. Beide Fehler kann man nicht gleichzeitig minimieren.
Denn: Je kleiner der eine Fehler ist, desto größer wird
der andere.
Aber: Beide Fehler werden bei der Planung des
Stichprobenumfanges mit berücksichtigt.
3. Das Signifikanzniveau α ist unter Beachtung der
konkreten Aufgabenstellung und insbesondere der
Folgen des Fehlers 1. Art festzulegen.
Übliche Werte für α sind: 0,1; 0,05; 0,01; 0,005; 0,001.
Arten statistischer Tests

Verteilungsfreie
Parametrische Tests (nichtparametrische) Tests

Ann. eines best. Ver- Keine Ann. eines best. Ver-


teilungstyps (z.B. NV!) für teilungstyps für die GG, nur
die GG, Stetigkeit oder Diskretheit,
Prüfung von Hypothesen über Prüfung von Hypothesen über
die Parameter (z.B. die Art der Verteilung (z.B. NV
Erwartungswert und Varianz) durch Anpassungstests) oder
Parameter (z.B. Median)
Tests basieren oft auf Rang-
statistiken
Allgemeine Vorgehensweise bei einem Parametertest:

1. Formulierung der Aufgabenstellung, einschließlich aller


Voraussetzungen über die GG
2. Aufstellen der Null- und Alternativhypothese H0 und HA
3. Wahl der Stichprobenfunktion T (Teststatistik) auf der Basis
der math. Stichprobe und Angabe ihrer Verteilung bei
richtiger Nullhypothese
4. Berechnung eines Wertes der Teststatistik t auf der Basis
einer konkreten Stichprobe
5. Wahl des kritischen Bereiches K für vorgegebene
Irrtumswahrscheinlichkeit α
6. Testentscheidung
Wenn t∈K → Ablehnung von H0 u. Annahme von HA
Wenn t∈K → Annahme von H0 u. Ablehnung von HA
1. Vergleich der Parameter einer NV mit Sollwerten -
Einstichprobentest
Annahme: Sei X~N(µ, σ2), (X1, ..., Xn) math. Stichprobe
aus GG X

3.2.1.1. Vergleich des Mittelwertes einer NV mit einem


Sollwert (Einstichproben- Test)
1. Fall: σ2 bekannt (Gauß- oder Z- Test)
1. Kann auf Grund einer Stichprobe geschlossen werden,
dass diese aus einer normalverteilten GG stammt, deren
Erwartungswert µ gleich einem vorgegebenen Sollwert µ0 ist?
Mit anderen Worten: Ist x mit µ0 verträglich oder

a) gibt es signifikante Abweichungen → 2- seit. Test


b) ist der MW echt größer als µ0
c) ist der MW echt kleiner als µ0? → 1- seit. Test
Vor.: X~N(µ, σ2), σ2 ist bekannt
2. Null- und Alternativhypothese
a) H01: µ = µ0 b) H02: µ ≤ µ0 c) H03: µ ≥ µ0
HA1: µ ≠ µ0 HA2: µ > µ0 HA3: µ < µ0

2-seit. Fragestellung 1-seit. Fragestellung

3. Wahl der Teststatistik


Wählen X als geeigneten Punktschätzer für µ und
standardisieren:
X − µ0
X → Z= ⋅ n ~ N( 0,1) (unter H0!)
σ
1 n σ2
da X = ∑ X i ~ N(µ, )
Teststatistik n i=1 n
4. Berechnen des Wertes der Teststatistik
x − µ0
z= ⋅ n
σ
5. Wahl des kritischen Bereiches (Verwerfungsbereich) K

Der krit. Bereich ist abhängig von der Irrtumswahrschein-


lichkeit α und der Art der Alternativhypothese.
P(Z∈K / H0) = α und P(Z∈K / H0) = (1- α)
   
a) HA1: µ ≠ µ0 Dichtefunktion der Standard- Normalverteilung
K =  − ∞; z α  ∪  z α ;+∞
 2  1− 2 
0,4

0,3
1-α

Dichte
0,2
kritische Grenzen
0,1
α/2 α/2
0
 
-5 -3

-1
z
1
z
1−
α
3 5
K =  z / | z |> z α 
1−
 2 
2 2

Ann.bereich H0
b) HA2: µ > µ0 c) HA3: µ < µ0
Dichtefunktion der Standard- Normalverteilung Dichtefunktion der Standard- Normalverteilung
0,4 0,4

0,3 0,3
1-α 1-α
Dichte

Dichte
0,2 0,2

0,1 α 0,1 α
0 0
-5 -3 -1 1 3 5 -5 -3 -1 1 3 5
z z1−α zα z

K = (z1− α ;+∞ ) = {z / z > z1− α } K = (− ∞; z α ) = {z / z < z α }


6. Testentscheidung
H0: µ = µ0 wird abgelehnt, wenn

a) z > z
1−
α b) z > z1−α c) z < zα
2

Analog gilt:
H0 wird abgelehnt, wenn der zu z gehörige P-Wert < α ist.
P heißt „Probability value“ oder „Grenzniveau“ oder „Über-
schreitungswahrscheinlichkeit“. Er ermöglicht eine
differenziertere Testentscheidung.

Häufig interpretiert man den P-Wert wie folgt:


Wenn P ≥ 0,05 → kein stat. sign. Unterschied
Wenn 0,05 > P ≥ 0,01 → stat. sign. Unterschied *
Wenn 0,01 > P ≥ 0,001 → stark sign. Unterschied **
Wenn 0,001 > P → sehr stark sign. Unterschied ***
Bem.: 1. Falls die Nullhypothese wahr ist, ergeben sich
folgende Entscheidungsbereiche:
a) HA1: µ ≠ µ0 b) HA2: µ > µ0

1-α
1-α

Ann.bereich von H0 Ann.bereich von H0

Die schraffierten Flächen α (Irrtumswahrscheinlichkeit)


geben die Wahrscheinlichkeiten an, dass die Nullhypothese
fälschlicherweise verworfen wird.
Bem.: 2. Falls die Nullhypothese falsch ist und µ = µ1 > µ0,
ergeben sich folgende Entscheidungsbereiche:

a) HA1: µ ≠ µ0 b) HA2: µ > µ0

β β

α/2 α

Ann.bereich von HA Ann.bereich von HA


Die schraffierten Flächen (1-β) (Trennschärfe, Macht eines
Tests) geben die Wahrscheinlichkeiten an, dass die wahre
Alternativhypothese durch den Test auch angenommen wird.
Die Macht (1-β) sinkt, je kleiner α wird.
2. Fall: σ2 unbekannt → Schätzen durch s2 (t- Test)

X − µ0
3. Teststatistik unter H0: t= ⋅ n ~ t ( n − 1)
S
x − µ0
4. Wert der Teststatistik: t̂ = ⋅ n
s

5. Kritischer Bereich K:
     
a) HA1: µ ≠ µ0 K =  − ∞; t α  ∪  t α ;+∞ = t̂ / | t̂ |> t α 
 2 
,m
 1− 2 ,m   1− ,m
2 

b) HA2: µ > µ0 { }
K = (t 1− α ,m ;+∞ ) = t̂ / t̂ > t 1− α ,m

c) HA3: µ < µ0 K = (− ∞; t α ,m ) = {t̂ / t̂ < t }α ,m


6. Testentscheidung
H0: µ = µ0 wird abgelehnt, wenn

a) | t̂ |> t α b) t̂ > t 1− α ,m c) t̂ < t α,m


1− ,m
2
bzw. wenn der zu t̂ gehörige P-Wert < α ist.

b) Dichtefunktion der t- Verteilung


0,4 FG: Hier:
10
0,3
Annahme
von H0 !
Dichte

P-Wert
0,2

0,1
α
0
-6 -4 -2 0 2 4 6

t t1−α,10

Ann.bereich vonH0
(1-α)- Quantil der t- Vert. zum FG 10
Ein Test ist von folgenden Größen abhängig:

● Mindestdifferenz d (Genauigkeitsvorgabe)
● Wahrscheinlichkeit für den Fehler 1. Art α
● Schranke für die Wahrscheinlichkeit für den Fehler 2. Art β0
● Varianz σ2 (1. Fall) bzw. s2 (2. Fall)

a) b)

Verlauf der Gütefunktion (Macht, Power) eines zweiseitigen


Tests (für kleinen und großen Stichprobenumfang) und
eines 1-seitigen Tests
Bsp.: Wassergehalt von Butter (Gauß- Test)
1. Für die Zufallsgröße X – Wassergehalt [%] von Butter sei
NV-Annahme gerechtfertigt. Es liegt eine Stichprobe vom
Umfang 10 vor und es ist durch einen Test zu prüfen, ob
diese Stichprobe aus einer GG mit dem Erwartungswert
µ0 = 15,2 [%] (Sollwert) stammt. Die Varianz σ2 = 0,04 [%]2
kann als bekannt vorausgesetzt werden.
a) Weicht x signifikant von µ0 ab? oder
b) Ist x signifikant größer als µ0?
Die Messwerte seien: 15,05 15,52 15,44 15,35 15,24
14,89 15,47 15,28 15,18 15,39
2. Hypothesen: a) H01: µ = µ0 b) H02: µ ≤ µ0
HA1: µ ≠ µ0 HA2: µ > µ0
X − µ0
3. Teststatistik: Z = ⋅ n ~ N(0,1)
σ x − µ0
4. Wert der Teststatistik: z = ⋅ n = 1,28 x = 15,28[%]
σ
5. Kritischer Bereich K:
a) b)
   
K =  − ∞; z α  ∪  z α ;+∞
 2  1− 2 
K = (z1− α ;+∞ )
 
K =  z / | z |> z α  K = {z / z > z1− α }
1−
 2 

α = 0,05 → z α = 1,96 z α = 1,645


1−
2

6. Testentscheidung:

| z |= 1,28 < z α = 1,96 z < z1−α = 1,645


1−
2
Ergebnis:
Für α = 0,05 wird H0 beibehalten, sowohl bei der 2- seitigen
als auch bei der 1- seitigen Fragestellung.
D.h.: Abweichungen bzw. eine Überschreitung des
Sollwertes sind nicht feststellbar.
Bem.: Wäre die Varianz σ2 = 0,04 [%]2 nicht bekannt, dann
müsste sie durch s2 geschätzt werden (t- Test, 2. Fall)
X − µ0
3. Teststatistik: t= ⋅ n ~ t(m)
S
x − µ0
4. Wert der Teststatistik: t̂ = ⋅ n = 1,2934 n = 10
s
x = 15,281 [%] s = 0,198 [%]
5. Kritischer Bereich K:
a) b)
α = 0,05 → t α =t α = 2,26 t 1− α ,m = t 1− α ,9 = 1,83
1− ,m 1− ,9
2 2

6. Testentscheidung: | t̂ |≤ t α t̂ = 1,29 ≤ t1− α,9


1 − ,m
2
Ergebnis:
Für α = 0,05 sind Abweichungen bzw. eine Überschreitung
des Sollwertes nicht feststellbar.
Allgemeine Bemerkungen zu Hypothesentests
1. Erweist sich ein Unterschied als nicht signifikant, so sagt
das noch nicht, dass damit die Hypothese wahr ist.
Es sagt bloß: Die Hypothese steht zum Ergebnis der
Stichprobe nicht im Widerspruch.
2. Ist die Abweichung des wahren Parameters, z.B. µ, vom
Sollwert µ0 nur klein, wird das Ergebnis einer kleinen Stich-
probe nur selten im Widerspruch zu µ0 stehen.
D.h., ob eine bestehende Abweichung von der Hypothese
erkannt wird oder nicht, hängt entscheidend von der Größe
der Stichprobe ab. Wollte man das Ergebnis „nicht
signifikant“ als eine Bestätigung der Nullhypothese auffassen,
so brauchte man bloß eine hinreichend kleine Stichprobe zu
wählen und könnte damit fast jede Nullhypothese bestätigen.
⇒ Als Nullhypothese wählt man daher stets das Gegenteil von
dem, was man beweisen möchte und versucht, es zu
widerlegen.
3. Eine Ablehnung von H0 und Annahme von HA bedeutet:
Wir können nicht sicher sein, uns richtig entschieden zu
haben, in Wirklichkeit könnte auch H0 wahr sein, dann
hätten wir jedoch H0 nur mit einer Wahrscheinlichkeit von
höchstens α (Wahrscheinlichkeit für Fehler 1. Art) durch den
Test abgelehnt, d.h. wir haben uns mit großer Sicherheit
richtig entschieden.
4. Eine Annahme von H0 bedeutet:
Falls in Wirklichkeit HA wahr sein würde, hätten wir einen
Fehler 2. Art begangen, deren Wahrscheinlichkeit durch den
Signifikanztest nicht kontrolliert wird. Sie lässt sich allerdings
durch die Gütefunktion bestimmen.
5. Es gilt nicht: Mit 95%-iger Sicherheit ist bei Ablehnung von
H0 HA wahr. Wir wissen nur, dass in 95% der Fälle die wahre
H0 durch den Test bestätigt wird und in 5% der Fälle nicht.
6. In zu kleinen Stichproben können selbst grosse, praktisch
bedeutsame Unterschiede oder Effekte nicht nach-
gewiesen werden, da sie sich nicht klar genug von den
zufälligen Fehlern abheben.

Mit grossen Stichproben kann man dagegen praktisch


unwichtige Unterschiede oder Effekte als “statistisch
signifikant” ausweisen.

⇒ “Praktische Relevanz” beachten und auf der Basis


von Vorgaben über die Wahrscheinlichkeiten für die
Fehler 1. u. 2. Art den Stichprobenumfang berechnen!
Übersicht über Parametertests (1- und 2- Stichprobenproblem)
Entscheidung
Art des Tests H0 und HA Teststatistik Krit. Bereich Annahme H0
P ≥ 0,05
Vergleich des H01: µ = µ0 a) σ bekannt a) HA1: a) z ≤ z
α
Mittelwertes mit 1−
HA1: µ ≠ µ0 X − µ0 K= (- ∞, z α )∪( z α , ∞) 2
1−
einer Konstanten Z= ⋅ n ~ N(0,1) 2 2
z ≤ z1−α
σ
H02: µ ≤ µ0 HA2: K = (z 1-α, ∞) z ≥ zα
a) 1-Stichproben- b) σ unbekannt
HA2: µ > µ0 HA3: K= (- ∞, z α)
Gauß-Test
X − µ0 t̂ ≤ t α
b) 1-Stichproben-
H03: µ ≥ µ0 t= ⋅ n ~ t(m) b) HA1: b) 1− ,m
2
HA3: µ < µ0 S K = (- ∞,t α )∪( t α , ∞)
t-Test ,m
2
1− ,m
2 t̂ ≤ t1−α,m
m = n-1
HA2: K = (t1-α,m , ∞) t̂ ≥ t α,m
HA3: K= (- ∞, tα,m)

Vergleich der H01: σ2 = σ02 HA1:


Varianz mit einer HA1: σ2 ≠ σ02 χ 2α χ2 α
K = (- ∞, 2 ,m )∪( 1− 2 ,m , ∞) χ2α ≤ χˆ 2 ≤ χ2 α
Konstanten (n − 1)S2 ,m 1− ,m
χ =
2
~ χ2
(m) 2 2

H02: σ2 ≤ σ02 σ02

χ12−α,m
1-Stichproben- HA2: σ2 > σ02 HA2: K = ( , ∞) χˆ 2 ≤ χ12−α,m
χ2- Test m = n -1
Entscheidung
Art des Tests H0 und HA Teststatistik Krit. Bereich Annahme H0
P ≥ 0,05
Vergleich von 2 a) σ1, σ2 bekannt a) HA1: a)
Mittelwerten bei K= (- ∞, z α )∪( z , ∞) z ≤z α
α 1−
unabhängigen 2
1−
2
2
Stichproben X1 − X 2
Z= ~ N(0,1) HA2: K = (z 1-α, ∞) z ≤ z1−α
σ 2
σ 2
+
1 2

a) 2-Stichproben- n1 n 2
Gauß-Test

H01: µ1 = µ2
b) 2-Stichproben- HA1: µ1 ≠ µ2 b) σ12, σ22 b) HA1: b)
t-Test t̂ ≤ t α
unbekannt, aber K = (- ∞, t α )∪(t α
, ∞) 1− ,m
,m 1− ,m 2
H02: µ1 ≤ µ2 σ12= σ22 2 2
t̂ ≤ t1−α,m
HA2: µ1 > µ2
X1 − X 2 n1 ⋅ n 2
t= ⋅ ~ t(m) HA2: K = (t1-α,m , ∞)
Sd n1 + n 2

(n1 − 1) S12 + (n 2 − 1) S 22
Sd =
n1 + n 2 − 2

m = n1+n2 -2 m = n1+n2 -2
Entscheidung
Art des Tests H0 und HA Teststatistik Krit. Bereich Annahme H0
P ≥ 0,05
Vergleich von 2 c) σ12, σ22 c) HA1: c)
Mittelwerten bei unbekannt, aber K= (- ∞, t α )∪( t α , ∞) t̂ ≤ t α
unabhängigen ,m 1− ,m 1− ,m
σ12≠ σ22 2 2 2
Stichproben
X1 − X 2 HA2: K = (t1-α,m , ∞)
t= ~ t(m) t̂ ≤ t1−α,m
c) 2-Stichproben- H01: µ1 = µ2 S12 S 22
t-Test mit HA1: µ1 ≠ µ2
+ aber.: unterschiedliches m
n1 n 2
Welch- im Vergleich zu b)!
Korrektur H02: µ1 ≤ µ2 mit
1 c2 (1 − c ) 2
HA2: µ1 > µ2 = +
m n 2 − 1 n1 − 1

s 22
und
n1
c=
s12 s 22
+
n1 n 2

Vergleich von 2 HA1:


H01: σ12 = σ22 S12 Fα ≤ f ≤F
Varianzen bei F = 2 ~ F(m1, m2 ) K = (- ∞, Fα ) ,m1,m 2
α
1− ,m1,m 2
unabhängigen HA1: σ12 ≠ σ22 S2 2
,m1,m2 2 2

Stichproben ∪(F , ∞)
m1 = n1 – 1; m2 = n2 - 1 α
1− ,m1,m2
H02: σ11 ≤ σ22 2
2-Stichproben- Vor.: s12 ≥ s22 , sonst
HA2: σ11 > σ22 Stichproben ver- HA2: K = ( F1−α,m1,m2 , ∞) f ≤ F1−α,m1,m2
F-Test tauschen!
3.3 Varianzanalyse

- Die Varianzanalyse ermöglicht es, Unterschiede zwischen


den Erwartungswerten normalverteilter Zufallsgrößen
(hier: Faktoren) in mehr als zwei Gruppen (oder Stufen) zu
untersuchen. Sie ist damit eine Erweiterung des Mittelwert-
vergleichs (t- Test) von zwei auf mehr als zwei Gruppen.
- Je nach Anzahl der Faktoren unterscheidet man zwischen
einfaktorieller und mehrfaktorieller Varianzanalyse
- Bei VA- Modellen vom Typ I werden nur Faktoren mit festen
Stufen betrachtet.
- Sie heißt Varianzanalyse, weil geprüft wird, ob die
Variabilität zwischen den Gruppen größer ist als innerhalb
der Gruppen.
Bsp.: 4 Laboratorien sind hinsichtlich ihres mittleren 2,3-
Butandiolgehaltes in Wein zu vergleichen.
Voraussetzungen für die Varianzanalyse:
Umfang der i-ten Gruppe

● Xi ~ N(µi, σ2) i = 1, ..., a j = 1, ..., ni

Anz. der Gruppen od. Stufen

● Homogenität der Varianzen: σi2 = σ2 ∀i

⇒ Bartlett-Test ( NV, ni > 5)


Cochran-Test (NV, ni=n ∀i)
Levéne-Test (keine NV)
Man betrachtet a Stichproben:

 X 11  ....  X a 1 
   
Xij:  :   
   
 X 1n 1  ....  X an a 
VA- Modell I mit einfacher Klassifikation:
Xij = µi + εij i = 1, ..., a j = 1, ..., ni

Xij = µ + αi + εij mit εij ~ N(0, σ2) (zufälliger Fehler)

- χ2- Anpassungstest
wobei: µ - Gesamterwartungswert
- Shapiro- Wilks-Test
αi - Effekt der i- ten Stufe
- T. auf Schiefe und Exzess
des Faktors A;
- Kolmogorov- Smirnov-T.
αi = µi - µ
mit Lilliefors- Korrektur
Bsp.: Vergleich des mittleren Butandiolgehaltes in 4
Laboratorien
Ausgangstabelle (Versuchsplan):
Nr. der Wdhlg. Stufen des Faktors: Labor
j L1 L2 L3 L4
1 0,780 0,810 0,760 0,746
2 0,770 0,790 0,750 0,750
3 0,780 0,770 0,720 0,734
4 0,774 0,780 0,756 0,741
5 0,750 0,760 0,770 0,739
6 0,790 0,770 0,780 0,736
xi. 0,774 0,780 0,756 0,741
s i. 0,014 0,018 0,021 0,006
a=4 ni = n = 6 N = 24

Anz. der Laboratorien Gruppenumfang Gesamtstichprobenumfang


Box- Whisker Plot ansehen!

Box- Whisker Plot


0,82
Butandiolgehalt

0,8

0,78

0,76

0,74

0,72
L1 L2 L3 L4
1. Unterscheiden sich die 4 Laboratorien hinsichtlich des
mittleren Butandiolgehaltes von Wein, d.h. hat der Faktor
“Laboratorium” Einfluss auf den Butandiolgehalt?

Vor.: Xi ~ N(µi, σ2) (?) i = 1, ..., 4 j = 1, ..., 6

Homogenität der Varianzen: (Test: H0: σ12 = ... = σ42


gegen HA: ∃ (i,j): σi2 ≠ σj2 (i ≠ j)
→ kann angenommen werden (?)
Modellannahme: Xij = µ + αi + εij mit εij ~ N(0, σ2)
= µi + εij

2. Hypothesen:
H0: µ1 = ... = µ4 äquivalent H0: α1 = ... = α4 = 0
HA: ∃ (i,j): µi ≠ µj (i ≠ j) HA: ∃ (i,j): αi ≠ αj (i ≠ j)
3. Teststatistik unter H0:
Teststatistik basiert auf Zerlegung der Summe der
Abweichungsquadrate
Ausgangspunkt: Empirische Varianz s2
a ni
1 1
s =
2

N − 1 i =1

j =1
( X ij − X ⋅⋅ ) =
2

N −1
SQ G

SQG – Summe der Abweichungsquadrate der Messwerte vom


Gesamtmittelwert
SQG = SQI + SQZ
SQI - Summe der Ab-
a ni
weichungsquadrate
SQ I = ∑∑
i=1 j=1
( X ij − X i⋅ ) 2
innerhalb einer Gruppe
(Stufe)
a ni SQZ - Summe der Ab-
SQ Z = ∑ ∑ (X i⋅ − X ⋅⋅ ) 2
weichungsquadrate
i=1 j=1 zwischen den Gruppen
(Stufen)

ni
1
wobei Xi⋅ = ∑ Xij Gruppenmittelwert
ni j=1
a ni
1
X ⋅⋅ =
N
∑∑X
i =1 j =1
ij Gesamtmittelwert

Es gilt ebenfalls: FGG = FGI + FGZ


(N-1) = (N-a) + (a-1)
1
⇒ MQ G =s =
2
SQ G
N −1

1
MQ I = SQ I
N−a

1
MQZ = SQZ
a −1

MQ Z
⇒ Teststatistik unter H0: F= ~ F ( m 1, m 2 )
MQ I

m1 = a-1 m2 = N-a
4. Wert der Teststatistik:
⇒ Varianztabelle (ANOVA-Tabelle)
Wert der
Variations- Test-
S Q̂ FG MQ̂ P-Wert
ursache statistik
f
zwischen SQ̂Z a-1 MQ̂ Z M Q̂ Z P=
den Stufen f= 0,0012
M Q̂ I
0,00565 3 0,00188
innerhalb SQ̂I N-a MQ̂I
der Stufen = 7,82
0,00482 20 0,00024
Gesamt SQ̂G N-1 MQ̂G

0,009538 23
5. Kritischer Bereich K:

Dichtefunktion der F- Verteilung


0,8 FG
3,20
0,6

Dichte
0,4

0,2
α
0
0 1 2 3 4 5
F
F 3; 20; 0,95

6. Testentscheidung:
Wenn f > Fa-1; N-a; 1-α → Ablehnung von H0
Da 7,82 = f > F3; 19; 0,95 = 3,127 → Ablehnung von H0,
d.h. die Mittelwerte des Butandiolgehaltes der Laboratorien
unterscheiden sich zum Signifikanzniveau α = 0,05.
Bem.: Wenn die Nullhypothese H0 abgelehnt wird, ist man
daran interessiert, herauszufinden, welche Gruppen
einen signifikant höheren oder niedrigeren Mittelwert
aufweisen und schließt daher multiple paarweise Ver-
gleiche, z.B. mit der Prozedur von Tukey- Kramer an.
Man prüft dann den folgenden Hypothesenkomplex,
 a  a ⋅ ( a − 1)
bestehend aus   = Hypothesen:
2 2
H0: µi = µj (i ≠ j) gegen HA: µi ≠ µj (i≠j)

MW und 95%-iges HSD- Intervall von Tukey


0,8

0,78
MW

0,76

0,74

0,72
L1 L2 L3 L4
HSD- Test von Tukey- Kramer (α = 0,05 versuchsbezogen, wird
für alle Vergleiche eingehalten!)
------------------------------------------------------------------------------------
Gruppe Anz. MW Homogene Gruppen
------------------------------------------------------------------------------------
L4 6 0,741 X
L3 6 0,756 XX
L1 6 0,774 X
L2 6 0,78 X
------------------------------------------------------------------------------------
Kontrast Differenz +/- Grenzen
------------------------------------------------------------------------------------
L1-L2 -0,006 0,0251053
L1-L3 0,018 0,0251053
L1-L4 *0,033 0,0251053
L2-L3 0,024 0,0251053
L2-L4 *0,039 0,0251053
L3-L4 0,015 0,0251053
------------------------------------------------------------------------------------
* statistisch signifikante Differenz (α = 0,05)
Ergebnis:

- Zwischen zwei Laboratorien gibt es statistisch signifikante


Mittelwertunterschiede hinsichtlich des Butandiolgehaltes
von Weinen auf dem 5%- igen Signifikanzniveau,
d.h. in 5 % aller Fälle liefert die HSD- Methode von Tukey-
Cramer fälschlicherweise ein oder mehr signifikante
Paare mit Mittelwertdifferenzen.

- Zwei homogene Gruppen von Laboratorien wurden gebildet:


Gruppe 1: L 3 und L 4 und
Gruppe 2: L 1, L 2 und L 3.
Bem.: Wenn Xi nicht normalverteilt und/ oder keine Varianz-
homogenität vorliegen würde (s. Box- Whisker Plot!)
→ Kruskal- Wallis Test (unabh. Stichproben) anwenden!
H0: ζ1 =J= ζ4 (Mediane)
Anz. MW der Ränge HA: ∃ (i,j): ζi ≠ ζj (i ≠j)
------------------------------------------------------------
L1 6 16,8333
L2 6 17,75
L3 6 10,75
L4 6 4,66667
------------------------------------------------------------
Wert der Teststatistik = 13,4436 →
P- Wert = 0,0038 < α = 0,05 → Ablehnung von H0 (Gleichheit
der Mediane)
Um zu ermitteln, welcher der Mediane sich signifikant von
welchem unterscheidet, kann man den Box- Whisker Plot mit
der „notch option“ auswählen.
Bem.: Bei zwei oder mehr Faktoren im Varianzanalyse-
modell können neben den Haupteffekten der Faktoren
auch deren Wechselwirkungen bestimmt werden.

Bsp.: Der Vanadiumgehalt in Wein ist von den Faktoren


„Land“, „Typ“ und „Farbe“ abhängig.
Means Plot with confidence limits for Vanadium
(Interaction: Type*Country*Colour)
2,5

2,0

1,5
Wechsel-
Vanadium

1,0
Wirkungs-
0,5
plot
0,0

-0,5

-1,0 Czech Republic


Ty pe: Authentic Commercial Type: Authentic Commercial Hungary
Romania
South Africa
White wines Red wines

Das könnte Ihnen auch gefallen