Sie sind auf Seite 1von 67

Qualitätssicherung in der Instrumentellen Analytik 1

1. Einführung
Statistik wird als Werkzeug in der analytischen Chemie vielseitig angewendet. Von
analytisch arbeitenden Mitarbeitern in Laboratorien mit Hilfe der angewandten
Statistik verschiedene Fragestellungen beantwortet, z.B.:

ƒ Ist das Analysenverfahren Nr. 1 mit dem Verfahren Nr. 2, das schneller und
billiger ist, in Richtigkeit und Präzision gleichwertig?
ƒ Wie viele Stichproben sollten genommen werden, dass eine repräsentative
Untersuchung sinnvoll ist?
ƒ Wie hoch ist die Nachweisgrenze einer toxischen Substanz mit einer
bestimmten Analytischen Methode in einer komplizierten Matrix?

Die Statistik ist die Kunst, gewonnene Daten zu analysieren, darzustellen und zu
interpretieren, damit der Anwender zu neuem Wissen gelangt. Die Gesamtheit der
Statistik im analytischen Laboratorium lässt sich im Allgemeinen auf wenige
Fragestellungen reduzieren:
ƒ Welcher Wert ist für eine Messreihe repräsentativ?
ƒ Wie groß streuen die Messwerte um einen repräsentativen Wert?
ƒ Wie gut kann eine gewonnene Aussage verallgemeinert werden?
ƒ Wie hoch ist der Zusammenhang zwischen verschiedenen Eigenschaften?

Die Statistik ist das Instrument der Qualitätssicherung, indem sie standardisierte und
leistungsfähige Tests zur Beurteilung der Qualität zur Verfügung stellt. Es darf jedoch
niemals vergessen werden, dass Qualität ein ganzheitlicher Begriff ist, der nicht
durch die Statistik gemacht wird. In einem 4-Phasen-Modell in der Qualitätssicherung
wird in allen vier Phasen auf statistische Methoden zurückgegriffen um Parameter
und Größen zu berechen, die das Vorhandensein von Qualität belegen. Diese vier
Phasen der Qualitätssicherung sind:
ƒ Die Methodenentwicklung
ƒ Der Einbau der Methode in die Routine
ƒ ein interne Qualitätsüberwachung in der Routineanalytik
ƒ die externe Qualitätssicherung (z.B. Ringversuche).

2. Daten
In der Analytik werden Ergebnisse erhalten, die statistisch interpretiert werden
müssen. Das Analysenergebnis wird durch eine vorher durchgeführte Analyse
erhalten. Es steht das Analysenmaterial („Objekt“) zur Verfügung. Vorher muss
festgelegt werden, welcher Analyt („statistische Merkmal“) überhaupt qualitativ oder
quantitativ bestimmt („quantifiziert“) werden soll. Die Auswahl der geeigneten
statistischen Methode ist von der Datenart abhängig.

2.1 Qualitative Daten

Qualitative Daten werden durch Zählen und Vergleichen erhalten. Die qualitative
Anwesenheit eines Analyten in einer Probe soll nachgewiesen werden. Als Ergebnis
gibt es entweder die positive Aussage „vorhanden“ oder die negative Aussage „nicht
vorhanden“. Qualitative Daten werden unterschieden in „Nominaldaten“ und „Bewer-
tungsdaten“. Nominaldaten können keinem Bewertungsmuster unterworfen werden.
Qualitätssicherung in der Instrumentellen Analytik 2

Beispiel: Bestimmung von


Fellfarben von Meerschweinen in
einem Wurf. Die Fellfarbe „weiß“ Nomialdaten
erfährt dabei keine höhere
Bewertung als die Fellfarbe „grau“.
Die Nominaldaten werden sehr
Qualitative
häufig zum Vergleichen von
Daten
Merkmalen benutzt.

Bewertungsdaten werden in einer


bestimmten Reihenfolge aufgeführt
Bewertungsdaten
und bewertet. Die qualitative
Datenart „Analyt in der Probe
vorhanden“ erfährt eine höhere
Bewertungsstufe als die Datenart Daten
„Analyt in der Probe nicht
vorhanden“, denn eine
stetige Daten
Quantifizierung könnte sich
anschließen. Solche
Bewertungsdaten werden auf einer
„Ordinalskala“ eingeordnet, die
Quantitative
Reihenfolge stellt dabei die Analyse
Rangabstufung dar.

2.2 Quantitative Daten


diskrete Daten
Quantitative Daten können auf
einer metrischen Skala angeordnet
werden. Das „Wieviel“ eines Analyten
steht bei dieser Datenart im Vorder- Abbildung 1: Einteilung der Daten.
grund. Es gibt „diskrete“ und „stetige“
Daten. Diskrete Daten sind immer ganzzahlig. Beispiel: Anzahl der Mitarbeiter in
einem Laboratorium. Stetige Daten können jeden beliebigen Wert zwischen zwei
Grenzwerten einnehmen. Zum Beispiel kann die Massenkonzentration von Kupfer im
Trinkwasser in µg/L von „0“ bis zur Sättigung jeden beliebigen Wert einnehmen.
Solche Werte werden durch Messungen erhalten und können in einer stetigen Skala
dargestellt werden.

2.3 Statistische Begriffe

2.3.1 Grundgesamtheit

Die Grundgesamtmenge aller Einheiten, die bei der statistischen Betrachtung


untersucht werden soll, heißt Grundgesamtheit.

Beispiel: Statistische Wahlvorhersage. Grundgesamtheit wäre das ganze


wahlberechtigte Volk.

Die Grundgesamtheit kann im analytischen Regelfall aus Kosten- und Zeitgründen


nicht gemessen werden.
Qualitätssicherung in der Instrumentellen Analytik 3

2.3.2 Stichprobe

Kann eine Grundgesamtheit wegen ökonomischer Zwänge (Zeit, Geld) nicht


vollständig erfasst werden, so müssen Stichproben genommen werden.

2.3.3 Kenngröße

Unter der Kenngröße versteht man die Eigenschaft der gezogenen Stichprobe, z.B.
den Mittelwert einer Datenreihe. Mit Hilfe der Kenngrößen, die aus der Stichprobe
gewonnen werden, schätzt man die interessierenden Größen der Grundgesamtheit
ab. Diesen Vorgang nennt man statistische Schätzung.

2.3.4 Wahrer Wert

Der „wahre Wert“ µ ist im Allgemeinen unbekannt, nicht direkt und nicht absolut
messbar. Ziel jeder Analysenreihe ist es, diesem wahren Wert so nahe wie möglich
zu kommen. Der Mittelwert xM einer Reihe ist ein Näherungswert des wahren Werts
µ und kann somit ein Maß für die Richtigkeit sein.

Bei der Überprüfung der Richtigkeit werden manchmal „synthetische Testproben“


hergestellt, hierbei wird der „wahre“ Wert dem „Zielwert“ gleichgesetzt.
Achtung: Herstellung der Probe muss fehlerfrei erfolgen.

3. Häufigkeitsverteilungen
Bei häufiger Wiederholung einer Analyse konvergiert die Häufigkeit h(X) bestimmter
Ergebnisse (Ereignisse) X gegen die Wahrscheinlichkeit P(X) für das Auftreten
dieses Ereignisses. Die mathematische Definition der Wahrscheinlichkeit ist gegeben
durch das Verhältnis der Anzahl der aktuellen Ausgänge n eines Versuches zur
Anzahl aller möglichen Ausgänge N.
n
P(X) = N

Wahrscheinlichkeitsverteilungen werden durch Wahrscheinlichkeitsfunktionen be-


schrieben. Wahrscheinlichkeitsverteilungen können diskret oder kontinuierlich sein.

a) Diskrete Wahrscheinlichkeitsfunktion: Würfeln. Summe der Punkte.


b) Kontinuierliche Wahrscheinlichkeitsfunktion: Ergebnisse chemischer Analysen

Die Maßzahlen der Ergebnisse sind positive reelle Zahlen, deren


Wahrscheinlichkeitsdichte p(x) als kontinuierliche Funktion der Messgröße x
dargestellt werden kann. Beobachtete Messwerte können nach ihrer Häufigkeit h(x)
in Klassen eingeteilt und diese in Abhängigkeit von x aufgetragen werden, z.B. in
Form eines Säulendiagramms (Histogramms). Wird die Zahl der
Wiederholungsmessungen erhöht (gegen Unendlich) und gleichzeitig die Breite der
Klassen (gegen Null) verringert, erhält man im Normalfall eine symmetrische
glockenförmige Verteilung der Messwerte, die als Gauß- und Normalverteilung
bezeichnet wird.

N(x) = 1 exp [- (x - µ)² ]


½
σ·(2π) 2σ²
Qualitätssicherung in der Instrumentellen Analytik 4

mit den Parametern µ als


Maximum (Mittelwert) und σ
als dem halben Abstand
der Wendepunkte
(Standardabweichung).
In der analytischen Praxis
werden Stichproben der
Grundgesamtheit

p(x)
untersucht, d.h. die
Normalverteilung gilt nur
näherungsweise und
anstelle der Parameter µ
und σ werden die
Schätzwerte als
arithmetischer Mittelwert xM
und s als Näherungswerte
µ-σ µ µ+σ
für die x

Standardabweichung
angegeben. Abbildung 2: Gaussverteilung p(x) = N(µ,σ²) von
Messwerten.

3.1 Beispiel: Diskrete Häufigkeitsverteilung: Wiederfindungsrate

Typische Grundmuster von Häufigkeitsverteilungen sind:


ƒ Eingipflige, fast symmetrische Verteilung mit einem Maximum in der Mitte
ƒ hochgradig, schiefe , J- förmige Verteilung
ƒ eingipflige, verschobene, schiefe Verteilung
ƒ U-förmige Verteilung

3.2 Methoden zur Wahl der Klassenbreite

Die Wahl der der Klassenbreite ist für das Glätten von Lücken und Unregel-
mäßigkeiten von entscheidender Bedeutung.
Achtung: Wird die Klassenbreite zu groß gewählt, können Informationen, die die
Häufigkeitsverteilungen enthalten, verloren gehen.
Es gibt verschiedenen Methoden zur Wahl der optimalen Klassenbreite. Sie ist in
allen Fällen abhängig vom Stichprobenumfang:

3.2.1 Methoden zur Wahl der Klassenbreite nach DIN 55302

DIN 55302 gibt Empfehlungen zur Breite der Klasse, die in folgender Tabelle
zusammengefasst sind.

Tabelle 1: Anzahl der Klassen und Stichprobenumfang nach DIN 55302.


Stichprobenumfang Anzahl der Klassen
≤ 50 keine Klassen
≤ 100 10 Klassen
≤ 1000 13 Klassen
≤ 10000 16 Klassen
Qualitätssicherung in der Instrumentellen Analytik 5

3.2.2 Methode zur Wahl der Klassenbreite nach Werner J., Medizinische
Statistik.

Tabelle 2: Anzahl der Klassen und Stichprobenumfang nach Werner J., Medizinische
Statistik, 1984.

Stichprobenumfang N Anzahl der Klassen k


≤ 1000 k = N1/2
> 1000 k = 10·lgN
≤ 10000 16 Klassen
lg: dekadischer Logaritmus.

In dem hier genannten Beispiel mit 55 Stichproben ist eine Klassenanzahl von 6 bis 8
akzeptabel.

k = 551/2 ≈ 7,4

3.2.3 Allgemeine Regeln für die Erstellung von Klassen nach Werner J.,
Medizinische Statistik, 1984:

ƒ Die Klassenzahl k soll ganzzahlig sein.


ƒ Die Klassenbreite wählt man für alle Klassen gleich breit, sie wird auf die Zahlen
mit der Endziffer 0 oder 5 gerundet.
ƒ Die Klassengrenzen sollten möglichst ein fache glatte Zahlen sein.
Die Klassenbreite b berechnet sich nach folgender Gleichung:
xmax – xmin
b=
k
xmax: größter Wert
xmin: kleinster Wert
k: Klassenzahl

3.2.4 Relative Häufigkeit B

Bj = nj · 100%
N

nj: absolute Häufigkeit des Messwertes aus einer Stichprobe aus der j–ten
Klasse
N: Gesamtzahl der Stichprobe
Bj: Relative Häufigkeit des Messwertes aus einer Stichprobe aus der j–ten
Klasse

3.2.5 Häufigkeitssummen
j
Häufigkeitssumme = Σ Bj
j=1
Qualitätssicherung in der Instrumentellen Analytik 6

3.3 Lagekenngrößen in Häufigkeitsverteilungen

3.3.1 Mittelwert

Die Bildung eines Mittelwerts ist bei einer vorliegenden Häufigkeitsverteilung dann
notwendig, wenn man alle Daten in einer Datenreihe zu einer „orientierungs-„ oder
„Repräsentanzgröße“ zusammenfasst. Je nach Zweck dieser Zusammenfassung und
nach Typ der Häufigkeitsverteilungen gibt es verschieden Arten von
Mittelwertbildungen.

3.3.1.1 Arithmetischer Mittelwert

Der arithmetische Mittelwert xM wird berechnet nach:

xM =
Σxi
N
xi: Einzelwerte der Ergebnisse
N: Anzahl aller Messwerte N

Die Bildung des arithmetischen Mittelwerts ist nur dann sinnvoll, wenn alle Werte
gleichhäufig vorkommen. Die Bildung des arithmetischen Mittelwerts xM ist sinnvoll,
bei der Zusammenfassung von Messwerten, die dieselben relative
Bestimmungsunsicherheiten aufweisen. Bildung des arithmetischen Mittelwerts xM ist
nicht sinnvoll, bei Häufigkeitsverteilungen, deren relative Häufigkeiten
unterschiedliche Werte aufweisen

3.3.1.2 Gewichteter Mittelwert xM,w

Nimmt man an, dass ermittelte Einzelergebnisse unterschiedlich „zuverlässig“


ermittelt werden können. Dann ist es üblich den „zuverlässigeren“ Ergebnissen mehr
„Glaubwürdigkeit“ und damit bei der Mittelung mehr „Gewicht“ zu verleihen. Die
Berechung des gewichteten xM,w erfolgt nach

xM,w =
Σwi·xi
Σwi
wi: Gewicht des Einzelwerts xi (Wichtungsfaktor)
xi: Einzelwert
Das Gewicht kann auf unterschiedliche Weise berechnet werden.

a) Ermittlung von wi bei Vorliegen einer Häufigkeitsverteilung (wi = Bi)


Zur Interpretation von Daten aus Messungen muss immer überprüft werden, ob der
Mittelwert dazu überhaupt geeignet ist. In eingipfligen Häufigkeitsverteilungen ist die
der Fall. In J- und U-förmigen Verteilungen nicht.

b) Ermittlung von wi aus den Bestimmungsunsicherheiten der Einzelwerte


Wird die Messunsicherheit Δxi von Einzelwerten xi abgeschätzt, so können die
Wichtungsfaktoren wi berechnet werden nach
1
wi =
Δxi²
Qualitätssicherung in der Instrumentellen Analytik 7

Werte mit einer kleineren Messunsicherheit erhalten in dem gewichteten Mittelwert


mehr Gewicht, d.h. sie werden als „dem wahren Wert näher“ angesehen als Werte
mit hoher Messunsicherheit.

3.3.1.3 Median (Zentralwert)

Median ist der Wert, der die nach ihrer Größe geordnete Wertereihe in zwei gleich
große Teile zerlegt. Der Median wird manchmal auch „Halbierungspunkt“ genannt.

Bestimmung des Median:


ƒ alle Daten werden in aufsteigender Reihe sortiert.
ƒ den Werten wird eine Rangzahl zugewiesen (1. Zahl, 2. Zahl usw.).
ƒ Zwei Bedingungen sind zu unterscheiden.

a. Die Stichprobenanzahl ist ungeradzahlig:


N+1
Median = tes Merkmal
2
b. Die Stichprobenanzahl ist geradzahlig:
Die Zahlenbereich wird in zwei Hälften geteilt. Aus dem letzten Wert der ersten Hälfte
und dem ersten Wert der zweiten Hälfte wird der arithmetische Mittelwert gebildet.
Hauptvorteil: Der Median ist unempfindlich gegenüber Ausreißern.

3.3.1.4 Modalwert (Häufigster Wert)

Der Modalwert, auch Gipfelwert genannt, ist der häufigste Wert in einer Datenreihe.
In mehrgipflichen Verteilungen gibt es mehrere „lokale“ Modalwerte. Streng
genommen ist der Modalwert der Wert, der dem Maximum der idealen
Verteilungskurve mit der besten Anpassung an die Verteilung entspricht. Bei in
Klassen eingeteilten Daten ist er als Klassenmitte der am stärksten besetzten Klasse
definiert. Treten zwei Klassen mit besonderer Häufigkeit aus, so müssen zwei
Modalwerte ermittelt werden. Eine solche Verteilung heißt bimodal.
Median und Modalwert werden von Ausreißern wenig oder gar nicht beeinflusst. Der
Mittelwert wird von Aussreißern beeinflusst. Sie gelten als Maß für die Richtigkeit.

3.4 Streuungen in Häufigkeitsverteilungen

Es werden Streuungskenngrößen benötigt, die als Maß für die Präzision dienen.

3.4.1 Spannweite R

Die Spannweite R (Range, Variationsbreite) ist die Differenz zwischen dem größten
und dem kleinsten Wert in der Datenreihe. Streng genommen sollten nicht die
Differenz der beiden Extremwerte angegeben werden, sondern die beiden
Extremwerte selber. Bei kleiner Anzahl von Daten (2 oder 3) in einer Datenreihe ist
die Ermittlung der Spannweite sinnvoll. Besteht eine Datenreihe aus sehr vielen
Elementen dann wird dieser Parameter wegen der Nichtbeachtung der „inneren“
Elemente zunehmend fragwürdig, denn der Einfluß von Ausreißerwerten wird
zunehmend dominierend.
Qualitätssicherung in der Instrumentellen Analytik 8

3.4.2 Quartilabstand

Um die Abhängigkeit der Spannweite von zwei Extremwerten zu vermeiden, wird


manchmal der so genannte Quartilabstand berechnet. Der Quartilabstand ist die
Länge des Intervalls, das 25 % der größten und 25 % der kleinsten Werte
ausschließt.

3.4.3 Interdezilbereich I80

Eine weitere Streuungskenngröße ist der Interdezilbereich I80. Zur Bestimmung


werden alle Daten der Reihe nach der Größe geordnet. Die Datenreihe wird dann
durch neun Werte in zehn gleich große Teile geteilt. Diese Werte bezeichnet man
als „Dezile“. Die Differenz des Ersten und des neunten Dezils nennt man
Interdezilbereich I80.

3.4.4 Varianz var(x)

var(x) =
Σ(xi – xM)²
f
Es werden die Abweichungen jedes Wertes xi vom Mittelwert xM quadriert und
summiert. Die Summe der Abweichungsquadrate wird durch den Freiheitsgrad f
dividiert.
f = N -1

N: Anzahl der Daten. Der Freiheitsgrad f einer Datenreihe ist gleich der Anzahl der
unabhängigen Messwerte in einer Datenreihe

Die Varianz var misst die Streuung der Messwerte um ihren Mittelwert.

3.4.5 Die Standardabweichung sx

Sx = [var(x)]1/2
Σ(xi – xM)²
Sx = (
N-1
)1/2
Beim Vergleich von Datenreihen verschiedener Größenordung ist die Angabe der
Standardabweichung als Maß für die Präzision allein noch nicht aus.

3.4.6 Der Variationskoeffizient V


sx
V = xM ·100 %

Der Variationskoeffizient V wird auch relative Standardabweichung genannt.

Die absolute und der relative Standardabweichungen charakterisieren das mit einem
bestimmten Analysenverfahren erhaltene Messergebnis. Für die Charakterisierung
von Messergebnissen, z.B. Streubereichen von Mittelwerten, ist die Standardab-
weichung nicht geeignet, da der Bereich (x ± sx) nur 68,3 % der Messwerte
Qualitätssicherung in der Instrumentellen Analytik 9

einschließt. Die Unsicherheit von Messergebnissen wird deshalb mittels


Vertrauensbereichen angegeben.

3.4.7 Standardfehler des Mittelwerts

Die Standardabweichung des Mittelwerts σM aus der Gesamtheit berechnet sich aus
N Stichproben
σ
σM =
N1/2
Für die reale Abschätzung der Standardabweichung des Mittelwerts aus N
Stichproben gelten:
s
sM = N1/2
σ: Standardabweichung der Grundgesamtheit
s: Standardabweichung aus der Stichprobe
σM: Standardabweichung des Mittelwerts
sM: Standardabweichung des Mittelwerts aus der Stichprobe
N: Anzahl der Stichproben

Die Vereinfachung, dass für σ der Wert s eingesetzt werden kann, gilt jedoch nur
unter zwei Bedingungen:
ƒ Bei einer normalverteilten Gesamtheit muss N >20 sein.
ƒ Bei einer schiefen Gesamtheit muss N >100 sein

Was bedeutet die Schätzung des „Standardfehlers des Mittelwerts“?


In dem Intervall von xM ± 1·sM ist der „wahre“, unbekannte Wert µ der
Grundgesamtheit in 68 von 100 Fällen enthalten.

Tabelle 3: Vertrauensbereiche für eine bestimmte statistische Sicherheit P und ein


bestimmtes Irrtumsrisiko α und der Zusammenhang mit dem Standardfehler

P = 1- α Irrtumsrisiko α k Interpretation
0,683 0,317 ± 1,00·sM 68,3%- Vertrauensbereich: xM ± 1 ·sM
0,950 0,050 ± 1,96·sM 95,0%- Vertrauensbereich: xM ± 1,96·sM
0,955 0,045 ± 2,00·sM 95,5%- Vertrauensbereich: xM ± 2·sM
0,997 0,003 ± 3,00·sM 99,7%- Vertrauensbereich: xM ± 3·sM

Die aufgestellten Gleichungen gelten erst ab ca. 20 Messwerten. Bei weniger als 20
Messwerten sollte die Studentsche t-Verteilung (Abschnitt 5.1) Anwendung finden.

3.4.8 Schiefe S

Um die Form einer Verteilung auszudrücken, verwendet man als Kenngröße die
„Schiefe“. Bei kleineren Datenreihen wird diese Größe wie folgt berechnet:
3·( xM – Median)
S= sX
S: Schiefenkenngröße
Qualitätssicherung in der Instrumentellen Analytik 10

4. Theoretische Häufigkeitsverteilungen

4.1. Normalverteilung

Tabelle 4: Bereichsgrenzen bei einer Normalverteilung

Grenze Prozentwert der Fläche


µ±σ 68,27
µ ± 1,96 σ 95,00
µ ± 2σ 95,45
µ ± 3σ 99,73
µ ± 4σ 99,9937
µ ± 5σ 99,999943

4.1.1. Test nach David: Ist eine Datenreihe normalverteilt?

Liegt der Quotient aus der Spannweite R und der Standardabweichung sX innerhalb
eines tabellierten Grenzintervalls dann ist die Datenreihe normalverteilt.
R
uPW < < oPW
sX
uPW: unterer Prüfwert
oPW: oberer Prüfwert
Signifikanzschranken (P = 90%) nach David et al. zur Prüfung der Normalverteilung
für N = 55 (Beispiel nach 3.1):
uPW(N = 55, p=90%): 4,02
oPW(N = 55, p=90%): 5,22

Beispiel: Laboratorium #1

95 95 96 96 97 97 97 98 98 98 98 98
99 99 99 99 99 99 99 99 99 100 100 100
100 100 100 100 100 100 100 100 100 100 100 100
101 101 101 101 101 101 101 101 102 102 102 102
102 103 103 103 104 104 105

Die Standardabweichung beträgt: sX = 2,23.


Die Spannweite R beträgt: R = 105 -95 =10.
10
PW = 2,23 = 4,48.

Es gilt: uPW < PW < oPW

⇒ Die geprüfte Verteilung kann als angenäherte Normalverteilung akzeptiert werden.


Genauerer Test: χ²-Test
Qualitätssicherung in der Instrumentellen Analytik 11

4.2. Logarithmische Normalverteilung

Der Parameter x bei der Normalverteilung wird durch log x ersetzt. Damit ist:
1 (log x - µ)²
LN(x) = ½ exp [- ]
σ·(2π) 2σ²
Der geometrische Mittelwert xg einer logarithmischen Normalverteilung:
xg = (Πxi)1/N = (x1· x2· …· xN)1/N

5. Reale Verteilungen
5.1 Die t-Verteilung (Student-Verteilung)

Die Normalverteilung gilt für eine relativ große Anzahl von Messwerten (je nach
Schiefe ab N > 20 bis N > 100). Bei einer kleineren Anzahl von Messwerten kann der
Ordinatenwert der Messreihe zum Teil erheblich von den theoretischen Werten ab-
weichen. Die t-Verteilung besitzt je nach Freiheitsgrad f unterschiedliche Formen. Sie
beschreibt die relative Häufigkeit, mit der Werte einer Variablen von einem
bestimmten Umfang aus einer normalverteilten Gesamtheit angenommen werden
können. Die in dieser Funktion benutzte Variable nennt man t-Variable.

t = xM --1/2
µ
s·N
t: t-Variable der t-Funktion
xM: Stichprobenmittelwert
µ: Mittelwert der Gesamtheit (Erwartungswert)
s: Standardabweichung.
Die t-Verteilung ist wie die Normalverteilung eine symmetrische, glockenförmige Ver-
teilungsfunktion. Das Maximum von Normalverteilung und t-Verteilung liegt auf dem
gleichen Wert. Die Breite und Höhe bei normierten Verteilungen sind jedoch anders,
weil nur die Form der t-Verteilung abhängig vom Freiheitsgrad ist. Bei einem
Freiheitsgrad f→∞ geht die t-Verteilung in die Normalverteilung über. Der Wert der t-
Variablen ist noch von einem Parameter P abhängig. Dieser Wert wird als das
„Vertrauensniveau“ oder die „statistische Sicherheit“ bezeichnet. Aufgrund des vom
Anwender zu wählenden Vertrauensniveaus P kann man mit den so genannten
„Konfidenzbändern“ den Vertrauensbereich VB darstellen.

VB = ± t·s½x
N
Interpretation: Wertebereiche, die als xM ± VB angegeben werden, enthalten mit
einer gewissen Wahrscheinlichkeit (= statistischen Sicherheit P) den wahren Wert µ
(Abbildung 3).

Angenommen es liegt eine zweiseitige Fragestellung (siehe Abschnitt 6.5) vor und
P = 95%, N = 31, dann ist:

t(99%; φ = 30) = 2,04


sx
VB(95%) = ± 2,04·
30½
Qualitätssicherung in der Instrumentellen Analytik 12

unbekannter, "wahrer Wert"

Stichproben enthalten
den "wahren Wert"

Stichprobe enthält
nicht den "wahren Wert"

Abbildung 3: Stichprobenmittelwerte, Vertrauensbereiche und „wahrer Wert“.

5.2 Die F-Verteilung

Werden aus einer Grundgesamtheit eines Messsystems zwei Stichproben mit der
Stichprobenanzahl N1 und N2 entnommen, können mit Hilfe der üblichen Gleichungen
die Mittelwerte xM,1 und xM,2 sowie die Varianzen s1² und s2². Aus den beiden
Varianzen wird der F-Wert (nach Ronald Fisher) nach Gleichung
s1²
F=
s2²
Dabei werden die Indices so angeordnet, dass F ≥ 1,00 ist. Der Quotient folgt der F-
Verteilung.
Anwendung: Ein berechneter F-Wert aus den Varianzen zweier Messreihen (s1² und
s2²) einer Grundgesamtheit, der größer ist als der entsprechende theoretische
Tabellen-F-Wert, deutet auf signifikant unterschiedliche Varianzen in den Messreihen
hin, d.h. die Messreihen stammen wahrscheinlich nicht aus einer Grundgesamtheit.

Vertrauensgrenzen der Standardabweichung.


s
su =
[F(P) u]1/2
so = s
[F(P) o]1/2
su : untere Schranke des Vertrauensbereichs der Standardabweichung
so : obere Schranke des Vertrauensbereichs der Standardabweichung
s: Wert der Standardabweichung
F(P) u: F-Wert aus der F-Tabelle mit f1 = N-1, f2 = ∞, P = 95%
F(P) o: F-Wert aus der F-Tabelle mit f1 = ∞, f2 = N-1, P = 95%
Qualitätssicherung in der Instrumentellen Analytik 13

Die unbekannte theoretische Standardabweichung liegt mit einer statistischen


Sicherheit von 95% im Bereich su≤ σ ≤ so.
Anwendung: Vorhersage des Werts einer theoretischen Standardabweichung.

5.3 Poissonverteilung
7
Die Poissonverteilung ist in der
Analytik für die Auswertung von 6

Zählgrößen, z.B. Impulse und 5


Zählraten, von Bedeutung und
ist eine diskrete Verteilung. Sie 4
wird nur durch den Mittelwert

pk
charakterisiert. Eine Größe heißt 3

poissonverteilt, wenn sie die 2


abzählbar vielen möglichen
Werte 0, 1, 2, … mit den 1
Wahrscheinlichkeiten
0
λ 0 1 2 3 4 5 6 7 8 9 10
pk = k e−λ (k = 0, 1, …)
k! k

λ heißt der Parameter der


Verteilung. Abbildung 4: Poissonverteilung mit λ = 9.

Die Poissonverteilung kann als gute Näherung für die Binomialverteilung benutzt
werden, wenn p groß und n klein ist. λ = np. n ist der Umfang der Stichproben.

Die Standardabweichung ergibt sich zu s = xM1/2.

Anwendung: Abschätzung der statistisch bedingten Unsicherheit eines Einzelwerts


z.B. einer Impulsanzahl bei einer Kernstrahlungsmessung. Achtung: Gilt nur für
Bruttomessungen.

Beispiel: xM = 1000
→ s = (1000)½ ≈ 31,62;
→ Variationskoeffizient V nach 3.4.6: V ≈ · 100% ≈ 3,2%
xM = 10000
→ s = (10000)½ = 100 100
→ Variationskoeffizient V nach 3.4.6: V = · 100% = 1,0%
10000
5.4 Zusammenhang zweier Zufallsgrößen

Die Kovarianz cov(xi,xk) beschreibt den Zusammenhang zweier Zufallsgrößen


Für t-verteilte Messgrößen gilt:
N
1
cov(xi,xk) = sik = N -1 Σ(xij – xMi) (xkj – xMk)
j=1

Für i = k erhält man die Varianz cov(xi,xk) = var(xi).


Durch Berechnung des Korrelationskoeffizienten rXY:
sXY
RXY =
(sXsY)1/2
Qualitätssicherung in der Instrumentellen Analytik 14

6. Statistische Tests als Entscheidungshilfen im Laboratorium

Statistische Tests dienen dazu, Entscheidungen mit einer vorgegebenen Sicherheit


zu treffen. Grundsätzlich ist aber die Möglichkeit eines Irrtums immer mit
eingeschlossen (Irrtumswahrscheinlichkeit). Der Vorteil statistischer Tests ist eine
standardisierte Bewertungsgrundlage.

Aus einer Grundgesamtheit werden zwei Stichprobenreihen gezogen, die analysiert


und ausgewertet werden. Man erhält zwei Mittelwerte xM,1 und xM,2. Es gibt zwei
Bewertungsmöglichkeiten:
1. die Mittelwerte unterscheiden sich in Wirklichkeit nicht und liegen innerhalb
der zu akzeptierenden Unsicherheit.
2. die Mittelwerte unterscheiden sich bedeutsam, d.h. signifikant.

6.1 Hypothesen

Der Anwender statistischer Tests wird sich für eine der beiden Behauptungen
(Hypothesen) vor der Analyse entscheiden. Diese natürlich nicht bewiesene
Behauptung nennt man Nullhypothese (H0). Nullhypothesen können im Allgemeinen
nicht bewiesen werden. Die zweite Behauptung, die im Gegensatz dazu steht, nennt
man Alternativhypothese (HA). Weiter wird festgelegt, mit welchem Niveau P die
Nullhypothese H0 oder die Alternativhypothese HA angenommen werden soll. Im
analytischen Labor wir dieser Wert P oft auf P =95% oder P=99% festgelegt, er ist
jedoch grundsätzlich frei wählbar. Wird P in % von 100% subtrahiert, erhält man die
so genannte „Irrtumswahrscheinlichkeit“ α.
α = 100% - P(%)
Der weitere Ablauf ist wie folgt:
ƒ Stichprobenauswahl N
ƒ Analytische Behandlung der Stichproben
ƒ Berechnung von statistisch relevanten Daten
ƒ Berechnung eines testspezifischen Prüfwerts (PW) oder Prüfgröße (PG)
ƒ Vergleich des Prüfwerts mit Daten aus einer testspezifischen Tabelle
Mit Hilfe eines statistischen Tests wird grundsätzlich untersucht, ob die
Nullhypothese H0 verworfen werden muss, weil die Alternativhypothese HA besser mit
dem Testergebnis übereinstimmt. Die Signifikanzgrenze muss vom Anwender nach
logischen Gesichtspunkten vor der statistischen Analyse festgelegt werden.
Gewöhnlich unterscheidet man im Routinelabor pragmatisch:
ƒ Nullhypothese wird akzeptiert, wenn die Alternativhypothese nicht nachweisbar ist,
ƒ Alternativhypothese wird akzeptiert, wenn sie signifikant oder hochsignifikant zutrifft
Im Einzelfall ist zu prüfen, ob diese pragmatische Unterscheidung auf das
vorliegende Prüfsystem zutrifft.

6.2 Fehler 1. Art und Fehler 2. Art

Wird eine Nullhypothese aufgrund eines negativen Tests abgelehnt, obwohl sie in
Wirklichkeit wahr ist, nennt man diesen Fehler „Fehler erster Art“.
Beispiel: Nach einer quantitativen Analyse kommt man zu dem Schluß, der Analyt ist
in der Probe, es ist jedoch nur eine zufällige Schwankung des Blindwerts nach oben,
so unterläuft einem ein Fehler erster Art.
Wird eine Nullhypothese beibehalten, obwohl sei tatsächlich nicht zutrifft, so nennt
man diesen Fehler „Fehler zweiter Art“.
Qualitätssicherung in der Instrumentellen Analytik 15

Beispiel: Nach einer quantitativen


Analyse kommt man zu dem Schluß, der
Analyt ist nicht in der Probe, es ist jedoch
nur eine zufällige Schwankung des
Messwerts nach unten vorhanden,
unterläuft einem ein Fehler zweiter Art.

Abbildung 5: Fehler „erster“ und


„zweiter“ Art.
0 5 10 15 20

Fehler 2. Art Fehler 1. Art

Nullhypothese Nullhypothese
Richtig ist wird beibehalten wird abgeleht
Nullhypothese ist wahr + Fehler 1. Art
Nullhypothese ist falsch Fehler 2. Art +

6.3 Ausreißertests

6.3.1 Dixon-Test

Der Test nach Dixon wird von der DIN-Norm 53804 empfohlen, wenn die
Stichprobenanzahl N weniger als 30 beträgt (N < 30).
ƒ Nullhypothese H0: Die Datenreihe enthält einen Ausreißer.
ƒ Die zu prüfenden Messwertreihen nach ihrer Größe geordnet.
Der kleinste Wert ist x1, der größte Wert ist xN,
Je nach N der Stichproben gibt es verschiedene Formeln (siehe Tabelle 10).
ƒ Es werden zwei Prüfwerte (PW) berechnet:
PW „nach oben“ überprüft den größten Wert
PW „nach unten“ überprüft den kleinsten Wert
ƒ Beide Prüfwerte sind mit einer von Dixon vorgegebenen tabellarischen
Signifikanzschranke δ(P,N) für ein gewähltes P, z.B. 95%, zu vergleichen.
ƒ PW > δ(P,N): signifikanter Ausreißer. Nullhypothese H0 wird angenommen.
Dieser Wert muss aus der Datenreihe eliminiert werden.
ƒ PW < δ(P,N): kein Ausreißer. Alternativhypothese HA wird angenommen.

Beispiel: Peakflächen bei einem HPLC-Gerät

9021, 7651, 7380, 7196, 7171, 7442, 7264

Die Nullhypothese H0 lautet: der kleinste und der größte Wert sind keine Ausreißer,
die Alternativhypothese HA lautet: der kleinste und der größte Wert sind Ausreißer.

1. Zuerst werden die Daten nach der Größe sortiert:


7171, 7196, 7264, 7380, 7442, 7651, 9021
der kleinste Wert x1 = 7171
der größte Wert xN = 9021
2. Die Stichprobenanzahl ist N = 7
Qualitätssicherung in der Instrumentellen Analytik 16

3. Die Prüfwertformel, die anzuwenden ist, lautet:


x2 – x1
xN – x1
und
xN – xN-1
xN – x1

in diesen Gleichungen bedeuten:


x2: zweitkleinster Wert xN: größter Wert
x1: kleinster Wert xN-1: zweitgrößter Wert

Tabelle 5: Formeln, Signifikanzschranken δ(P,N) und Prüfwerte nach Dixon


Stichprobenumfang Signifikanzschranke Prüfwert Prüfwert
N P = 95% nach nach oben
unten
3 0,941
4 0,765
x2 – x1 xN – xN-1
5 0,642
xN – x1 xN – x1
6 0,560
7 0,507
8 0,554
x2 – x1 xN – xN-1
9 0,512
xN-1 – x1 xN – x2
10 0,477
11 0,576
x3 – x1 xN – xN-2
12 0,546
xN-1 – x1 xN – x2
13 0,521
14 0,546
15 0,525
16 0,507
17 0,490
18 0,475
19 0,462
20 0,450
21 0,440 x3 – x1 xN – xN-2
22 0,430 xN-2 – x1 xN – x3
23 0,421
24 0,413
25 0,406
26 0,399
27 0,393
28 0,387
29 0,381

4. Einsetzen in die Prüfwertformel:

PW „nach unten“: mit 7196 - 7171 ≈ 0,014


9021 - 7171

9021 - 7651
PW „nach oben“: mit ≈ 0,741
9021 - 7171
Qualitätssicherung in der Instrumentellen Analytik 17

5. Die Signifikanzschranke für N = 7 beträgt 0,507. Der Prüfwert „nach unten“ ist
kleiner, der Prüfwert „nach oben“ ist größer als dieser Wert.

6. Diagnose:
Für den kleinsten Wert wird die Alternativhypothese abgelehnt
⇒ x1 ist kein Ausreißer
Für den größten Wert wird die Alternativhypothese angenommen
⇒ xN ist ein Ausreißer und muss aus der Messreihe gestrichen werden

6.3.2 Grubbs-Test

Der Test nach Grubbs wird von der DIN-Norm 53804 empfohlen, wenn die
Stichprobenanzahl N mehr als 30 beträgt (N ≥ 30).

ƒ Nullhypothese H0: Die Datenreihe enthält einen Ausreißer.


ƒ Die zu prüfenden Messwertreihen nach ihrer Größe geordnet.
Der kleinste Wert ist x1, der größte Wert ist xN,
ƒ Aus den Messwerten wird der Mittelwert xM und die Standardabweichung sx
berechnet.
ƒ Mit den folgenden Formeln wird vom kleinsten und vom größten Wert der
Datenreihe die Prüfgröße PG1 bzw. PG2 des Grubbs-Test berechnet:

Für den kleinsten Wert gilt:


xM - x1
PG1 =
sx
Für den größten Wert gilt:
XN – xM
PG2 =
sx
x1: kleinster Wert
xN: größter Wert
xM: Mittelwert der Meßreihe
sx: Standardabweichung

ƒ Die beiden Prüfgrößen werden nun mit einem Wert aus der rM-Tabelle verglichen.
Ist die Prüfgröße PG größer als der Tabellenwert (N, P=95%) aus der rM-Tabelle,
so handelt es sich nach Grubbs um einem signifikanten Ausreißer.

ƒ Bei positivem Befund wird der betreffende Wert aus der Messreihe eliminiert und
der Mittelwert und die Standardabweichung mit neuer Probenanzahl N berechnet.

Tabelle 6: Werte für den Grubbs-Ausreißertest (rM-Tabelle).


N 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
T(N, P=95%) 1,153 1,463 1,672 1,822 1,938 2,032 2,110 2,176 2,234 2,285 2,331 2,371 2,409 2,443 2,475 2,504 2,532 2,557 2,580 2,603 2,624
N 24 25 26 27 28 29 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100
T(N, P=95%) 2,644 2,663 2,681 2,698 2,714 2,730 2,745 2,811 2,861 2,914 2,956 2,992 3,025 3,056 3,082 3,107 3,130 3,151 3,189 3,171 3,207

N 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
T(N, P=99%) 1,155 1,492 1,749 1,944 2,097 2,221 2,323 2,410 2,485 2,550 2,607 2,659 2,705 2,747 2,785 2,821 2,854 2,884 2,912 2,939 2,963
N 24 25 26 27 28 29 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100
T(N, P=99%) 2,987 3,009 3,029 3,049 3,068 3,085 3,103 3,178 3,240 3,292 3,336 3,376 3,411 3,442 3,471 3,496 3,521 3,543 3,563 3,582 3,600
Qualitätssicherung in der Instrumentellen Analytik 18

6.3.3 Test nach Nalimov

Bei diesem Test muss Tabelle 7: Vergleichswerte für den Nalimov- Ausreißertest.
gelten N > 2.
ƒ Aufstellung der Nullhypo- Freiheits- P=95% P=99% Freiheits- P=95% P=99%
grad f grad f
these H0 1 1,409 1,414 32 1,946 2,502
ƒ Sortierung der Datenreihe. 2 1,644 1,710 34 1,947 2,507
ƒ Die Kontrolle erfolgt auf 3 1,758 1,924 36 1,948 2,511
den kleinsten und den 4 1,816 2,057 38 1,948 2,514
5 1,849 2,146 40 1,949 2,517
größten Wert 6 1,870 2,209 42 1,95 2,52
ƒ Eine Prüfgröße nach 7 1,885 2,257 44 1,95 2,523
Nalimov wird berechnet 8 1,895 2,293 46 1,951 2,525
ƒ Ist der Prüfwert kleiner als 9 1,904 2,322 48 1,951 2,527
der Tabellenwert, liegt 10 1,910 2,346 50 1,951 2,529
11 1,915 2,366 55 1,952 2,534
nach Nalimov kein 12 1,919 2,383 60 1,953 2,537
Ausreißer vor. 13 1,923 2,397 70 1,954 2,543
Die Prüfgröße nach Nalimov 14 1,926 2,409 80 1,955 2,548
berechnet sich nach: 15 1,928 2,420 90 1,956 2,551
16 1,930 2,429 100 1,956 2,554
17 1,932 2,438 150 1,958 2,562
|x* - xM| -½
PG =
sx

N
N −1
) 18
19
1,934
1,935
2,445
2,452
200
250
1,958
1,959
2,566
2,568
20 1,937 2,458 300 1,959 2,57
x*: Ausreißerverdächtiger 22 1,939 2,469 400 1,959 2,572
Wert 24 1,941 2,478 500 1,96 2,573
xM: Mittelwert 26 1,943 2,485 1000 1,96 2,576
28 1,944 2,492 2000 1,96 2,577
sx: Standardabweichung 30 1,945 2,497 ∞ 1,96 2,576
N: Anzahl der Stichproben

6.4 Varianzen-F-Test

Mit diesem Test soll zwei


Schätzwerte von Standardab-
weichungen s1 und s2 miteinander 1. Datenreihe
vergleichen werden, ob sie sich
signifikant unterscheiden. Unter-
scheiden sich zwei Varianzen
signifikant⇒heterogene Varianzen
2. Datenreihe
Unterscheiden sich zwei Varian-
zen nicht oder nur zufällig
⇒ homogene Varianzen
Der Varianz-F-Test heißt oft auch
Test auf Varianzhomogenität. Sind
die beiden Standardabweichun- 0 5
gen s1 und s2 durch die gleiche gleicher10
Mittelwert 15 20

unterschiedliche Streuung
(theoretische) Varianz σ² der
Grundgesamtheit vorgegeben,
folgt der Quotient aus den Abbildung 6: Unterschiedliche Varianzen.
Quadraten der beiden abgeschätzten
Standardabweichungen einer F-Verteilung f1= N1 – 1 und f2= N2 –1 Freiheitsgraden.

F= s1² , s1 > s2
s2²
Qualitätssicherung in der Instrumentellen Analytik 19

Die größere Varianz erhält den Index 1, die kleinere Varianz den Index 2. Der
Unterschied zwischen den beiden Standardabweichungen gilt dann als nicht
nachweisbar, wenn der berechnete F-Wert den Zahlenwert aus der F-Tabelle
(Tabelle 8) mit P und f1 und f2 nicht überschreitet. Es werden folgende Niveaus
vorgeschlagen:

F(95%; f1; f2) > F keine systematische Abweichung nachweisbar


F(99%; f1; f2) > F > F(95%; f1; f2) wahrscheinliche Abweichung, jedoch nicht nachweisbar
F(99,9%; f1; f2) > F > F(99%; f1; f2) signifikante Abweichung, nachweisbar
F > F(99,9%; f1; f2) hochsignifikante Abweichung, nachweisbar

Tabelle 8: F-Tabelle für den F-Varianzen-Test bei P = 99%.


f1
1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 4052 4999,5 5403 5625 5764 5859 5928 5982 6022 6056 6106 6157 6209 6235 6261 6287 6313 6339 6366
2 98,50 99,00 99,17 99,25 99,30 99,33 99,36 99,37 99,39 99,40 99,42 99,43 99,45 99,46 99,47 99,47 99,48 99,49 99,50
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35 27,23 27,05 26,87 26,69 26,60 26,50 26,41 26,32 26,22 26,13
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,20 14,02 13,93 13,84 13,75 13,65 13,56 13,46
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,72 9,55 9,47 9,38 9,29 9,20 9,11 9,02
6 13,75 10,92 9,78 9,15 8,75 8,47 8,26 8,1 7,98 7,87 7,72 7,56 7,4 7,31 7,23 7,14 7,06 6,97 6,88
7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,31 6,16 6,07 5,99 5,91 5,82 5,74 5,65
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,52 5,36 5,28 5,2 5,12 5,03 4,95 4,86
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 4,96 4,81 4,73 4,65 4,57 4,48 4,40 4,31
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,41 4,33 4,25 4,17 4,08 4,00 3,91
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63 4,54 4,40 4,25 4,10 4,02 3,94 3,86 3,78 3,69 3,60
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,86 3,78 3,70 3,62 3,54 3,45 3,36
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 3,96 3,82 3,66 3,59 3,51 3,43 3,34 3,25 3,17
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,66 3,51 3,43 3,35 3,27 3,18 3,09 3,00
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,37 3,29 3,21 3,13 3,05 2,96 2,87
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,41 3,26 3,18 3,10 3,02 2,93 2,84 2,75
17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,46 3,31 3,16 3,08 3,00 2,92 2,83 2,75 2,65
f2

18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,23 3,08 3,00 2,92 2,84 2,75 2,66 2,57
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,15 3,00 2,92 2,84 2,76 2,67 2,58 2,49
20 8,10 5,85 4,94 4,43 4,1 3,87 3,7 3,56 3,46 3,37 3,23 3,09 2,94 2,86 2,78 2,69 2,61 2,52 2,42
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,03 2,88 2,80 2,72 2,64 2,55 2,46 2,36
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 2,98 2,83 2,75 2,67 2,58 2,50 2,40 2,31
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,93 2,78 2,70 2,62 2,54 2,45 2,35 2,26
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,89 2,74 2,66 2,58 2,49 2,40 2,31 2,21
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,85 2,70 2,62 2,54 2,45 2,36 2,27 2,17
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,81 2,66 2,58 2,50 2,42 2,33 2,23 2,13
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,78 2,63 2,55 2,47 2,38 2,29 2,20 2,10
28 7,64 5,45 4,47 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,90 2,75 2,60 2,52 2,44 2,35 2,26 2,17 2,06
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,87 2,73 2,57 2,49 2,41 2,33 2,23 2,14 2,03
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,55 2,47 2,39 2,30 2,21 2,11 2,01
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,52 2,37 2,29 2,20 2,11 2,02 1,92 1,80
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,20 2,12 2,03 1,94 1,84 1,73 1,60
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,03 1,95 1,86 1,76 1,66 1,53 1,38
∞ 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,04 1,88 1,79 1,70 1,59 1,47 1,32 1,00

6.5 Mittelwert-t-Test

Mit diesem Test kann überprüft werden, ob die Mittelwertsunterschiede zweier


Stichprobenreihen statistisch signifikant sind. Wird ein Unterschied nachgewiesen
liegt meistens ein systematischer Fehler vor (Abbildung 25). Es kann mit diesem Test
nicht nachgewiesen werden, welcher Wert der richtige ist. Zeigt der t-Test keine
Unterschiede, so können die Mittelwerte der beiden Datenreihen zusammengelegt
werden. Voraussetzung dafür ist, dass der Varianzen-F-Test keine signifikanten
Unterschiede der Varianzen gezeigt hat. Die Prüfgröße PG des Mittelwert t-Tests
berechnet sich mit:

|xM1 – xM2| N1 ·N2 ½


PG = ·( )
sD N1 + N2
Qualitätssicherung in der Instrumentellen Analytik 20

Es bedeutet: 2. Datenreihe
1. Datenreihe
PG Prüfgröße
xM1 Mittelwert der ersten Stichprobenreihe
xM2 Mittelwert der ersten Stichprobenreihe
sD mittlere gewichtete Standardabweichung
beider Datenreihen
N1 Anzahl der Messwerte der ersten Reihe
N2 Anzahl der Messwerte der zweiten
Reihe

0 5
gleiche10
Streuung 15 20

Abbildung 7: Unterschiede in den unterschiedliche Mittelwert


Mittelwerten zweier Reihen

Mittlere gewichtete Standardabweichung sD der beiden Stichprobenreihen:

s1²·(N1 – 1) + s2²·(N2 – 1) ½
sD = [ ]
N1 + N2 - 2
Die Prüfgröße wird mit dem Wert aus der zweiseitigen t-Tabelle mit f und P
verglichen. Der Freiheitsgrad f berechnet sich mit: f = N1 + N2 - 2
Dabei werden folgende Grenzen vorgeschlagen:

t(95%; f) > PG statistisch ist kein Unterschied nachweisbar


Wahrscheinlich besteht ein Unterschied, jedoch
t(99%; f) > PG > t(95%; f)
nicht nachweisbar
t(99,9%; f) > PG > t(99%; f) Es besteht ein signifikanter Unterschied
PG > t(99,9%; f) Es besteht ein hochsignifikanter Unter-schied

Tabelle 9: t-Tabelle t(P, f).


Häufig wird die Signifikanzgrenze P =95% P =95% P =99%
zwischen dem wahrscheinlichen und f einseitig zweiseitig zweiseitig
1 6,31 12,706 63,657
dem signifikanten Unterschied 2 2,92 4,303 9,925
gezogen. 3 2,35 3,182 5,841
4 2,13 2,776 4,604
5 2,02 2,571 4,032
6 1,94 2,447 3,707
7 1,89 2,365 3,499
8 1,86 2,306 3,355
9 1,83 2,262 3,250
10 1,81 2,228 3,169
11 1,80 2,201 3,106
12 1,78 2,179 3,055
13 1,77 2,160 3,016
14 1,76 2,145 2,977
15 1,75 2,131 2,947
16 1,75 2,120 2,921
17 1,74 2,110 2,898
18 1,73 2,101 2,878
19 1,73 2,093 2,861
20 1,72 2,086 2,845
21 1,72 2,080 2,831
22 1,72 2,074 2,819
23 1,71 2,069 2,807
24 1,71 2,064 2,797
25 1,71 2,060 2,787
26 1,71 2,056 2,779
27 1,70 2,052 2,771
28 1,70 2,048 2,763
29 1,70 2,045 2,756
30 1,70 2,042 2,750
∞ 1,65 1,960 2,576
Qualitätssicherung in der Instrumentellen Analytik 21

Einseitige Fragestellungen: nur eine Richtung der Fragestellung ist bedeutsam.

Beispiel:
a) „Ist der Mittelwert der Datenreihe #1 signifikant größer als die der Datenreihe #2 ?
b) „Ist der Mittelwert der Datenreihe #1 signifikant kleiner als die der Datenreihe # 2 ?

Beispiel: Besteht zwischen den Mittelwerten der folgenden Datenreihen ein


signifikanter Unterschied (zweiseitige Fragestellung)?

N1 = 10 36 31 32 22 31 26 18 26 28 27
N2 = 7 35 29 27 28 24 35 22 - - -

Nullhypothese H0:
Zwischen den Mittelwerten dieser Datenreihe besteht kein Unterschied. Als
Vertrauensniveau soll P = 99% gewählt werden.
xM1 ≈ 27,7
xM2 ≈ 28,6

s1²·(N1 – 1) + s2²·(N2 – 1) ½
sD = [ ]
N1 + N2 - 2
Einsetzen:

26,90·(10 – 1) + 24,95·(7 – 1)
sD = [
10 + 7 - 2
]½ ≈ 5,11
f = 10 + 7 – 2 = 15
Berechnung der Prüfgröße:

|27,7 – 28,6| 10 ·7 ½
PG = ·( ) ≈ 0,346
5,11 10 + 7
t-Tabellenwert:
t(P = 99%, f=15) = 2,947

Vergleich der Prüfgröße mit dem t-Tabellenwert:


PG < t(P = 99%, f=15) ⇒ Die Nullhypothese wird angenommen.
Anwendung des Varianzen-F-Tests:
Nullhypothese H0: Die Varianzen unterschieden sich nicht.

F= s1² , s1 > s2 mit


s2²
s1² ≈ 26,90 und s2² ≈ 24,95 berechnet sich F zu: F = 26,90 ≈ 1,08
24,95
Die Freiheitsgrade sind f1 = 9 und f2 = 7.
Wählt man P =99% so ergibt sich ein Wert aus der F-Tabelle (Tabelle 8) von:
F(P=99%, f1 = 9, f2 = 7) = 6,72.
Es ergibt sich F(P=99%, f1 = 9, f2 = 7) > F ⇒ Die Nullhypothese wird angenommen.
Kommt man aufgrund des t-Tests zu dem Schluss, dass zwischen den Mittelwerten
kein Unterschied besteht, können diese zu einem gewichteten Mittelwert xG
zusammengefasst werden:

xG = N1·xM1 + N2·xM2
N1 + N2
Qualitätssicherung in der Instrumentellen Analytik 22

Beispiel:
Der gemeinsame Mittelwert berechnet sich zu:

xG = 10·27,7 + 7·28,6 ≈ 28,1.


10 + 7
Kommt man aufgrund des Varianzen-F-Tests zu dem Schluss, dass zwischen den
Varianzen keine systematische Abweichung besteht, so können diese zu einem
Vertrauensbereich zusammengefasst werden:

Der Vertrauensbereich VB (P=99%) mit t(P=99%, f=15) = 2,947, sD ≈ 5,11 und


N = 17 wäre:
t·sD
VB = ±

VB (P=99%) = ± t(P=99%, ½f=15) ·sD
N

2,947 ·5,11
≈ ± ≈ ± 3,65
17½
Als Ergebnis ist nach der Datenzusammenlegung: 28,1 ± 3,65 anzugeben.
Ohne Datenzusammenlegung:

VB (P=99%) = ± t(P=99%,½f=9) ·s1


N1
3,250 ·5,187
VB ≈ ± ≈ ± 5,33
10½
Als Ergebnis wäre ohne Datenzusammenlegung: 27,7 ± 5,33 anzugeben
Merksatz:
Durch eine erfolgreiche, d.h. nach Varianzen-F-Test und t-Mittelwert-Test zulässige,
Datenzusammenführung von Daten wird der Vertrauensbereich kleiner. Das Risiko,
dass sich der wahre Wert µ nicht in dem Vertrauensbereich befindet, wird kleiner,
d.h. das Ergebnis wird „sicherer“.

6.6 Test zum Vergleich von Mittelwert und Sollwert

Diesen Test kann man anwenden, wenn man entscheiden muss, ob zwischen dem
Mittelwert von Analysenergebnissen und einem vorgegebenen Sollwert ein
signifikanter oder hochsignifikanter Unterschied besteht. Die Prüfgröße PG berechnet
sich mit
|xM – W| ½
PG = ·N
s
Dabei bedeutet:
PG: Prüfgröße
N: Anzahl der Parallelbestimmungen
xM: Mittelwert von N Parallelbestimmungen mit N > 2
W: vorgegebener Sollwert
s: Standardabweichungen der Parallelbestimmungen
Qualitätssicherung in der Instrumentellen Analytik 23

Die Prüfgröße wird mit den Tabellenwerten der zweiseitigen t-Tabelle verglichen
(siehe Tabelle 9). Es gelten die folgenden Grenzen:

Unterschied von xM und W nicht nach-


PG < t(95%, f=N-1)
weisbar
Unterschied zwischen xM und W ist
t(95%, f=N-1) < PG < t(99%, f=N-1)
wahrscheinlich, aber nicht signifikant
Unterschied zwischen xM und W ist
t(99%, f=N-1) < PG < t(99,9%, f=N-1)
signifikant, aber nicht hochsignifikant
Unterschied zwischen xM und W ist
PG > t(99,9%, f=N-1)
hochsignifikant

Beispiel: Der Sollwert aus Beispiel in Abschnitt 6.5 beträgt W = 31,4.


Nullhypothese H0: Ein Unterschied zwischen dem Mittelwert der
zusammengeführten Daten von 28,1 ± 3,65 und dem Sollwert ist nicht nachweisbar.

PG = |28,1 – 31,4| ·17½ ≈ 2,66


5,11
t(95%, f=16) = 2,120
t(99%, f=16) = 2,921

Ergebnis: Die Nullhypothese H0 wird abgelehnt. Es trifft die erste


Alternativhypothese zu: Ein Unterschied zwischen Soll- und Mittelwert ist
wahrscheinlich, aber nicht signifikant.

6.7 χ²-Anpassungstest

Wie beim David-Test wird mit dem χ²-Anpassungstest ermittelt, ob die Verteilungen
von Messwerten sich signifikant oder zufällig von einer Normalverteilung
unterscheiden.
Alternativen, die erste Hinweise liefern:
ƒ Schnelltest nach David (siehe Abschnitt 4.1.3)
ƒ Summenhäufigkeiten auf Wahrscheinlichkeitspapier

Der χ²-Anpassungstest liefert mit einer vorgegebenen statistischen Sicherheit die


Aussage, ob die Daten nicht normalverteilt sind. Die Durchführung des Tests
erfordert mehrere Schritte:
ƒ Formulierung der Nullhypothese H0 (Normalverteilung liegt vor)
ƒ Festlegung von P
ƒ Bildung von k Klassen
ƒ Bildung von Prozenthäufigkeiten Bi für jede Klasse i
ƒ Berechnung eines Erwartungswertes Ei
ƒ Zuordnung der Häufigkeit zu den Klassen
ƒ Berechnung einer Testgröße χ²
ƒ Ermittlung der Signifikanzschranken mit Hilfe einer Tabelle
ƒ Entscheidung

Der Erwartungswert Ei wird für jede Klasse i berechnet nach:

Ei = Bi ·N
100
Qualitätssicherung in der Instrumentellen Analytik 24

Dabei bedeutet:

Bi: relative Häufigkeit in % für jede Klasse i


N: Anzahl der Daten

Bedingungen für die Zulässigkeit des χ²-Tests:


ƒ E ≥ 3%. Falls E < 3%, müssen zwei nebeneinander liegende Klassen
zusammengefaßt werden.
ƒ Es müssen mindestens zwei Kassen entstehen.

Berechnung von χber²:


k (Ei – Bi)²
χber² = Σ
i =1 Ei

Die Signifikanzschranke χ(f)² wird aus der χ²-Tabelle (Tabelle 10) entnommen.
Der Freiheitsgrad f ist:
f =k–1

k: Anzahl der Klasen


P: statistische Sicherheit (vom Anwender zu wählen)
Bewertung:
χber² > χ(f)² ⇒ Nullhypothese H0 wird abgelehnt, d.h. die Werte werden als nicht
normalverteilt angesehen.

Tabelle 10: χ²-Tabelle für eine statistische Sicherheit P=95%.


Freiheits-
1 2 3 4 5 6 7 8 9 10 11 12
grad f
χ(f )² 3,84 5,99 7,81 9,49 11,07 12,59 14,07 15,51 16,92 18,31 19,68 21,03

Freiheits-
13 14 15 16 17 18 19 20 30 50 100 200 ∞
grad f
χ(f )² 22,36 22,68 25,00 26,30 27,57 28,87 30,14 31,41 43,77 67,50 124,34 233,99 ∞

6.8 Trendtest nach Neumann

Trends in Datenreihen zu bemerken sind in der analytischen Chemie sehr wichtig,


da dadurch Fehler relativ leicht aufgespürt werden können. In der Analyse von
Umwelt, Gewebe- oder Ausscheidungsproben auf Schadstoffe sind die Entdeckung
von Trends Hauptzweck oft langjähriger und sehr aufwendiger Analysenreihen. Eine
weitere einfache Möglichkeit zur Aufspürung von Trends ist die Führung einer
Regelkarte.
Voraussetzungen für die Durchführung des Trendtests nach Neumann:
ƒ Anzahl der Werte N > 15
ƒ Normalverteilung der Werte liegt vor

Die Durchführung verläuft in folgenden Schritten


ƒ Berechung eines Parameter Δ² nach:

Δ² =
Σ(xi – xi+1)²
N-1
Qualitätssicherung in der Instrumentellen Analytik 25

xi – xi+1: Differenzen zweier benachbarter Messwerte einer Messreihe


f = N - 1: Freiheitsgrad

ƒ Berechung der Varianz sx² der Messreihe:

sx² =
Σ(xi – xM)²
N-1
xM: Mittelwert der Messreihe

ƒ Berechung der Prüfgröße PG:


Δ²
PG =
sx²
oder
Σ(xi – xi+1)²
PG =
Σ(xi – xM)²
ƒ Die PG wird mit der Signifikanzschranke ν(P=99%, N) nach Neumann (siehe
Tabelle 11) verglichen (empfohlen mit P=99%, N)

Tabelle 11: Signifikanzschranken ν(P=99%, N) zum Trendtest nach Neumann.


N P=99% N P=99%
4 0,6252 33 1,2283
5 0,5379 34 1,2385
6 0,5815 35 1,2485
7 0,5140 36 1,2581
8 0,6628 37 1,2673
9 0,7058 38 1,2763
10 0,7518 39 1,2850
11 0,7915 40 1,2934
12 0,8260 41 1,3017
13 0,8618 42 1,3096
14 0,8931 43 1,3172
15 0,9221 44 1,3246
16 0,9491 45 1,3317
17 0,9743 46 1,3387
18 0,9979 47 1,3453
19 1,0199 48 1,3515
20 1,0406 49 1,3573
21 1,0601 50 1,3629
22 1,0785 51 1,3683
23 1,0858 52 1,3738
24 1,1122 53 1,3792
25 1,1276 54 1,3846
26 1,1426 55 1,3899
27 1,1567 56 1,3949
28 1,1702 57 1,3999
29 1,1830 58 1,4048
30 1,1951 59 1,4096
31 1,2067 60 1,4144
32 1,2177 ∞ 2,0000
Qualitätssicherung in der Instrumentellen Analytik 26

Die Nullhypothese H0 wird so festgelegt, dass aufeinander folgende Werte


unabhängig sind, d.h. es liegt kein Trend vor.

ƒ Bewertung:

PG < ν(P=99%, N)
⇒ Die Nullhypothese muss aufgegeben werden; es liegt ein Trend vor.

PG > ν(P=99%, N)
⇒ Die Nullhypothese wird beibehalten; es ist kein Trend nachweisbar.

Beispiel: Es soll entschieden werden, ob in folgender Messreihe ein Trend vorliegt.


Von einer haltbaren Stammlösung wird jeden Tag die Extinktion bestimmt. Die
Messdauer beträgt 22 Tage. Es wird von einer Normalverteilung ausgegangen. Die
Werte sind in folgender Abbildung aufgetragen.

0,796

0,794

0,792

0,790

0,788
Extinktion

0,786

0,784

0,782

0,780

0,778

0,776
1

11

13

15

17

19

21

# Messung

Abbildung 8: Werte der Extinktion bei Messung einer Stammlösung. N = 22.

Die Nullhypothese H0 lautet: Es liegt kein Trend vor.


N = 22 > 15.
Es liegt Normalverteilung vor.
Die Voraussetzungen für die Anwendung des Trendtests nach Neumann sind erfüllt.

Berechnung der benötigten Größen (Tabelle 12):

Tabelle 12: Zwischenrechnungen zur Anwendung des Neumann-Trend-Tests

# 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Extinktion 0,783 0,785 0,782 0,786 0,789 0,784 0,791 0,788 0,793 0,783 0,788 0,789 0,791 0,792 0,791 0,793 0,793 0,794 0,789 0,793 0,794 0,793

xM 0,7893

xi - x M -0,006 -0,004 -0,007 -0,003 0,000 -0,005 0,002 -0,001 0,004 -0,006 -0,001 0,000 0,002 0,003 0,002 0,004 0,004 0,005 0,000 0,004 0,005 0,004

(xi - xM)² 3,9E-05 1,8E-05 5,3E-05 1,1E-05 7,4E-08 2,8E-05 3,0E-06 1,6E-06 1,4E-05 3,9E-05 1,6E-06 7,4E-08 3,0E-06 7,4E-06 3,0E-06 1,4E-05 1,4E-05 2,2E-05 7,4E-08 1,4E-05 2,2E-05 1,4E-05

Σ(xi - xM)² 0,000322


xi - xi+1 -0,002 0,003 -0,004 -0,003 0,005 -0,007 0,003 -0,005 0,010 -0,005 -0,001 -0,002 -0,001 0,001 -0,002 0,000 -0,001 0,005 -0,004 -0,001 0,001

(xi - xi+1)² 4,0E-06 9,0E-06 1,6E-05 9,0E-06 2,5E-05 4,9E-05 9,0E-06 2,5E-05 1,0E-04 2,5E-05 1,0E-06 4,0E-06 1,0E-06 1,0E-06 4,0E-06 0,0E+00 1,0E-06 2,5E-05 1,6E-05 1,0E-06 1,0E-06

Σ(xi - xi+1)² 0,000326


Qualitätssicherung in der Instrumentellen Analytik 27

PG = 0,00326 ≈ 1,011
0,00322

Aus Tabelle 11 wird der Wert der Signifikanzschranke abgelesen:


ν(P=99%, N=22) = 1,0785.

Ergebnis:
PG < ν(P=99%, N=22)
⇒ Die Nullhypothese H0 muss aufgegeben werden. Es muss von einem Trend
ausgegangen werden.

7. Kalibierungsstrategien
Viele Analysenmethoden bedürfen einer Kalibrierung. Damit wird aus einem
Messwert ŷ ein Konzentrationswert x` berechnet. ŷ nennt man im allgemeinen
Signalgröße. Es kann sich z.B. um eine Peakfläche, um eine Extinktion oder um eine
elektrische Leitfähigkeit handeln.

Verfahren, die aus den Signalgrößen über einen Kalibrieransatz zu den gewünschten
Konzentrationsgrößen umrechnen, nennt man „indirekte Verfahren“. Die
Signalgrößen y werden als abhängige Größen der unabhängigen Größe
Konzentration x gegenübergestellt. Die Aufgabe des Anwenders ist, mit Hilfe der
Daten ein gültiges mathematisches Modell für die Abhängigkeiten der Größen y von
x zu entwickeln und die Gültigkeitsgrenzen des Modells zu beschreiben. Falls
möglich soll ein linearer Zusammenhang gewählt werden (gerades Kalibiersystem).

Ein linearer Zusammenhang bei der Kalibrierung bedeutet: Die Signale sind der
Stoffportion oder der Konzentration des Analyten direkt proportional. Für den Begriff
„Linearität“ wird auch häufig „Analytical Response“ verwendet. Ein mathematisches
Modell zur Ermittlung der Kalibierfunktion und zur Beschreibung der
Leistungsfähigkeit der angenommenen Strategie ist die Regressionsanalyse. Diese
kann auch zu nicht linearen Kalibrierfunktionen führen. Durch Einengung des
Arbeitsbereiches kann oft erreicht werden, dass eine lineare Kalibrierung akzeptabel
wird.

Nach Erstellung und Überprüfung der Kalibrierfunktion wird die eigentliche


Probenlösung, die den Analyten enthält, unter den gleichen Bedingungen wie bei der
Messung der Kalibierlösung gemessen. Mit dem Messergebnis und der
Kalibrierfunktion kann die Probenkonzentration berechnet werden. Zunächst muss
durch eine Methodenvalidierung überprüft werden, ob das angewendete Verfahren
analyentauglich ist. Im Routinebetrieb genügen dann einfachere Systemüber-
prüfungsschritte, um die notwendigen Qualitätsanforderungen zu erbringen und
nachzuweisen.

Bei Kalibrierungsverfahren geben zwei Vorgaben Hilfestellung für den Analytiker.

ƒ DIN 38402 (Teil 51):


Deutsche Verfahren zur Wasser-, Abwasser und Schlammuntersuchung (1986)
Qualitätssicherung in der Instrumentellen Analytik 28

ƒ ICH (International Conference on the Harmonisation of Technical Requirements


for the Registration of Pharmaceuticals for Human Use), Q2B: Analytical
Validation-Methodology (1996).

Bei der Herstellung von Kalibrierlösungen zum Zwecke der Methodenvalidierung


sollten folgende Arbeitsbedingungen eingehalten werden:

ƒ Die Kalibierlösungen sind dem gleichen Verfahren zu unterwerfen (einschließlich


Probenvorbereitung), wie die später zu untersuchende Probenlösung.

ƒ Es sollten mindestens sechs (ICH: fünf), besser zehn Kalibierlösungen


hergestellt werden („10-Punkt-Kalibierung“).
ƒ Die Kalibierlösungen werden vollständig unabhängig oder ersatzweise durch
unabhängige Verdünnungsschritte aus einer „Stammlösung“ hergestellt. Die
Herstellung von Kalibierlösungen durch sukzessive Verdünnungsschritte ist nicht
zu empfehlen.

ƒ Die Konzentrationsintervalle der 5-10 Kalibierlösungen sollten äquidistant, also


mit immer gleichem Konzentrationsunterschied, hergestellt werden.

ƒ Der Arbeitsbereich, also der Bereich zwischen der niedrigsten und der höchsten
Konzentration, sollte so gelegt werden, dass sich die zu erwartende
Konzentration der Probe in der Mitte des Arbeitsbereiches befindet.

ƒ Der Arbeitsbereich sollte dem praxisbezogenen Ziel angepasst sein.

Vorgehendweise zur Festlegung der geeigneten Kalibierstrategie und des


geeigneten mathematischen Modells ist:

1. Überprüfung der Varianzenhomogenität von Signalen, die die verdünnteste


und die konzentrierteste Kalibierlösung aufweisen. (→ Varianzen-F-Test).
2. Ist die Varianzhomogenität akzeptiert, werden Kalibierlösungen und die
Probenlösung hergestellt.
3. Alle Lösungen werden unter den gleichen Bedingungen mit dem gleichen
Analysenverfahren gemessen.
4. Bei nachgewiesener Varianzenhomogenität wird die Abhängigkeit der
Messgröße von der Konzentration zuerst über den linearen Ansatz
mathematisch behandelt „lineare Regression“. Es werden die folgenden
Kenngrößen berechnet:
- Steigung der Geraden m
- Ordinatenabschnitt b
- Geradengleichung y = m·x + b
- Reststandardabweichung sy
- absolute Verfahrensstandardabweichung sx0
- relative Verfahrensstandardabweichung Vx0
5. Mit Hilfe der erhaltenen Daten kann als Ergänzung eine visuelle
Residualanalyse vorgenommen werden.
6. Mit den gleichen Daten wird eine Untersuchung über einen quadratischen
Ansatz (quadratische Regression) vorgenommen.
7. Mit Hilfe des so genannten Mandel-Tests wird überprüft, welches der beiden
Regressionsmodelle akzeptiert werden kann.
Qualitätssicherung in der Instrumentellen Analytik 29

8. Berechung der Probenkonzentration und des dazugehörigen


Prognoseintervalls.

7.1 Überprüfung der Varianzinhomogenität

Ein Analysenverfahren muss für den ganzen vom Analytiker gewählten


Arbeitsbereich gleich präzise sein. Daher wird zur Absicherung des Arbeitsbereiches
die Streuung der Ergebnisse von Mehrfachbestimmungen jeweils beim untersten und
beim obersten Konzentrationsniveau untersucht. Dabei wird geprüft, ob sich die
Streuung der beiden Messreihen („unten“ und „oben“) signifikant voneinander
unterscheiden.

7.2 Lineare Regression

Als Basis für die lineare Regression dienen die erhaltenen Messwerte (y) in
Abhängigkeit von der Konzentration (x) der Kalibrierlösungen. Es wird die Gerade
Kennlinie berechnet, bei der die Summe aller Abweichungsquadrate der Messwerte
in y-Richtung von der Ausgleichsgerade den niedrigsten Wert einnimmt. Die
Abweichungen in y-Richtung werden „Reste“ oder „Residuen“ genannt.

y = m·x + b

es bedeuten:
y: abhängige Größe, Messwert, z.B. die Peakfläche
x: unabhängige Größe, Konzentration
m: Steigung der Geraden
b: Ordinatenabschnitt

12
Steigung m
11

10
9

8
7

6 Ausgleichsgerade
y

5
4

3
2

1 Ordinatenabschnitt b
0
0 1 2 3 4 5 6 7 8 9
x

Abbildung 9: Ausgleichsgerade mit Hilfe der linearen Regression.


Qualitätssicherung in der Instrumentellen Analytik 30

Sind die beiden Parameter m und b der Geradengleichung bekannt, kann von jedem
Signalwert (ŷi, z.B. Peakfläche) die dazugehörige Konzentration (x´i) berechnet
werden.

x´i = ŷi – b
m
Ziel der linearen Regression ist es aus den vorliegenden x,y-Wertepaaren, die aus
Kalibierlösungen mit dem betreffenden Analysenverfahren die beiden Parameter m
und b zu berechnen.

Σ(xi·yi) – [Σyi·Σxi]·N-1
m=
Σxi² - [(Σxi)²· N-1]

Der Wert im Zähler wird zusammengefasst als Qxy-Wert:

Σyi ·Σxi
Qxy = Σ(xi·yi) – [ ]
N
Der Wert im Nenner nennt man Qxx-Wert:

(Σxi)²
Qxx = Σxi² –
N

Qx
m=
Qxx

Der Ordinatenabschnitt b berechnet sich mit

b = yM – m·xM

Die Mittelwerte yM und xM sind die Arbeitsbereichsmitten in Signal und


Konzentrationsrichtung.
Σxi
xM =
N

yM = Σyi
N
Der Parameter m ist ein Maß für die Empfindlichkeit E des Verfahrens.
Der Parameter b, der Ordinatenabschnitt bei der Konzentration c = 0, wird häufig als
„kalibrierter Blindwert yB“ bezeichnet.

Die Präzision der linearen Regression wird durch die so genannte


Reststandardabweichung sy ausgedrückt. Darunter versteht man das Maß für die
Streuung der Signalwerte in y-Richtung um die Ausgleichsgeraden.

sy = (
Σ[yi – (m·xi + b)]² )1/2 = ( Qxx - Qxy²· Qxx-1 1/2
)
N-2 N -2
Qualitätssicherung in der Instrumentellen Analytik 31

mit
yi: Signalwert
xi: Konzentrationswert
m: Steigung der Ausgleichsgeraden
b: Ordinatenabschnitt
N: Anzahl der Messwerte
Die Reststandardabweichung sy kann als Maß für die Anpassungspräzision der
Ausgleichsgeraden an die Messwertpaare aufgefasst werden.

Die Reststandardabweichung sy und die Empfindlichkeit E (Steigung der Geraden m)


werden zusammengefasst zu einem gütebestimmenden Kennwert, der
Verfahrensstandardabweichung sy0:
sy
sx0 =
m
Bei gleicher Reststandardabweichung sy liefert das Verfahren die bessere Güte (die
geringere Verfahrensstandardabweichung sx0), dessen Empfindlichkeit E höher ist.

Eine weitere abgeleitete statistische Kenngröße bei Kalibrierungsbewertungen in die


relative Verfahrensstandardabweichung Vx0:

Vx0 = Sx0·100%
xM

7.3 Quadratische Regression

Die quadratische Anpassung kann, wie folgt, beschrieben werden:

y = n·x² + m·x + b

n, m und b sind Parameter.

7.4 Anpassungstest nach Mandel

Die Nullhypothese H0 lautet: Es sind keine Varianzinhomogenitäten beim Vergleich


der Reststandardabweichungen von linearer und quadratischer Regression zu
erkennen (P=99%).

Für den Anpassungstest nach Mandel wird die Varianzdifferenz Δs² berechnet.

Δs² = [(NL-2)·sL²] – [NQ – 3) sQ²]

Die Indices L und Q bedeuten lineare Anpassung L und quadratische Anpassung Q.


Die berechnete Varianzendifferenz Δs² wird mit der Varianz der quadratischen
Anpassung sQ² über eine F-Test abgeglichen. Dazu wird die Prüfgröße PG
berechnet nach:

PG = Δs²
sQ²
Qualitätssicherung in der Instrumentellen Analytik 32

7.5 Weitere Prüfungsmöglichkeiten zur Akzeptanz der Linearität.

7.5.1 Der Korrelationskoeffizient r oder das Bestimmtheitsmaß r²

Der Korrelationskoeffizient r vergleicht die Streuung der Punkte von der Re-
gressionsgeraden mit der Gesamtstreuung des Verfahrens. Der
Korrelationskoeffizient r ist eine Indexzahl, die angibt, ob und wie ein Variablenpaar
x und y miteinander verknüpft (korreliert) ist. Der Wert der Korrelationskoeffizienten
liegt zwischen -1 und +1. die Berechnung des Korrelationskoeffizienten r wird wie in
Abschnitt 5.5 gezeigt vorgenommen. Liegen alle Werte exakt auf der berechneten
Regressionsgeraden, wird r entweder den Wert -1 oder den Wert +1 annehmen. Ist
r ca. Null, so ist ein Zusammenhang zwischen den Wertepaaren nicht erkennbar.
Das Quadrat des Korrelationskoeffizienten nennt man Bestimmtheitsmaß r².
Aus r kann man nicht entnehmen, ob die lineare oder die quadratische Anpassung
günstiger wäre. Der Korrelationskoeffizient r ist daher kein Maß für die
Funktionsanpassung. In den Korrelationskoeffizienten geht die Steigung der Geraden
nicht mit ein. Die Verfahrensstandardabweichung ist deshalb die bessere Kennzahl
zur Beurteilung des Kalibierungsverfahrens.

7.5.2 Die Residualanalyse

Die Residualanalyse ist eine weitere Möglichkeit, die Qualität des linearen Ansatzes
zu bewerten. Unter den „Residuen“ (Resten) R versteht man die Differenz in y-
Richtung zwischen Messpunkt und zugehörigen Punkt auf der Regressionsgeraden.
Falls der Messpunkt direkt auf der Regressionsgeraden, wäre der Rest R = 0.
Dividiert man die Residuen aller Messpunkte durch die Standardabweichung aller
Residuen (d.h. der Verfahrensstandardabweichung sy), so erhält man normierte
Größen

ui = yi – ŷi
sy
ui: Normierte Größe der Reste
yi: berechneter y-Wert mit Hilfe der Regressionsgeraden
ŷi: Messwert

Ist der lineare Ansatz richtig, dann müssen die normierten Größen ui normalverteilt
sein, daher ergibt sich eine Gleichverteilung unter und über der Nulllinie.

7.6 Probenauswertung und Prognoseintervall

Angenommen ein linearer Kalibierungsansatz ist sinnvoll anzunehmen:


y = m·x + b

Die Bestimmung des Messwert x aus der Signalhöhe (Peakflache) y mit

x= y–b
m
Der geschätzte mit obiger Gleichung berechnete Wert ist mit einem Kalibierfehler
behaftet, der statistisch bewertet werden kann.
Qualitätssicherung in der Instrumentellen Analytik 33

Der Gesamtfehler, besser gesamte Bestimmungsunsicherheit, besteht aus der


Summe der Unsicherheiten, die bei der Messung der Probe und bei der Kalibrierung
entstehen. Letzterer wird durch die Reststandardabweichung sy gegeben. Die
Kalibrierungsunsicherheit wird abhängig sein von

ƒ Anzahl der Kalibierlösungen N


ƒ Der Anzahl der Mehrfachmessungen (Parallelbestimmungen) Ň
ƒ von der Reststandardabweichung sy
ƒ von der Empfindlichkeit E (Steigung m) der Kalibriergeraden
ƒ von der Entfernung zwischen der Konzentration der Probe x und der mittleren
Konzentration xM.

Aus dem Fehlerfortpflanzungsgesetz folgt, dass die „wahre“ (jedoch unbekannte)


Gerade zwischen zwei Hyperbelästen liegt. Die beiden Äste werden berechnet nach:

1 1 (x- xM)² 1/2


yu,o = (m·x + b) ± sy·t·[ + + ]
N Ň Qxx
Dabei bedeuten:
sy: Reststandardabweichung
t: t-Faktor der zweiseitigen Tabelle mit f = N – 2 und P = 95%
N: Anzahl der Kalibierlösungen
Ň: Anzahl der Mehrfachmessungen (Parallelbestimmungen)
xM: Arbeitsbereichsmitte
Qxx: Quadratsumme x (siehe Abschnitt 7.2)

Für einen vorgegeben x-Wert werden zwei y-Werte berechnet.


x=0⇒y=b

yu und yo sind für x = 0 gleichzeitig der obere bzw. der untere Grenzwert des
Ordinatenabschnittes b (Blindwertes).
Die Hyperbeläste werden „Prognosebänder“ bzw. „Vertrauensbänder“ genannt.

Tabelle 13: Beispiel: Kalibierwerte: x Konzentration, y Signalwert.

x 1 2,5 3,5 4,7 5,8 6,5 7,8 8,5 9,3 11,4


y 1,8 2,6 3,9 4,6 6 6,3 7,6 7,9 8,9 10,3
yi - (mx+b) 0,2 -0,28 0,175 -0,15 0,32 0,025 0,22 -0,07 0,245 -0,14
[yi - (mx+b)]² 0,04 0,076 0,031 0,021 0,102 6E-04 0,048 0,006 0,06 0,02
sy 0,2247
xM 6,10
Qualitätssicherung in der Instrumentellen Analytik 34

12

Signalwert y
10

6 Messwert ŷ

0
Prognoseintervall
Konzentration x
xu xo

Erwartungswert x´

Abbildung 10 : Hyberbeläste und Signalwert zum Prognoseintervall für das Beispiel


aus Tabelle 13. N =10; Ň = 1.

xu: unterer Grenzwert durch den Schnittpunkt mit dem oberen Prognoseband.
x´: Konzentration der Probe aus der Kalibrierung (Erwartungswert)
xo: oberer Grenzwert durch den Schnittpunkt mit dem unteren Prognoseband.

VB = xo - x´ = x´ - xu nennt man Prognoseintervall


Der tatsächliche unbekannte Analysenwert befindet sich mit der gewählten Sicherheit
von P = 95% im Intervall: x´ ± VB

Berechnung der Größen xu und x0:


ŷ–b sy ·t 1 1 (ŷ- yM)² 1/2
xu,o = m ± m ·[ + + ]
N Ň m²·Qxx
Dabei bedeuten:
b: Ordinatenabschnitt
m: Steigung der Gerade
sy: Reststandardabweichung
ŷ: Signalwert der Probe
yM: Arbeitsbereichmitte von y (Signalstärke)
N: Anzahl der Kalibierlösungen
Ň: Anzahl der Bestimmungen jeder Kalibierlösung
Qualitätssicherung in der Instrumentellen Analytik 35

7.8 Ausreißer in Kalibierdaten

Die Ausreißertests z.B. nach Dixon und Grubbs, können auf Kalibrierdaten nicht
angewendet werden, da keine Daten eines Konzentrationsniveaus vorliegen.

Folgender Ausreißertest kann man für lineare Funktionen durchführen:


1. Graphische Darstellung der Funktion
2. Subjektive Betrachtung und Kennzeichnung des Wertes, der in Verdacht steht,
ein Ausreißer zu sein.
3. Das Wertepaar, das ein Ausreißer zu bilden scheint, wird für die weiteren
Berechnungen aus der Reihe genommen.
4. Durchführung einer linearen Regression ohne das gekennzeichnete
Wertepaar.
5. Berechnung der Steigung, Ordinatenabschnitt und Reststandardabweichung.
6. Berechung des Signalintervalls yu,o (Δy) für die Konzentration x des Ausreißers
mit P = 95%.
7. Befindet sich der Signalwert des Ausreißers außerhalb von Δy, den
Grenzwerten des Prognosebandes, ist das Wertepaar als Ausreißer erkannt.

Beispiel: Tabelle 14: Kalibierdaten. Ist das Wertepaar #4 ein Ausreißer?

# Konzentration xi Signal yi
µg/mL
1 100 0,241
2 125 0,304
3 150 0,364
4 175 0,453
5 200 0,503
6 225 0,574
7 250 0,661

0,8

0,6
Signal

0,4
Ausreißer?

0,2

0
50 100 150 200 250 300
Konzentration in µg/mL

Abbildung 11: Graphische Auswertung von ausreißerverdächtigen Messwerten.

Die lineare Regression der restlichen Datenpaare ergibt:


Qualitätssicherung in der Instrumentellen Analytik 36

xi yi yi - (m ·xi + b ) Σ(xiyi) Σxi Σyi Σxi² (Σxi)²


100 0,241 0,0076 511,7 1050 2,647 201250 1102500
125 0,304 0,0013 f =N-2 4
150 0,364 -0,0079 m= 0,00277
200 0,503 -0,0074 yM = 0,44116667
225 0,574 -0,0057 xM = 175 µg/mL
250 0,661 0,0121 b= yM - m·xM = -0,04358
Qxx = 17500
t(P=95%, f=6-2 =4)= 2,776
sy = 0,00942

Das Signalintervall (in y-Richtung) wird berechnet nach:

1 1 (x - x )² 1/2
yu,o = (m·x4 + b) ± sy·t·[ + + 4 M ]
N Ň Qxx

1 1 (175- 175)² 1/2


yu,o = 0,00277·175 – 0,04358 ± 0,00942·2,776·[ 6 + 1 + 17500 ]

yu,o = 0,441 ± 0,0282

Das Signalintervall Δy beträgt 0,413 bis 0,469. Der auf Ausreißer zu prüfende
Signalwert ist 0,453. Dieser liegt im Intervall.
⇒ Der 4. Wert ist kein Ausreißer.

Wird in einer Kalibierreihe ein Ausreißer erkannt, so muss dieser aus der Datenreihe
entfernt werden.

8. Bewertung von Messergebnisse bei geringen Analytmengen Nachweis-,


Erfassungs- und Bestimmungsgrenzen (nach DIN 32645)

Beurteilung der Messwerte bei sehr niedrigen Gehalten des Analyten problematisch,
da Präzision der Messwerte gering ist.

Nach ICH:

Nachweisgrenze:

Die geringste Analytmenge in einer Messprobe, die detektiert, nicht aber quantifiziert
wird.

Bestimmungsgrenze:

Die geringste Analytmenge, die mit der geforderten Präzision und Richtigkeit
quantifiziert wird.

Bei den folgenden Berechungen wird nach DIN 32645 davon ausgegangen, dass
das vorliegende Datenmaterial normalverteilt ist.
Qualitätssicherung in der Instrumentellen Analytik 37

8.1 Definitionen

8.1.1 Blindprobe (Leerprobe)

Probe, die den zu nachzuweisenden Stoff (Analyten) nicht enthält, sonst aber
weitgehend mit der Probe identisch ist.

In der Praxis: oft geringe Reste des Analyten vorhanden.

8.1.2 Blindwert (Leerwert)

Ergebnis der Analyse der Blindprobe.


Möglichkeiten zur Bestimmung:

a) Wiederholungsbestimmungen
Dabei sind mehrere unabhängig voneinander hergestellte Blindproben zu
messen, der Mittelwert der Messwerte ist als Blindwert anzusehen. Die Streuung
der einzelnen Messwerte wird durch die Standardabweichung sy erfasst.

b) Berechnung des Ordinatenabschnitts b


In einer linearen Kalibierfunktion mit Hilfe der linearen Regression.
b = y bei x = 0.

8.1.3 Kritischer Wert der Messgröße yK bei der Kalibrierung

Oberer Wert des Prognosebands an der Stelle x = 0 (Blindwert).


Signalwert y

oberer
Hyperbelast

yk

Konzentration x

Abbildung 12: Signalintervall und kritische Messgröße yK

Der Schnittpunkt des oberen Hyberbelastes yo(x=0) mit der Ordinate wird als
kritischer Wert der Messgröße yK bezeichnet. P =95%. Der t-Wert ist einer
einseitigen Fragestellung der t-Tabelle entnommen. Eine einseitige Fragestellung
wird auch für die Berechnung der Nachweisgrenze verwendet.
Qualitätssicherung in der Instrumentellen Analytik 38

8.1.4 Nachweisgrenze xNG

Die Nachweisgrenze xNG ist nach DIN 32 645 eine Entscheidungsgrenze. Sie
bezeichnet jenen Gehalt an Analyten in einer Probe, der in der Messung den
„kritischen Wert der Messgröße yK“ gerade überschritten hat.

Signalwert y

oberer
Hyperbelast

yk

xNG Konzentration x

Abbildung 13: Kritische Messgröße yk und Nachweisgrenze xNG

Es ist die Konzentration eines Analyten, bei dem die Wahrscheinlichkeit für den
Fehler 1.Art und 2.Art gleich sind: α = β. Bei Mehrfachmessungen von Proben, deren
Analyt mit einer Konzentration der Nachweisgrenze xNG auftritt wird Durchschnitt das
Ergebnis in 50% der Fällen „Wert kleiner Nachweisgrenze“ sein. Die Nachweisgrenze
ist kein Absolutwert.

8.1.5 Erfassungsgrenze xEG

Die Erfassungsgrenze xEG ist der kleinste Gehalt eines Analyten in einer Probe, bei
dem mit einer vorgegebenen Sicherheit, meist P=95%, ein Nachweis möglich ist. Die
Berechnung erfolgt aus dem 95% Prognosebereich der Kalibiergeraden.
xEG ≈ 2· xNG
das bedeutet, der Nachweis des Analyten in der Konzentration der Erfassungsgrenze
wird doppelt so oft gelingen, wie bei der Nachweisgrenze.

Achtung: Begriffe Nachweisgrenze und Erfassungsgrenze werden manchmal


wortgleich verwendet. z.B. in der Wasseranalytik. Nach Funk, W., Dammmann, V.,
Donneveert G, 1991, Qualitätssicherung in der Analytischen Chemie, VCH,
Weinheim entspricht die Erfassungsgrenze nach DIN 32 465 in der Wasseranalytik
der Nachweisgrenze.

8.1.6 Bestimmungsgrenze xBG

Die Bestimmungsgrenze ist eine quantitative Grenze. Sie ist jene Konzentration, bei
der ein Analyt mit einer vorher festgelegten Bestimmungsunsicherheit quantifiziert
werden kann. Die Bestimmungsunsicherheit ist das Verhältnis der jeweiligen
Grenzkonzentration zum 95%-Vertrauensbereich.
Qualitätssicherung in der Instrumentellen Analytik 39

8.1.7 Zusammenfassung

Bei der Bestimmung eines Analyten (Analytkonzentration xA) in einer Probe mit sehr
geringem Gehalt, gibt es nach DIN 32 645 sechs Grenzfälle:
ƒ xA < xNG ⇒ Nachweis in weniger als 50% der Fälle erfolgreich*).
ƒ xA ≈ xNG ⇒ Nachweis in 50% der Fälle erfolgreich*).
ƒ xNG <xA < xEG ⇒ Nachweis in 50% bis 95% der Fälle erfolgreich*).
ƒ xA ≈ xEG ⇒ Nachweis in 95% der Fälle erfolgreich*).
ƒ xEG <xA < xBG ⇒ Nachweis erfolgreich*), Quantifizierung mit der notwendigen
statistischen Sicherheit P ist unsicher.
ƒ xA ≈ xBG ⇒ Nachweis erfolgreich*), Quantifizierung mit der notwendigen
statistischen Sicherheit P ist möglich. Die Ergebnisun-
sicherheit wurde mit K =2 oder K = 3 festgelegt.
*)
erfolgreicher Nachweis: Die getroffenen Aussage z.B. Analyt vorhanden, ist wahr

Interpretation der Bestimmungsgrenze:


xA < xBG ⇒ nur ein qualitativer Nachweis möglich,
xA < xBG ⇒ ein quantitativer Nachweis möglich.

Methoden zur Bestimmung der drei Grenzwerte:


ƒ Blindwertmethode
ƒ Kalibiermethode
ƒ Abschätzmethode

Mathematische Voraussetzungen zur Berechnung dieser Werte:


ƒ Die Blindwerte sind voneinander unabhängig und normalverteilt.
ƒ Zwischen Messgröße und Gehalt besteht ein linearer Zusammenhang.

8.2 Ermittlung der Nachweis-, Erfassungs- und Bestimmungsgrenze

8.2.1 Blindwertuntersuchungen

Probenverteilung
relative Häufigkeit

relative Häufigkeit

Blindwertverteilung

Konzentration Fehler 2. Art Konzentration

Abbildung 13a: Normalverteilte Blindwerte. Abbildung 13 b: Fehler 2. Art.

Blindwertverteilung und Probenverteilung überlappen sich in obigen Abbildungen, so


dass im Überlappungsbereich keine eindeutige Zuordnung zu Blindwert oder Probe
möglich ist.
Qualitätssicherung in der Instrumentellen Analytik 40

Voraussetzung für die Anwendung des Blindwertverfahrens: Die Messwert-


streuungen des Blindwerts und die Messwertstreuungen der Probe sind identisch.

Bei der Konzentration, bei der ein Fehlerrisiko von 50% besteht, dass ein Analyt
identifiziert wird, obwohl das Signal zur Streuung des Blindwerts gehört, nennt man
nach DIN 23 645 die Nachweisgrenze. Wie man aus Abbildung 14 erkennt, wird nur
in 5% aller Fälle der Analyt nachgewiesen, obwohl die Probe in Wirklichkeit nicht den
Analyten nicht enthält.
Überlappungsbereich
50%
Probenverteilung
relative Häufigkeit

Konzentration
Fehler 2. Art:
Fehler 1. Art:
50%
5%
Nachweisgrenze

Abbildung 14a: Nachweisgrenze xNG bei der Blindwertmethode.

In Abbildung 14 beträgt der Überlappungsbereich zwischen Blindwert- und


Probenverteilung 50%. ⇒ Definition Nachweisgrenze.
Legt man die Blindwert- und die Probenverteilung so übereinander, dass die
Überlappungsfläche nur noch 5% der Flächen ausmachen, dann gilt für den Fehler 1.
Art α und für den Fehler 2. Art β: α = β. Die Konzentration der Probenverteilung bei
dem dies gilt wird dann als Erfassungsgrenze xEG bezeichnet.

Blindwertverteilung
R
e
l 5% Probenverteilung
a Überlappung
t
Signalgröße

i
v
e

H
ä
u
f
i
g
k
eFehler 2. Art: Konzentration
i Fehler 1. Art:
5% 5%
t
Erfassungsgrenze

Abbildung 14b: Erfassungsgrenze xEG bei der Blindwertmethode.


Qualitätssicherung in der Instrumentellen Analytik 41

Zur Festlegung der Bestimmungsgrenze xBG. Wird die Konzentration so erhöht, dass
die Überschneidungsbereiche der Verteilungen von Blindprobe und Probe unter 5%
fallen.

5%
Überlappung

relative Häufigkeit

Konzentration
Überlappung:
< 5%
Bestimmungsgrenze

Abbildung 14c: Verhältnis bei der Bestimmungsgrenze xBG.

Bei der Berechnung muss der t-Wert mit „einseitiger Fragestellung“ entnommen
werden.

Nachweisgrenze xNG:
Zur Bestimmung der Nachweisgrenze xNG werden Ň Parallelmessungen an N
unabhängig hergestellten Blindproben durchgeführt. Aus allen Werten wird der
Mittelwert yM,B und die Standardabweichung sy berechnet. yk ist die Summe aus dem
Blindwert und der Breite des einseitigen Prognoseintervalls.

yk = yM,B + sy·t·[ 1 + 1 ]1/2


Ň N
dabei bedeutet:

yk: Kritischer Wert der Messgröße


yM,B: Mittelwert der Blindwertmessungen
sy: Standardabweichung der N Blindwertmessungen
N: Anzahl der Blindwerte
Ň: Anzahl der Parallelmessungen
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-1, P=95%)

- Einsetzen des kritischen Wertes der Messgröße yk in die Kalibrierfunktion


y = m·x + b
- Ersetzen des Ordinatenabschnitts b durch den Mittewert der
Blindwertmessung yM,B in die Kalibrierfunktion

xNG = sy ·t· [ 1 + 1 ]1/2


m Ň N
Qualitätssicherung in der Instrumentellen Analytik 42

Erfassungsgrenze xEG:

xEG = 2· xNG = 2· sy ·t· [ 1 + 1 ]1/2


m Ň N

Bestimmungsgrenze xEG:

Die Bestimmungsgrenze xBG ist bei einer statistischen Sicherheit von P =95% etwa
die sechsfache Standardabweichung sx (in x-Richtung) des Streubereichs der
Blindproben.

xBG ≈ 3·xNG

Beispiel: Blindwerte: Fotometrische Phosphorbestimmung mit Vanatatlösung (selbst


leicht gelbgefärbt)

# 1 2 3 4 5 6 7 8 9 10
Extinktion yi 0,007 0,006 0,004 0,007 0,009 0,009 0,008 0,006 0,007 0,007

Mittelwert yM = 0,007,
Standardabweichung sy = 0,00149

Werte seien normalverteilt.


Unabhängig aufgenommene, lineare Kalibierfunktion:

y = 0,001068 (µg P)-1·x + 0,00743

Statistische Sicherheit: P =95%

t-Wert (einseitige Fragestellung):


t (f = 10-1; P =95%) = 1,83

Berechnung des kritischen Werts der Messgröße yk:


1 1 1/2
yk = 0,007 + 0,00149·1,83·[ + ] = 0,00986
1 10
Wird die Extinktion größer als 0,00986, so kann Phosphor nachgewiesen werden.

Nachweisgrenze der Konzentration xNG:


0,00149 1 1 1/2
xNG = ·1,83·[ + ] = 2,679 µg P
0,001068 1 10
Erfassungsgrenze:
xEG = 2· xNG = 5,358 µg P.

Bestimmungsgrenze: xBG ≈ 3·xNG = 8,034 µg P.

8.2.2 Kalibrierkenndaten

Normalverteilung der Blindwerte ist oft nicht gegeben.


⇒ Bestimmung von NG, EG und BG aus Kalibierkenndaten.
Qualitätssicherung in der Instrumentellen Analytik 43

Voraussetzungen für die Anwendung


ƒ Lineare Kalibierfunktion
ƒ Im untersuchten Bereich muss Varianzhomogenität nachgewiesen sein.
ƒ Kalibierlösungen sind unabhängig hergestellt und gemessen worden.
ƒ Der gewählte Arbeitsbereich schließt die Bestimmungsgrenze mit ein.

Es sollte gelten:
xN
< 15.
xNG
Mit
xN: Höchster Kalibierwert
xNG: berechnete Nachweisgrenze

Ablauf:
- Grobe Abschätzung der xNG, xEG, xBG
- Arbeitsbereich so zu wählen, das kleinster und größter geschätzter Grenzwert
eingeschlossen sind.
- Prüfung der Varianzhomogenität des kleinsten und größten Werts der
Kalibierlösung.
- Prüfung, ob lineare Kalibierfunktion vorliegt.
- Schnittpunkt der Kalibiergeraden mit der y-Achse (Ordinatenabschnitt b) ist ein
Schätzwert für den Blindwert. An dieser Stelle ist x = 0.
- Berechnung der Prognosebänder mit P = 95%

Die Breite des Prognosebandes in (y-Richtung) gibt die Streuung des Signalwertes
an. Innerhalb dieser Streuung ist der Signalwert mit einer vorgegebenen Sicherheit P
zu erwarten (Abbildung 16). Wichtig für Berechnung der NG: Prognoseband für x= 0.
Signalwert y

oberer
Hyperbelast

yk

xNG Konzentration x

Abbildung 15: Streubereiche der Blindprobe und Nachweisgrenze.

Anschaulich:

Nachweisgrenze:
Extrapolieren der „kritischen Größe des Messwertes yk“ (Schnittpunkt des Randes
oberen Prognosebandes mit der Ordinate) auf die Kalibiergerade und Fällen des
Lotes auf die x-Achse: ⇒ xNG nach DIN 32 645
Qualitätssicherung in der Instrumentellen Analytik 44

Erfassungsgrenze:
Extrapolieren der „kritischen Größe des Messwertes yk“ auf den Rand des unteren
Prognosebandes und Fällen des Lotes auf die x-Achse:
⇒ xEG nach DIN 32 645

Signalwert y
y k kritische Größe des Signalwerts

xNG xEG = 2·xNG Konzentration x

Abbildung 16: Anschauliche Ermittlung der Erfassungsgrenze xEG nach DIN 32 465.

Bei dieser Extrapolation ist α = β = 5%. Der Wert der Erfassungsgrenze ist wegen
der Symmetrie des Prognosebandes genau doppelt so groß wie die
Nachweisgrenze.

Berechung der Nachweis- und Bestimmungsgrenze


sy 1 1 x ²
xNG = ·t· [ + + M ]1/2 Nachweisgrenze
m Ň N Qxx
Es bedeutet:
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-2, P=95%)
sy: Reststandardabweichung
N: Anzahl der Kalibierlösungen
Ň: Anzahl der Parallelmessungen
Qxx: Summe der Abweichungsquadrate Qxx = Σ(xi – xM)²
xM: Mittelwert des Arbeitsbereichs
Qualitätssicherung in der Instrumentellen Analytik 45

t-Wert: zweiseitige Fragestellung

Signalwert y
Δx

xNG Konzentration x
Bestimmunggrenze xBG mit k = 3

Abbildung 17: Ermittlung der Bestimmungsgrenze xBG nach DIN 32 465.

Breite des Prognoseintervalls:


sy 1 1 (x -xM)²
ΔxBG = ·t· [ + + ]1/2
m Ň N Qxx
Es bedeutet:
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-2, P=95%)
sy: Reststandardabweichung
N: Anzahl der Kalibierlösungen
Ň: Anzahl der Parallelmessungen
Qxx: Summe der Abweichungsquadrate Qxx = Σ(xi – xM)²
xM: Mittelwert des Arbeitsbereichs

Berechnung der Bestimmungsgrenze:

xBG ≈ k·ΔxBG

sy 1 1 (k·xNG -xM)² 1/2


xBG = k· ·t· [ + + ]
m Ň N Qxx
Es bedeutet:
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-2, P=95%)
sy: Reststandardabweichung
N: Anzahl der Kalibierlösungen
Ň: Anzahl der Parallelmessungen
Qxx: Summe der Abweichungsquadrate Qxx = Σ(xi – xM)²
k: Faktor, empfohlen 3 (entspricht 33,33 % Fehlerunsicherheit).
XNG: Nachweisgrenze nach DIN 32 465
xM: Mittelwert des Arbeitsbereichs
Qualitätssicherung in der Instrumentellen Analytik 46

8.2.3 Schnellabschätzung nach DIN 32 436

Die Nachweisgrenze ist nach dieser Methode vereinfacht als Vielfaches der
Verfahrensstandardabweichung sx0 aufgefasst werden.
sy
xNG ≈ 1,2·Φ·
m

1 1/2
Φ = t·[1 + ]
N
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-1, P=95%)
sy: Reststandardabweichung
N: Anzahl der Kalibierlösungen
m: Steigung der Geraden

xBG ≈ k·xNG

9. Wiederfindung, ein Maß für die Richtigkeit


Die Wiederfindung ist ein Maß für die Richtigkeit. Es gibt folgende Verfahren zur
Abschätzung der Richtigkeit.

ƒ Vergleich der Ergebnisse mit akzeptierten Prüfverfahren


ƒ Anwendung des Verfahrens auf ein Referenzmaterial
ƒ Aufstockung von Analyten in die Probe

9.1 Vergleich der Ergebnisse mit akzeptierten Prüfverfahren

Voraussetzung:
• F-Test
• Mittelwert-t-Test

Achtung: nur anwendbar bei gleicher Spezifität

9.2 Wiederfindung

9.2.1 Begriffe

Die einer realen Probe den Analyten umgebenden Materialien nennt man
„Probenmatrix“ oder „Matrix“. Die „Matrix“ kann einen erheblichen Einfluß auf ein
Analysenverfahren haben. Solche matrixbedingten Überlagerungseffekte nennt man
auch „Interferenzen“.

Bei vielen realen Proben ist die Matrix so kompliziert aufgebaut, dass vor der
Quantifizierung eine (teilweise) Matrixentfernung stattfinden muss.
Probenaufschluss und Probenvorbereitung beeinflussen die Anwendbarkeit von
Analysenverfahren.
Typische Unterschiede in den Kalibiergeraden von reinen Analyten und Analyten
unter Matrixeinfluss sind:
Qualitätssicherung in der Instrumentellen Analytik 47

mit Matrix

Signalhöhe
ohne Matrix

Konzentration

Abbildung18: Konstant systematische Abweichung.

Kennzeichen von konstant systematischen Abweichungen:


ƒ Fehler von der Konzentration des Analyten unabhängig
ƒ Es werden neben dem Analyten auch Komponenten der Matrix erfasst.
ƒ Grund ist meistens unzureichende Spezifität des Analysenverfahrens.
Signalhöhe

mit Matrix

ohne Matrix

Konzentration

Abbildung 19: Proportional systematische Abweichung

Kennzeichen von proportional systematischen Abweichungen:


ƒ Der Fehler ist von der Konzentration des Analyten abhängig.

9.2.2 Schnelltest zur Bestimmung der Wiederfindungsrate W

ƒ Reale Probe wird analysiert ⇒ Signalwert: y0


ƒ Auswerten mit Hilfe der Kalibierfunktion: aus y0 wird x0 berechnet.
ƒ x0: Konzentration der Urprobe.
ƒ Zugabe zur Urprobe des reinen Analyten: x ≈ x0 (Aufstockung der Urprobe)
ƒ Aufgestockte Probe wird analysiert ⇒ Signalwert: yA
ƒ Auswerten mit Hilfe der Kalibierfunktion: aus yA wird xA berechnet.
ƒ Bei WFR von 100%: xA – x0 = x
xA – x0
W=
x
Qualitätssicherung in der Instrumentellen Analytik 48

Regelmäßig ermittelte Wiederfindungsraten können in Regelkarten eingetragen


werden.

9.2.3 Aufstockung von Analyten in die Probe

Analytsubstanz wird dem Matrixeinfluß der realen Probe ausgesetzt.


ƒ Analysen mit Matrixsubstanzen ⇒ Signalwerte yF1 bis yFN
ƒ Berechnung der Konzentrationswerte: xF1 bis xFN

xFi = yFi – b
m
ƒ Herstellen einer ausreichenden Anzahl unterschiedlicher Konzentrationen des
Analyten in einem geeigneten Lösungsmittel xG1 bis xGN
ƒ Analysen ohne Matrixsubstanzen
ƒ Grundkalibrierung: y = mG·x + bG
ƒ Auftragen der xF1 bis xFN-Werte gegen die Grundkalibierkonzentration xG1 bis xGN
ƒ Wiederfindungsfunktion: xF = mA·xG + bA

Keine systematischen Abweichungen sind vorhanden, falls


mA = 1 und bA = 0.

In diesem Fall sind die Verfahrensstandardabweichungen beider Verfahren


(Grundverfahren und Vergleichsverfahren) gleich.

Systematische Abweichungen sind vorhanden, falls


mA ≠ 1 oder bA ≠ 0.

mA ≠ 1 ⇒ proportional systematische Abweichung


bA ≠ 0 ⇒ konstant-systematische Abweichung

Beispiel: Kupferanalyse im Wasser

10. Auswertung von Ringversuchen


Ringversuche sind ein Element der Validierung von Analysenmethoden. Mehrere
Laboratorien untersuchen quantitativ identische Proben mit dem gleichen Analyten.

Ziele von Ringversuchen sind:


ƒ Beurteilung von Analysenmethoden
ƒ Beurteilung von Laboratorien
ƒ Beurteilung von Materialien

Statistische Auswertung von Ringversuchen unter Wiederholbedingungen:


In jedem Laboratorium wird ein identisches Probenmaterial analysiert
unter identischen Wiederholbedingungen:
• gleicher Ort
• gleicher Gerätepark
• gleicher Mitarbeiter
• gleiche Analysenmethode
• anderer Zeitpunkt
Qualitätssicherung in der Instrumentellen Analytik 49

Statistische Auswertung von Ringversuchen unter Vergleichsbedingungen:


Zusammenfassung aller Analysendaten unter folgenden Vergleichsbedingungen:
• gleiche Analysenmethode
• gleiches Probenmaterial
• unterschiedlicher Gerätepark
• andere Mitarbeiter
• anderer Zeitpunkt
Laborspezifische interne Standardabweichung sj:

sj = [
Σ(xi,j – xM,j)² ]1/2
N-1
xi,j: Einzelwert des Laboratoriums j
xM,j: Mittelwert des Laboratoriums j
N: Anzahl der Proben im Laboratorium j

Wiederholstandardabweichung sr: Streuung eines „durchschnittlichen“ Laborato-


rium bei Mehrfachuntersuchungen

Für die Gesamtheit aller Laboratorien gilt:

sr = [
Σ[(Nj – 1)·sj²] ]1/2
N-k
sr: Standardabweichung unter Wiederholbedingungen für die Gesamtheit aller
Laboratorien
Nj: Anzahl der Proben im Laboratorium j
sj: Laborinterne Standardabweichung
N: Gesamtzahl aller Messwerte
k: Zahl der beteiligten Laboratorien

Vergleichsstandardabweichung sR: Streuung, die verschiedene Laboratorien


durchschnittlich erwarten können, wenn sie Messungen an der gleichen Probe
vornehmen.

1 Σ[Nj·(xMj – xG)² w-1 Σ[Nj –1)²· sj]


sR = [ · ( )+ ·( )]1/2
w k- 1 w N-k
1 N²
w= ·[N – Σ( j )]
k-1 N

sR: Standardabweichung unter Vergleichsbedingungen


Nj: Probenanzahl im Laboratorium j
sj: Standardabweichung im Laboratorium j
N: Gesamtzahl aller Messwerte
k: Zahl der beteiligten Laboratorien
xMj: Mittelwert des Laboratoriums j
xG: Mittelwert aller Messwerte
Qualitätssicherung in der Instrumentellen Analytik 50

Vertrauensbereiche:
Wiederholstandardabweichung sr

r95% = 2,8·sr Wiederholbarkeit bei 95%

Vergleichsstandardabweichung sR

R95% = 2,8·sR Vergleichbarkeit bei 95%

Wiederholbarkeit:
Wiederholt ein Labor mit den gleichen Probenmaterialien an verschiedenen Tagen
die Messung, so sind die Ergebnisse als gleich zu betrachten, wenn die Differenz
beider Messungen „< r95%“ ist.

Vergleichbarkeit:
Vergleichen zwei Laboratorien ihre Messungen, die sie an den gleichen
Probenmaterialien erhalten haben, dann ist eine Differenz erst dann signifikant, wenn
die Vergleichbarkeit „größer ist als R95%“.

11. Abschätzung der Messunsicherheit

Bei Mehrfachmessungen: Standardabweichung


Bei Einfachmessungen: Schätzung

Grundlage: Anzeige- und Ablesegenauigkeit der Messgeräte

Faustformel: Liegen genauere Angaben des Messgeräteherstellers nicht vor, so ist


die Messunsicherheit etwa die Hälfte des Werts vom Abstand zweier Skalenteile.

Ist der Abstand sehr groß, dann kann ¼ genommen werden.


Ist der Abstand sehr klein, dann muß der ganze Wert genommen werden.

Bei digitaler Anzeige ohne weitere Information: Die letzte angezeigte Stelle ist die
erste unsichere.

Fortpflanzung von Messunsicherheiten


11.1 Für Summen und Differenzen fehlerbehafteter Größen gilt:

F = a·x + b·y + c·z + ….. oder F = a·x - b·y - c·z - …..

F: aus mehreren Messgrößen berechnetes Messergebnis


x, y, z: Messgrößen
a, b, c: Faktoren
ΔF: mittlere absolute Messunsicherheit des Messergebnisses
Δx, Δy, Δz: absolute Messunsicherheiten der Mesgröße

ΔF = [(a·Δx)² + (b·Δy)² + (c·Δz)² + ….. ]1/2


Qualitätssicherung in der Instrumentellen Analytik 51

11.2 Produkte oder Quotienten

F = x±a · y±b · z±c …..

F: aus mehreren Messgrößen berechnetes Messergebnis


x, y, z: Messgrößen
a, b, c: Faktoren
ΔF/F: mittlere relative Messunsicherheit des Messergebnisses
Δx/x, Δy/y, Δz/z: relative Messunsicherheiten der Messgröße

ΔF/F = [(a·Δx/x)² + (b·Δy/y)² + (c·Δz/z)² + ….]1/2

11.3 Beispiel: Kalibrierung: y = m·x + b


y-b
x=
m
Gesucht: x ± Δx
Gegeben: y, b, m, Δy, Δb, Δm

Δ(y – b) = [(Δy)² + (Δb)²]1/2


Δx 1/2
= [( Δm )² + ( [(Δy)² + (Δb)²] )²]1/2
x m y- b

12. Statistik bei der Probennahme


Grundsätze bei der Stichprobenauswahl
ƒ Die Stichprobe muss für die Grundgesamtheit repräsentativ sein.
ƒ Die Stichprobe muss ausreichend groß, aber nicht überdimensioniert sein.
ƒ Die Stichprobe soll aus unabhängigen Elementen bestehen.
ƒ Die Stichproben müssen entweder zufällig oder systematisch gezogen
werden.

12.1 Stichprobenauswahl

Arten der Stichprobenauswahl


ƒ Zufallsauswahl
ƒ Mehrstufiges Zufallsverfahren
ƒ Wahrscheinlichkeitsauswahl
ƒ Systematische Auswahl

12.1.1 Zufallsauswahl
Stichproben werden zufällig ausgewählt. Die Wahrscheinlichkeit der Häufigkeit des
zu untersuchenden Merkmals ist gleich groß.

11.1.2 Mehrstufiges Zufallsverfahren


Gesamtheit der Proben wird in Bereiche aufgeteilt. Stichproben werden aus den
einzelnen Bereichen gezogen. Die Wahrscheinlichkeit ist gleich groß.
Qualitätssicherung in der Instrumentellen Analytik 52

11.1.3 Wahrscheinlichkeitsauswahl

Gesamtheit der Proben wird in Bereiche aufgeteilt. Stichproben werden aus den
einzelnen Bereichen gezogen. Die Wahrscheinlichkeit ist nicht gleich groß.
Wichtungsfaktor.

11.1.4 Systematische Auswahl

Jedes n-te Element wird untersucht.

12.2 Schätzung des Stichprobenumfangs n

Minimaler Stichprobenumfang:

n ≥ ( za )²·s²
d
n: Stichprobenumfang
za: Schranken der Normalverteilung
s: abgeschätzte Standardabweichung
d: zulässige Abweichung

Schranken der Normalverteilung:


Statistische Sicherheit P in % za
90 1,645
95 1,960
99 2,576
99,9 3,291

Charakteristik homogener und inhomogener Untersuchungsobjekte anhand von zeit-


bzw. ortsabhängigen Konzentrationsfunktionen sowie von typischen Zeit- bzw.
Ortsfrequenzen.

Die Zeitfrequenz 1/t bzw. Ortsfrequenz 1/l ist

Null gering mittel hoch

t, l
konstante Konzentrations- periodische stochastische
Konzentration gradient Konzentrations- Konzentrations-
änderungen schwankungen

HOMOGEN INHOMOGEN

Abbildung 20: Klassifizierung der räumlichen und zeitlichen Verteilung des Analyten
Qualitätssicherung in der Instrumentellen Analytik 53

13. Validierung von Analysenverfahren


Im Rahmen der Qualitätssicherung bedeutet Validierung die Feststellung, ob eine
analytische Methode für die Erfüllung einer ganz bestimmten Aussage geeignet ist.

13.1 Grundfragen

ƒ Wie lautet die bestimmte Aufgabe, die gelöst werden soll?


ƒ Durch welche charakteristischen Leistungsmerkmale kann das für die Lösung
der Aufgabe vorgesehene Verfahren auf Eignung getestet werden?
ƒ Wie lauten die experimentell ermittelten Messwerte der ausgesuchten
Merkmale?

13.2 Definition, Erläuterung und Kommentierung von Qualitätssicherung

13.2.1 Validierung

ISO Guide 25 und der EN 45001 (1989) → ISO 17075:


Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibierlaboratorien
Die Validierung ist die Bestätigung durch Untersuchung und Bereitstellung eines
Nachweises, dass die besonderen Aufforderungen für einen speziellen beabsichtigten
Gebrauch erfüllt werden.

Validierungsthesen für die Analytik:


ƒ Validierung ist ein Arbeitsinstrument zur Qualitätssicherung neben anderen wie
z.B. SPC (statistische Prozesskontrolle)
ƒ Validierung ist produkt- und zweckspezifisch auszuführen. Die Verantwortung
über Ausmaß und Art liegt beim Analytiker.
ƒ Validierung heißt, das notwendige tun, aber eine Eskalierung vermeiden. Alle
kritischen Kenngrößen der Methode müssen validiert werden, aber nicht wahl-
und kritiklos alle.
ƒ Methodenvalidierung beginnt am besten beim Endergebnis und geht im
Analysenablauf bis zum ersten Schritt zurück.
ƒ Validierung kann nicht durch Abhaken von Resultaten mittels Checkliste erfolgen.
ƒ Eine fehlerfreie Analytik („wahrer Wert“) gibt es nicht. Nach Möglichkeit sind die
statistische Relevanz und damit die Messunsicherheit zu ermitteln.
ƒ Für validierte Methoden sind Art und Häufigkeit der notwendigen Kontrollen
festzulegen mit dem Ziel, den Gesamtanalysenaufwand zu minimieren, aber
dennoch die erforderliche Ergebnissicherheit zu erzielen.

13.2.2 Verifizierung

Definition gemäß ISO 8402:1994 § 2.17:


„Bestätigung aufgrund einer Untersuchung und durch Bereitstellung eines objektiven
Nachweises, dass festgelegte Forderungen erfüllt worden sind.“

13.2.3 Qualifizierung bzw. Qualifikation

Definition gemäß ISO 8402:1994 § 2.13: Qualifizierungsprozess


„Prozess zur Darlegung, ob eine Einheit zur Erfüllung der festgelegten Qualitätsforderung
fähig ist.“
Qualitätssicherung in der Instrumentellen Analytik 54

Definition gemäß ISO 8402:1994 § 2.14: Qualifizierung


„Status einer Einheit, wenn ihre Fähigkeit zur Erfüllung der festgelegten Qualitätsforderung
dargelegt wurde.“

13.2.4 Charakterisierung

Charakterisiert wird eine Methode, indem man die Werte für ihre charakteristischen
Kenngrößen ermittelt. Die Werte der Kenngrößen sind die Leistungs- oder
Verfahrensmerkmalswerte der untersuchten Methode. Sie dienen zur Abschätzung
der Unsicherheiten von Ergebnissen, die mit dieser Methode erzielt werden können.

13.2.5 Messen, Prüfen, Justieren, Kalibrieren, Eichen

Messen:
Experimenteller Vorgang, durch den ein Wert einer physikalischen Größe als
Vielfaches einer Einheit oder eines Bezugswerts ermittelt wird.

Prüfen:
Feststellen, ob der Prüfgegenstand eine oder mehrere vorgegebene Bedingungen
erfüllt. Mit Prüfen ist damit immer der Vergleich mit vorgegebenen Bedingungen
verbunden.
Prüfgegenstand kann sowohl die Probe als auch das Messgerät sein.
Justieren (Abgleichen):
Im Bereich der Messtechnik heißt justieren, ein Messgerät so einzustellen, oder
abzugleichen, dass die Messabweichungen möglichst klein werden oder dass die
Beiträge der Messabweichungen die Fehlergrenzen nicht überschreiten.

Verändert Messgerät meist bleibend.

Kalibrieren (Einmessen):
Feststellen der Messabweichungen am fertigen Messgerät. Es folgt kein technischer
Eingriff am Messgerät.

Kalibieren kann sich sowohl auf die Festlegung des Messzusammenhangs als auch auf dessen
Überprüfung beziehen.

Eichen:
Das Eichen eines Messgeräts umfasst die von der zuständigen Eichbehörde nach
den Eichvorschriften vorzunehmenden Prüfungen und Stempelung.
An die Stelle der Eichbehörde kann auch eine Stelle treten, der die Eichbefugnis übertragen
wurde.

13.3 Grundvoraussetzungen für die Validierung einer analytischen Methode

a) Der vom Labor zu erfüllende Auftrag muss so weit beschrieben sein, dass sich
daraus die an die analytische Methode zu stellenden Leistungsanforderungen klar
und eindeutig ableiten lassen.

b) Die üblichen Leistungsmerkmalswerte der analytischen Methode müssen als


Werte der benötigten charakteristischen Kenngrößen bekannt oder zu ermitteln
sein.
Qualitätssicherung in der Instrumentellen Analytik 55

Ist eine der beiden Forderungen nicht erfüllt, so ist eine Validierung nicht möglich.

c) In einem Labor mit einem Qualitätsmanagement-System sollte die Erfüllung der in


den Punkten a) und b) genannten Voraussetzungen und die Überprüfung der
Machbarkeit zwingender Bestandteil der Vertragsüberprüfung sein.

13.4 Die Unsicherheit der Ergebnisse von Messungen, Prüfungen und


Analysen

ISO „Guide to the Expression of Uncertainty in Measurement (GUM) von 1993 sowie
in der Neufassung von 1995 heißt es zur Unsicherheit:

„Die Unsicherheit des Ergebnisses einer Messung reflektiert den Mangel an einem
genauen Wissen über den Wert der Messgröße. Das Ergebnis einer Messung ist
auch nach der Korrektur einer erkannten systematischen Einwirkung (effect) immer
noch eine Schätzung des Wertes der Messgröße infolge der Unsicherheit, die sich
aus der Beeinflussung durch zufällige Einwirkungen und aus der Korrektur des
Ergebnisses bezüglich der systematischen Einwirkung ergibt.“

Ursachen der Messunsicherheit:

c) Fehlerhafte Annahme des Analyten (solvatisiert, Dissoziationsgrad,


Oxidationsstufe, …).
d) Cross-Kontamination oder kontaminierte Reagenzien bzw. kontaminierte
Leerproben.
e) Nichtrepräsentative Probenahme.
f) Ungenügendes Wissen über die Auswirkungen der Umweltbedingungen auf die
Messung oder eine ungenügende Messung der Umweltbedingungen.
g) Ablesefehler einer analogen Anzeige durch die messende Person.
h) Begrenzte Auflösung (Zeit, Ort, Frequenz, Wellenzahl, Energie) oder
Nachweisgrenze des Instruments.
i) Ungenaue Werte des Messstandards und des Referenzmaterials.
j) Ungenaue Werte von Konstanten und anderen Parametern, die aus externen
Quellen stammen und in den Algorithmen zur Messwert-Reduktion verwendet
wurden.
k) Annäherungen und Annahmen, die in die Messmethode bzw. –prozedur
aufgenommen wurden.
l) Schwankungen bei den wiederholten Beobachtungen der Messgröße bei
scheinbar konstanten Bedingungen.

13.5 Methoden zur Charakterisierung von analytischen Methoden

Bei allen Methoden ist zu beachten: Akzeptables Kosten zu Nutzen-Verhältnis.

13.5.1 Erste Charakterisierungsmethode

Systematische Beurteilung der Faktoren, die das analytische Ergebnis beeinflussen


können. Alle relevanten Parameter (Einflußgrößen) werden systematisch variiert und
deren Einfluss auf das Ergebnis quantifiziert.
Diese Methode ist praktisch unbegrenzt einsetzbar.
Qualitätssicherung in der Instrumentellen Analytik 56

13.5.2 Zweite Charakterisierungsmethode

Kalibrierung mit Referenznormalen/Referenzmaterialien und gleichzeitige Unter-


suchung der Einflussgrößen.
Die Unsicherheit der verwendeten Referenzen muss den Spezifikationen des
Messverfahrens entsprechen oder besser als die Forderungen sein.

13.5.3 Dritte Charakterisierungsmethode

In dieser Charakterisierungsmethode werden die mit dem zu charakterisierenden


Messverfahren erhaltenen Ergebnisse mit den Ergebnissen eines (oder mehrerer)
anderer unabhängiger Messverfahren (Vergleichs- oder Referenzverfahren)
verglichen.
Die Wahl des Vergleichsverfahrens sollte dem Verwendungszweck des unter-
suchten Messverfahrens entsprechen, insbesondre bezüglich der zulässigen
Ergebnisunsicherheit.

13.5.4 Vierte Charakterisierungsmethode

Vergleichsmessungen zwischen Laboratorien (Laborvergleichsversuche, Ring-


versuche).
Muss von besonders kompetenten Vergleichs- und Referenzlabor geleitet und
betreut werden.

13.5.5 Fünfte Charakterisierungsmethode

Charakterisierungsmethoden nach 1. bis 4. sind Typ A Methoden


Geordnete Schätzung der Ergebnisunsicherheit auf der Grundlage von Wissen und
Erfahrung (Schätzverfahren vom Typ B).

13.6 Vor Beginn der Validierungsarbeiten

13.6.1 Schritte der Methodenvalidierung

Zielsetzung genau definieren, mit dem Was will ich/der Kunde wissen und
Auftraggeber die Ziele unmissverständ- warum?
lich festlegen.
Leistungsmerkmale und Akzeptanz- Was muss ich messen und welche Daten
kriterien festlegen brauche ich dazu?
Methode, falls sie nicht festgelegt ist, Methode?
auswählen
Prüfer bestimmen (evtl. Validierungs- Wer ist verantwortlich?
team bilden)
Zusammen mit dem Prüfer, Validierungs- Was ist zu tun?
plan erstellen
Methode auf Basis der experimentell Ist sie geeignet?
ermittelten Ergebnisse wählen
Empfehlungen wie in der Laborroutine mit z.B. Regelkarte
minimalem Aufwand die Methode
überprüft werden soll.
Dokumentation und Archivierung
Qualitätssicherung in der Instrumentellen Analytik 57

13.6.2 Dokumentation

Dokumentation zur Validierung: Validation Master Plan

13.6.3 Gerätequalifizierung

13.7 Die Validierungsparameter einer analytischen Methode


Prüfpunkt Englische Bezeichnung Aussage über …
Richtigkeit trueness, accuracy systematische Fehler
Präzision precision zufällige Fehler
- Wiederholpräzision oder repeatability Präzision unter Wiederholbe-
Wiederholbarkeit dingungen: 1 Probe, 1 Prüfer, 1
Gerät, identische Reagenzien,
- Laborpräzision intermediate precision kurze Zeitabstände
Eine Probe, sonst mehrere
- Vergleichspräzision oder reproducibility Variablen
Vergleichbarkeit Präzision unter Vergleichsbe-
dingungen: 1 Probe, 2. Prüfer, 2.
Gerät und/oder 2. Tag
Linearität linearity (selten: analytical Mathematischer Zusammen-
response) hang zwischen Messwert
(Signal) und Konzentration oder
Menge
Selektivität selectivity Fähigkeit, alle interes-sierende
Analyten neben-einander ohne
gegenseiti-ge Störung zu
bestimmen.
Wiederfindung oder Wie- recovery Ausbeute nach allen Schritten
derfindungsrate der Analyse
Nachweisgrenze (selten limit of detection (LOD) Kleinste nachweisbare Menge
Detektionsgrenze) (oder Konzentration)
Bestimmungsgrenze limit of quantification (LOQ) oder Kleinste quantifizierbare Menge
limit of determination (oder Konzentration)
Robustheit Störanfälligkeit des Ergebnisses
durch variierende Bedingungen
- Methodenrobustheit robustness Störanfälligkeit durch veränderte
Methodenparameter z.B. pH,
Temperatur
- Verfahrensstabilität Stabilität der Ergebnisse für die
Dauer der Analysenserie
- Anwendbarkeit (selten: ruggedness
Übertragbarkeit) Störanfälligkeit durch Wechsel
von Anwender, Labor, Gerät
Arbeitsbereich oder (dy- range Konzentrationsbereich für ak-
namischer) Messbereich zeptable/bestätigte Angaben
über Richtigkeit, Präzision, Se-
lektivität, Linearität und Robust-
heit
Empfindlichkeit sensitivity Fähigkeit, kleine Konzentra-
tionsdifferenzen noch zu be-
stimmen: Steigung der Kalibier-
gerade
Stabilität stability Stabilität von eingesetzten
Lösungen, Chemikalien usw.
Erfassungsgrenze oder limit of decision Geringster Gehalt, der bei
Entscheidungsgrenze tatsächlicher Anwesenheit
identifiziert werden kann; liegt
zwischen Nachweis- und
Bestimmungsgrenze
Qualitätssicherung in der Instrumentellen Analytik 58

Prüfpunkt Englische Bezeichnung Aussage über …


Genauigkeit accuracy systematische und zufällige
Fehler, Genauigkeit ist kein
eigenständiger Prüfpunkt
sondern sinngemäß der
Oberbegriff für Richtigkeit und
Präzision
Spezifität (wird oft synonym mit specitivity Fähigkeit eine Substanz (oder
Selektivität verwendet) Substanzklasse) ohne Störung
durch andere Komponenten zu
bestimmen.
Messunsicherheit uncertainty of the mea-surement Schwankungsbereich des
Messwertes
Methodenfähigkeit method capability Fähigkeit, Ergebnisse zu liefern,
die innerhalb der Spezifika-
tionsgrenzen liegen
Methodenstabilität/ method stability/ Stabilität des analytischen
Prozesstabilität process stability Prozesses/der Methode in
Abhängigkeit von der Zeit
Erweiterte Unsicherheit Bereich, in dem ein Wert mit
gegebener Wahrscheinlichkeit
zu finden sein wird. Dieser wird
durch „alle“, realistischen,
zufälligen und systematischen
Fehler vorgegeben.

13.7.1 Validierungsparameter: Präzision, Richtigkeit, Genauigkeit

Maß für die Übereinstimmung unabhängiger Analysenergebnisse.


Maß für die Streuung von Analysenergebnissen.

13.7.1.1 Präzision

Definition: Standardabweichung sx (siehe Abschnitt 3.4.5) bzw. relative


Standardabweichung V: (Abschnitt 3.4.6)
Σ(xi – xM)²
sx = (
N-1
)1/2
s
V= ·100 %
xM
xi: Einzelwert
xM: Mittelwert
sx: Standardabweichung
V: Variationskoeffizient
s²: Varianz
N: Anzahl der Messungen

Präzision = Streuparameter Statistische Größe: Standardabweichung


Information: Streuung einzelner Werte um den
Mittelwert, die Streuung ist das Ergebnis von
zufälligen Fehlern
Qualitätssicherung in der Instrumentellen Analytik 59

Richtigkeit = Lageparameter Statistische Größe: Mittelwert


Information: Abstand des Mittelwertes vom
„wahren“ Wert; dieser Abstand wird durch den
systematischen Fehler „bias“ bestimmt.

Genauigkeit = Streu- plus Information: Abstand eines einzelnen Wertes vom


Lageparameter „wahren“ Wert durch systematische und zufällige
Fehler

Graphische Darstellung der Begriffe Präzision, Richtigkeit und Genauigkeit.

Präzision: Streuung
einzelner Werte um
den Mittelwert

Einzelwert

richtiger
0 Wert 5 10 Mittelwert 15 20
Richtigkeit

Genauigkeit

Abbildung 21: Richtigkeit und Genauigkeit

Die Dokumentation erfolgt mit folgenden Angaben:

- Mittelwert mit Ergebnisunsicherheit


- und Vertrauensbereich
- Standardabweichung und Variationskoeffizient
- Angaben zu den Bedingungen wie Anzahl der Werte,
Doppelbestimmung

Welche Präzision soll noch akzeptiert werden?

Forderung: Der Vertrauensbereich (zweifache Messunsicherheit) für den


Gehaltswert sollte nicht größer sein als der halbe Toleranzbereich aus den
vorgegebenen Spezifikationsgrenzen.
2·s OSG - USG
2·u = t· <
√N 2
Qualitätssicherung in der Instrumentellen Analytik 60

mit
V·xM
s=
100
gilt:
(OSG – USG)√N·100
V<
4·t·xM
mit:

t(95%, f →∞,zweiseitig) = 1,96

(OSG – USG)√N·100
V<
4·1,96·xM
mit
OSG: Obere Spezifikationsgrenze
USG: Untere Spezifikationsgrenze

Beispiel:
Vorgegebene Spezifikationsgrenzen 98% (USG) bis 102% (OSG)
Mittelwert: 100
Anzahl der Werte: N = 6
(102 – 98)√6·100 4·2,45·100
V< = = 1,25.
4·1,96·100 4·1,96·100
Wie kann man die Präzision erhöhen?
1
s∝
√N
Wiederholungsmessungen durchführen.

13.7.1.2 Richtigkeit

Richtigkeit ist das Mass der Übereinstimmung zwischen dem ermittelten Wert und
einem als richtig angesehenen Wert.

Prüfung auf Richtigkeit: Vergleich mit einem (oder) mehreren Referenz- oder
Arbeitsstandards.

Referenzstandard: im Idealfall (zertifiziertes Referenzmaterial)


Vergleich einer Probe unbekannten Gehalts mit einem Standard bekannten Gehalts.
a) Sollwert-t-Test
b) Doerffel-Test

Prüfung auf Richtigkeit: Vergleich mit einer unabhängigen, möglichst validierten


Methode bekannter Richtigkeit (Referenzmethode).
- Bildung der Differenzen der erhaltenen Werte aus beiden Methoden
- Bildung des Mittelwertes dieser Differenzen
- Bildung der Standardabweichung der Differenzen
- Errechnen des t-Wertes (Differenzen-t-Test)
Qualitätssicherung in der Instrumentellen Analytik 61

Δxi = xi(Methode 1) - xi(Methode 2)

Δxi,M =
ΣΔxi
N

sΔ = [(N -1)-1·Σ(Δxi - Δxi,M)]


½

│ΔxiM│
t= ·√N

Δxi,M: Mittelwert der Differenzen
sΔ: Standardabweichung der Differenzen

Ist der erhaltene t-Wert größer als der tabellierte t-Wert (95%, f = N-1). So gilt mit der
vorgegebenen Wahrscheinlichkeit als erweisen, dass es einen Unterschied zwischen
beiden Methoden gibt.

Prüfung auf Richtigkeit: Wiederfindungsexperimente nach Zusatz bekannter


Menge an Analyt (Referenzsubstanz)

Andere Namen für dieses Verfahren: Aufstockverfahren, Additionsmethode, „Spiken“


einer Probe. Wiederfindungsexperimente sind dann empfehlenswert, wenn auf
Grund komplexer Matrix eine Auswirkung auf die Richtigkeit zu erwarten ist.

Prüfung auf Richtigkeit: Plausibilitätsbetrachtung


Ein Ergebnis ist wahrscheinlich richtig, wenn die Selektivität und die Linearität der
Methode bewiesen wurden und die Regressionsgerade durch den 0-Punkt verläuft.
Anzuwenden, falls der Aufwand für andere Methode nicht gerechtfertigt erscheint.

13.7.1.3 Robustheit

Robustheit ist die Fähigkeit eines Verfahrens, ein Ergebnis zu liefern, das durch
variierende Bedingungen nicht oder unwesentlich verfälscht wird. Die Prüfung der
Robustheit setzt sowohl die gesicherte Präzision als auch die nachgewiesene
Richtigkeit voraus.

13.7.1.4 Selektivität und Spezifität

Definitionen:
ƒ Selektivität ist die Fähigkeit einer Methode, verschiedene nebeneinander zu
bestimmende Komponenten ohne gegenseitige Störung zu erfassen und somit
eindeutig zu identifizieren.

ƒ Spezifität ist die Fähigkeit einer Methode, eine Substanz oder Substanzklasse
ohne Verfälschung durch andere in der Probe enthaltenden Komponenten zu
erfassen.

13.7.1.5 Linearität

Siehe Abschnitt 7.2 (Lineare Regression)


Qualitätssicherung in der Instrumentellen Analytik 62

13.7.1.6 Wiederfindung oder Wiederfindungsrate

Die Wiederfindung oder Wiederfindungsrate ist das Verhältnis des unter Wieder-
holbedingungen gemessenen Mittelwertes zum richtigen Wert des Analyten in der
Probe.
xM
W= ·100%
xR
W: Wiederfindungsrate in %
xM: gemessener Mittelwert
xR: richtiger Wert

13.7.1.7 Arbeitsbereich

Der Arbeitsbereich ist der Konzentrationsbereich des Analyten in der Probe


(untere/obere Grenze) mit einem akzeptablen Mass an Präzision, Richtigkeit und
Linearität.

13.7.1.8 Prozess- und Methodenfähigkeit

Prozessfähigkeit liegt vor, wenn die Streuung eines (Produktions)Prozesses im Ver-


gleich zu den Spezifikationswerten gering ist. Als Mass werden Fähigkeitsindices
verwendet, sie verknüpfen die Streuung von Prüfergebnissen mit den Forderungen.
Analog: Methodenfähigkeit. Methodenfähigkeit ist das Verhältnis der vorgesehenen
Spezifkationsgrenzen zu der tatsächlichen Streuung der Methode.

Prozessfähigkeitsindex
Toleranzbreite OSG - USG
cP = =
Prozessbreite 6s
cP: Prozessfähigkeitsindex
OSG: Obere Spezifikationsgrenze
USG: Untere Spezifikationsgrenze

Methodenfähigkeitsindex
analog cM

Der Fähigkeitsindex cP /cM sollte demnach mindestens 1 sein. cM ist von elementarer
Bedeutung, die Qualität von Produkten gemäß Spezifika-tionen zu beurteilen.

Korrigierter Methodenfähigkeitsindex
OSG - xb
cMK =
3s

xb - USG
cMK =
3s
mit:
xb: Bezugswert, z.B. Mittelwert
cMK: ist bei mittenzentrierten Prozessen gleich cM analog cPK
Qualitätssicherung in der Instrumentellen Analytik 63

cP = 1
cPK = 1

0 USG 10
x OSG 20
b

P rozess 1
Bogenschütze 1

cP = 1
cPK = 0,7

USG xb OSG

P rozess 2
Bogenschütze 2

cP = 0,7
cPK = 0,7
0
1,7
3,4
5,1
6,8
8,5
10,2
11,9
13,6
15,3
17
18,7

USG xb OSG

P rozess 3
Bogenschütze 3

cP = 0,7
cPK = 0,4
0
2,3
4,6
6,9

9,2
11,5
13,8
16,1
18,4
20,7

23
25,3

USG OSG xb

Prozess 4
Bogenschütze 4

Abbildung 22: Zusammenhang zwischen Streuung, Lage des Mittelwerts,


Spezifikationsgrenze und Methodenfähigkeit.
Qualitätssicherung in der Instrumentellen Analytik 64

14. Statistische Qualitätskontrolle


Qualitätsmerkmale von Analysenmethoden und von Produktionsprozessen lassen
sich nicht mit beliebiger Genauigkeit, sondern nur innerhalb von bestimmten
Spezifikationsgrenzen (Toleranzgruppen) reproduzieren. Diese hängen sowohl vom
zu kontrollierendem Verfahren als auch vom Prüfverfahren und vom Prüf- und
Regelaufwand ab. Die Qualitätskontrolle im Analysenlabor ist in besonderem
Ausmaß auf die Erkennung und Beseitigung systematischer Fehler gerichtet. Diese
treten als additive (konstante) oder multiplikative (proportionale) Fehler auf. Die
Methoden zur Prüfung auf Richtigkeit und Präzision können angewendet werden.

Wird die Qualitätskontrolle von Produkten und Prozessabläufen durch analytische


Messungen durchgeführt, dass nicht nur die Produktqualität bestimmten
Schwankungen unterliegt, die für den Herstellungsprozess charakteristisch sind,
sondern auch die Analysenergebnisse im Rahmen der zufälligen Analysenfehler
streuen.

14.1 Statistische Qualitätskontrolle

Im Rahmen von Qualitätsvereinbarungen wird die Produktqualität oft auf einen


Normwert (Targetwert) Q0 festgelegt. Ergibt eine analytische Kontrolle x < Q0 so gilt
die Qualitätsforderung als nicht erreicht und der Abnehmer kann das Produkt
zurückweisen. Infolge der Streuung der Analysenergebnisse und deren Bewertung
mit statistischen Tests kann ein gutes Produkt zurückweisen und ein schlechtes als
gut befinden. Zwischen dem Erzeuger und dem Abnehmer müssen statistische
Grenzen festgelegt werden, die sowohl falsch-negative Entscheidungen (Fehler 1.
Art; Erzeugerrisiko) und falsch-positive Entscheidungen (Fehler 2. Art;
Abnehmerrisiko) als auch den Prüfaufwand minimieren.

14.2 Attributsprüfung

Qualitative Prüfung von Produkten (Fehlerprüfung, Gut-Schlecht-Prüfung) anhand


von Stichproben. Größen:
- Stichprobenumfang n,
- Annahmezahl na,
- Losumfang N,
- Anteil schlechter Einheiten im Los n-

Nach Anzahl fehlerhafter Einheiten n-, die in der Stichprobe ermittelt werden, gilt für:
n- ≤ na Annahme des Prüfguts
n- > na Zurückweisung des Prüfguts

14.3 Sequenzanalyse

Bei einer Sequenzanalyse werden zur Prüfung des Unterschieds zwischen zwei
Grundgesamtheiten A und B bei festgelegten Wahrscheinlichkeiten für den Fehler 1.
und 2. Art, α und β, gerade nur soviel Einheiten untersucht werden, wie zur
Entscheidungsfindung erforderlich sind. Der Stichprobenumfang n wird selbst zur
Zufallsvariable. Sequentielle Untersuchungen sind sowohl für Attributsprüfungen als
auch für quantitative Messungen möglich. Vorteil: Kosteneinsparung. Auf der
Grundlage des Resultats jeder Einzeluntersuchung wird festgestellt, ob eine
Qualitätssicherung in der Instrumentellen Analytik 65

Entscheidung getroffen werden kann, oder ob die Untersuchungen fortgesetzt


werden müssen. Nach dem Endziel unterscheidet man zwischen
ƒ Geschlossenen Folgetestplänen (A > B oder A < B)und
ƒ Offenen Folgetestplänen (lässt auch A = B zu)
Die Auswertung kann rechnerisch oder graphisch durchgeführt werden.
Die Annahme bzw. Zurückweisungsgrenzkurven sind bei Attributprüfungen in der
Regel Geraden, bei Variablenprüfungen auch nichtlineare Funktionen.
Bei Variablenprüfungen: Auf der Ordinatenachse sind die Analysenwerte x
aufzutragen. Eine Entscheidung erfolgt mit dem Überschreiten der Annahme- oder
Zurückweisungskurven.

a) bei Attributsprüfung
Die Entscheidungen nach jeder Einzelprobe sind:
n-,n ≤ na,n ≤ ga(n) Annahme des Prüfguts.
n-,n > na,n ≤ gr(n) Zurückweisung des Prüfguts.
ga(n) > n-,n < gr(n) Prüfung fortsetzen: weitere Einzelprobe untersuchen.

Mit
n-,n: Anzahl fehlerhafter Einheiten bei n geprüften,
na,n, bzw. nr,n: Annahme- bzw. Rückweisungszahl für den Stichprobenumfang n
ga(n) bzw. gr(n) sind die quantitativen Rückweisungsfunktionen.

b) bei Variablenprüfung

xn ≤ ga(n,s,α) Annahme des Prüfguts.


xn ≥ gr(n,s,β) Zurückweisung des Prüfguts.
ga(n,s,α)< xn < gr(n,s,β) Prüfung fortsetzen: weitere Einzelprobe untersuchen.

xn: aktueller Analysenwert nach n Messungen


ga(n,s,α) und gr(n,s,β) sind die Annahme- bzw. Die Rückweisungsfunktionen
s: Standardabweichung des Analysenverfahrens und
α bzw. β das Erzeuger bzw. das Abnehmerrisiko.

14.4 Qualitätsregelkarten

Ursprünglich für die Produktkontrolle (Shewhart, 1931). Überwachung von Prozessen


jeglicher Art. Qualitätsregelkarten (QRK) enthalten als Qualitätszielgrößen (Q) Soll-
oder Referenzwerte bzw. Optimalgrößen sowie deren Schranken. Man unterscheidet:
ƒ Einzelwertkarten
ƒ Mittelwertkarten: xM-Karten, Mediankarten, Obere Eingriffsgrenze
(Kontrollgrenze)
EO
Blindwertkarten
WO Obere Warngrenze
ƒ Streuungskarten:
Standardabweichungskarten 95% 99%
(s bzw. srel.- Karten), Spannweitenkarten Sollwert
ƒ Wiederfindungs-Karten
ƒ Cusum-Karten
Untere Warngrenze
ƒ Kombinationskarten (z.B. xM-s-Karten WU
Untere Eingriffsgrenze
bzw. x-R-Karten) EU

ƒ Korrelationskarten (xA-xB-Karten) Stichproben- oder Serien-Nr., Zeitpunkt

Abbildung 23: Allgemeines Schema einer Kontrollkarte.


Qualitätssicherung in der Instrumentellen Analytik 66

Verlauf Beobachtung Ursachen (Beispiele)

Plötzliche Änderung des neue Reagenzien,


Mittelwerts der Messwerte technischer Eingriff am
Analysegerät

Trend der Messwerte Geräteänderungen, z.B.


Einfluss der Raumtemperatur,
Alterung und Verschleppung
der der Reagenzien

Plötzliche Änderung der Wechsel von Mitarbeitern,


Mittelwertstreuung der Verfahren oder Geräten
Messwerte

Zyklische Änderungen der Tag-Nacht-Schwankungen


der Messwerte der Temperatur

Abbildung 24: Auffällige Verläufe bei Mittelwertkarten

CUSUM-Karten liefern einen empfindlichen Eindruck von Prozessveränderungen.


Es wird die kumulative Summe der Abweichungen vom Zielwert (Referenzwert) Z
gebildet; sie ist für die n-te Stichprobe bzw. Serie:

(Σ x )- n·Z
n
CUSUMn = Sn = i
i=1
Qualitätssicherung in der Instrumentellen Analytik 67

ASK

0 d

V-Mask e

Stichproben- odr Serien-Nr.., Zeitpunkt

Abbildung 25: CUSUM-Regelkarte mit V-Maske

Die CUSUM-Werte enthalten Informationen sowohl überaktuelle als auch über die
vorangegangenen Werte. Veränderungen, die zu Ausser-Kontroll-Situationen (AKS)
führen, sind so leichter zu erkennen als die Orginalkarten. Voraussetzung für eine
effektive Wirkung ist die richtige Wahl der Parameter (Referenzwert, Skalierung, V-
Masken-Winkel und –Abstand d). In Softwarepaketen enthalten.

14.5 Labor-Informationsmanagment-Systeme (LIMS)

Datenbanksystem, das speziell auf die Anforderungen eines Labors zugeschnitten ist
und den Arbeitsablauf und Informationsfluss im Labor unterstützt.

Anmeldung der Probe

Erzeugung der Arbeitsblätter

Status, Termine Analysen der Proben Instrumentierung

Ergebnisvalidierung

Datenexport Archiv Reports, Statistik

Abbildung 26: Typischer Ablauf des Informationsflusses im analytischen Labor.

Nutzen des LIMS:


ƒ Vollständigkeit der Datenerfassung,
ƒ Vermeidung von Fehlern,
ƒ Effizienzsteigerung,
ƒ Besserer Überblick

Das könnte Ihnen auch gefallen