Beruflich Dokumente
Kultur Dokumente
Qualitätssicherung in Der Instrumentellen Analytik
Qualitätssicherung in Der Instrumentellen Analytik
1. Einführung
Statistik wird als Werkzeug in der analytischen Chemie vielseitig angewendet. Von
analytisch arbeitenden Mitarbeitern in Laboratorien mit Hilfe der angewandten
Statistik verschiedene Fragestellungen beantwortet, z.B.:
Ist das Analysenverfahren Nr. 1 mit dem Verfahren Nr. 2, das schneller und
billiger ist, in Richtigkeit und Präzision gleichwertig?
Wie viele Stichproben sollten genommen werden, dass eine repräsentative
Untersuchung sinnvoll ist?
Wie hoch ist die Nachweisgrenze einer toxischen Substanz mit einer
bestimmten Analytischen Methode in einer komplizierten Matrix?
Die Statistik ist die Kunst, gewonnene Daten zu analysieren, darzustellen und zu
interpretieren, damit der Anwender zu neuem Wissen gelangt. Die Gesamtheit der
Statistik im analytischen Laboratorium lässt sich im Allgemeinen auf wenige
Fragestellungen reduzieren:
Welcher Wert ist für eine Messreihe repräsentativ?
Wie groß streuen die Messwerte um einen repräsentativen Wert?
Wie gut kann eine gewonnene Aussage verallgemeinert werden?
Wie hoch ist der Zusammenhang zwischen verschiedenen Eigenschaften?
Die Statistik ist das Instrument der Qualitätssicherung, indem sie standardisierte und
leistungsfähige Tests zur Beurteilung der Qualität zur Verfügung stellt. Es darf jedoch
niemals vergessen werden, dass Qualität ein ganzheitlicher Begriff ist, der nicht
durch die Statistik gemacht wird. In einem 4-Phasen-Modell in der Qualitätssicherung
wird in allen vier Phasen auf statistische Methoden zurückgegriffen um Parameter
und Größen zu berechen, die das Vorhandensein von Qualität belegen. Diese vier
Phasen der Qualitätssicherung sind:
Die Methodenentwicklung
Der Einbau der Methode in die Routine
ein interne Qualitätsüberwachung in der Routineanalytik
die externe Qualitätssicherung (z.B. Ringversuche).
2. Daten
In der Analytik werden Ergebnisse erhalten, die statistisch interpretiert werden
müssen. Das Analysenergebnis wird durch eine vorher durchgeführte Analyse
erhalten. Es steht das Analysenmaterial („Objekt“) zur Verfügung. Vorher muss
festgelegt werden, welcher Analyt („statistische Merkmal“) überhaupt qualitativ oder
quantitativ bestimmt („quantifiziert“) werden soll. Die Auswahl der geeigneten
statistischen Methode ist von der Datenart abhängig.
Qualitative Daten werden durch Zählen und Vergleichen erhalten. Die qualitative
Anwesenheit eines Analyten in einer Probe soll nachgewiesen werden. Als Ergebnis
gibt es entweder die positive Aussage „vorhanden“ oder die negative Aussage „nicht
vorhanden“. Qualitative Daten werden unterschieden in „Nominaldaten“ und „Bewer-
tungsdaten“. Nominaldaten können keinem Bewertungsmuster unterworfen werden.
Qualitätssicherung in der Instrumentellen Analytik 2
2.3.1 Grundgesamtheit
2.3.2 Stichprobe
2.3.3 Kenngröße
Unter der Kenngröße versteht man die Eigenschaft der gezogenen Stichprobe, z.B.
den Mittelwert einer Datenreihe. Mit Hilfe der Kenngrößen, die aus der Stichprobe
gewonnen werden, schätzt man die interessierenden Größen der Grundgesamtheit
ab. Diesen Vorgang nennt man statistische Schätzung.
Der „wahre Wert“ µ ist im Allgemeinen unbekannt, nicht direkt und nicht absolut
messbar. Ziel jeder Analysenreihe ist es, diesem wahren Wert so nahe wie möglich
zu kommen. Der Mittelwert xM einer Reihe ist ein Näherungswert des wahren Werts
µ und kann somit ein Maß für die Richtigkeit sein.
3. Häufigkeitsverteilungen
Bei häufiger Wiederholung einer Analyse konvergiert die Häufigkeit h(X) bestimmter
Ergebnisse (Ereignisse) X gegen die Wahrscheinlichkeit P(X) für das Auftreten
dieses Ereignisses. Die mathematische Definition der Wahrscheinlichkeit ist gegeben
durch das Verhältnis der Anzahl der aktuellen Ausgänge n eines Versuches zur
Anzahl aller möglichen Ausgänge N.
n
P(X) = N
p(x)
untersucht, d.h. die
Normalverteilung gilt nur
näherungsweise und
anstelle der Parameter µ
und σ werden die
Schätzwerte als
arithmetischer Mittelwert xM
und s als Näherungswerte
µ-σ µ µ+σ
für die x
Standardabweichung
angegeben. Abbildung 2: Gaussverteilung p(x) = N(µ,σ²) von
Messwerten.
Die Wahl der der Klassenbreite ist für das Glätten von Lücken und Unregel-
mäßigkeiten von entscheidender Bedeutung.
Achtung: Wird die Klassenbreite zu groß gewählt, können Informationen, die die
Häufigkeitsverteilungen enthalten, verloren gehen.
Es gibt verschiedenen Methoden zur Wahl der optimalen Klassenbreite. Sie ist in
allen Fällen abhängig vom Stichprobenumfang:
DIN 55302 gibt Empfehlungen zur Breite der Klasse, die in folgender Tabelle
zusammengefasst sind.
3.2.2 Methode zur Wahl der Klassenbreite nach Werner J., Medizinische
Statistik.
Tabelle 2: Anzahl der Klassen und Stichprobenumfang nach Werner J., Medizinische
Statistik, 1984.
In dem hier genannten Beispiel mit 55 Stichproben ist eine Klassenanzahl von 6 bis 8
akzeptabel.
k = 551/2 ≈ 7,4
3.2.3 Allgemeine Regeln für die Erstellung von Klassen nach Werner J.,
Medizinische Statistik, 1984:
Bj = nj · 100%
N
nj: absolute Häufigkeit des Messwertes aus einer Stichprobe aus der j–ten
Klasse
N: Gesamtzahl der Stichprobe
Bj: Relative Häufigkeit des Messwertes aus einer Stichprobe aus der j–ten
Klasse
3.2.5 Häufigkeitssummen
j
Häufigkeitssumme = Σ Bj
j=1
Qualitätssicherung in der Instrumentellen Analytik 6
3.3.1 Mittelwert
Die Bildung eines Mittelwerts ist bei einer vorliegenden Häufigkeitsverteilung dann
notwendig, wenn man alle Daten in einer Datenreihe zu einer „orientierungs-„ oder
„Repräsentanzgröße“ zusammenfasst. Je nach Zweck dieser Zusammenfassung und
nach Typ der Häufigkeitsverteilungen gibt es verschieden Arten von
Mittelwertbildungen.
xM =
Σxi
N
xi: Einzelwerte der Ergebnisse
N: Anzahl aller Messwerte N
Die Bildung des arithmetischen Mittelwerts ist nur dann sinnvoll, wenn alle Werte
gleichhäufig vorkommen. Die Bildung des arithmetischen Mittelwerts xM ist sinnvoll,
bei der Zusammenfassung von Messwerten, die dieselben relative
Bestimmungsunsicherheiten aufweisen. Bildung des arithmetischen Mittelwerts xM ist
nicht sinnvoll, bei Häufigkeitsverteilungen, deren relative Häufigkeiten
unterschiedliche Werte aufweisen
xM,w =
Σwi·xi
Σwi
wi: Gewicht des Einzelwerts xi (Wichtungsfaktor)
xi: Einzelwert
Das Gewicht kann auf unterschiedliche Weise berechnet werden.
Median ist der Wert, der die nach ihrer Größe geordnete Wertereihe in zwei gleich
große Teile zerlegt. Der Median wird manchmal auch „Halbierungspunkt“ genannt.
Der Modalwert, auch Gipfelwert genannt, ist der häufigste Wert in einer Datenreihe.
In mehrgipflichen Verteilungen gibt es mehrere „lokale“ Modalwerte. Streng
genommen ist der Modalwert der Wert, der dem Maximum der idealen
Verteilungskurve mit der besten Anpassung an die Verteilung entspricht. Bei in
Klassen eingeteilten Daten ist er als Klassenmitte der am stärksten besetzten Klasse
definiert. Treten zwei Klassen mit besonderer Häufigkeit aus, so müssen zwei
Modalwerte ermittelt werden. Eine solche Verteilung heißt bimodal.
Median und Modalwert werden von Ausreißern wenig oder gar nicht beeinflusst. Der
Mittelwert wird von Aussreißern beeinflusst. Sie gelten als Maß für die Richtigkeit.
Es werden Streuungskenngrößen benötigt, die als Maß für die Präzision dienen.
3.4.1 Spannweite R
Die Spannweite R (Range, Variationsbreite) ist die Differenz zwischen dem größten
und dem kleinsten Wert in der Datenreihe. Streng genommen sollten nicht die
Differenz der beiden Extremwerte angegeben werden, sondern die beiden
Extremwerte selber. Bei kleiner Anzahl von Daten (2 oder 3) in einer Datenreihe ist
die Ermittlung der Spannweite sinnvoll. Besteht eine Datenreihe aus sehr vielen
Elementen dann wird dieser Parameter wegen der Nichtbeachtung der „inneren“
Elemente zunehmend fragwürdig, denn der Einfluß von Ausreißerwerten wird
zunehmend dominierend.
Qualitätssicherung in der Instrumentellen Analytik 8
3.4.2 Quartilabstand
var(x) =
Σ(xi – xM)²
f
Es werden die Abweichungen jedes Wertes xi vom Mittelwert xM quadriert und
summiert. Die Summe der Abweichungsquadrate wird durch den Freiheitsgrad f
dividiert.
f = N -1
N: Anzahl der Daten. Der Freiheitsgrad f einer Datenreihe ist gleich der Anzahl der
unabhängigen Messwerte in einer Datenreihe
Die Varianz var misst die Streuung der Messwerte um ihren Mittelwert.
Sx = [var(x)]1/2
Σ(xi – xM)²
Sx = (
N-1
)1/2
Beim Vergleich von Datenreihen verschiedener Größenordung ist die Angabe der
Standardabweichung als Maß für die Präzision allein noch nicht aus.
Die absolute und der relative Standardabweichungen charakterisieren das mit einem
bestimmten Analysenverfahren erhaltene Messergebnis. Für die Charakterisierung
von Messergebnissen, z.B. Streubereichen von Mittelwerten, ist die Standardab-
weichung nicht geeignet, da der Bereich (x ± sx) nur 68,3 % der Messwerte
Qualitätssicherung in der Instrumentellen Analytik 9
Die Standardabweichung des Mittelwerts σM aus der Gesamtheit berechnet sich aus
N Stichproben
σ
σM =
N1/2
Für die reale Abschätzung der Standardabweichung des Mittelwerts aus N
Stichproben gelten:
s
sM = N1/2
σ: Standardabweichung der Grundgesamtheit
s: Standardabweichung aus der Stichprobe
σM: Standardabweichung des Mittelwerts
sM: Standardabweichung des Mittelwerts aus der Stichprobe
N: Anzahl der Stichproben
Die Vereinfachung, dass für σ der Wert s eingesetzt werden kann, gilt jedoch nur
unter zwei Bedingungen:
Bei einer normalverteilten Gesamtheit muss N >20 sein.
Bei einer schiefen Gesamtheit muss N >100 sein
P = 1- α Irrtumsrisiko α k Interpretation
0,683 0,317 ± 1,00·sM 68,3%- Vertrauensbereich: xM ± 1 ·sM
0,950 0,050 ± 1,96·sM 95,0%- Vertrauensbereich: xM ± 1,96·sM
0,955 0,045 ± 2,00·sM 95,5%- Vertrauensbereich: xM ± 2·sM
0,997 0,003 ± 3,00·sM 99,7%- Vertrauensbereich: xM ± 3·sM
Die aufgestellten Gleichungen gelten erst ab ca. 20 Messwerten. Bei weniger als 20
Messwerten sollte die Studentsche t-Verteilung (Abschnitt 5.1) Anwendung finden.
3.4.8 Schiefe S
Um die Form einer Verteilung auszudrücken, verwendet man als Kenngröße die
„Schiefe“. Bei kleineren Datenreihen wird diese Größe wie folgt berechnet:
3·( xM – Median)
S= sX
S: Schiefenkenngröße
Qualitätssicherung in der Instrumentellen Analytik 10
4. Theoretische Häufigkeitsverteilungen
4.1. Normalverteilung
Liegt der Quotient aus der Spannweite R und der Standardabweichung sX innerhalb
eines tabellierten Grenzintervalls dann ist die Datenreihe normalverteilt.
R
uPW < < oPW
sX
uPW: unterer Prüfwert
oPW: oberer Prüfwert
Signifikanzschranken (P = 90%) nach David et al. zur Prüfung der Normalverteilung
für N = 55 (Beispiel nach 3.1):
uPW(N = 55, p=90%): 4,02
oPW(N = 55, p=90%): 5,22
Beispiel: Laboratorium #1
95 95 96 96 97 97 97 98 98 98 98 98
99 99 99 99 99 99 99 99 99 100 100 100
100 100 100 100 100 100 100 100 100 100 100 100
101 101 101 101 101 101 101 101 102 102 102 102
102 103 103 103 104 104 105
Der Parameter x bei der Normalverteilung wird durch log x ersetzt. Damit ist:
1 (log x - µ)²
LN(x) = ½ exp [- ]
σ·(2π) 2σ²
Der geometrische Mittelwert xg einer logarithmischen Normalverteilung:
xg = (Πxi)1/N = (x1· x2· …· xN)1/N
5. Reale Verteilungen
5.1 Die t-Verteilung (Student-Verteilung)
Die Normalverteilung gilt für eine relativ große Anzahl von Messwerten (je nach
Schiefe ab N > 20 bis N > 100). Bei einer kleineren Anzahl von Messwerten kann der
Ordinatenwert der Messreihe zum Teil erheblich von den theoretischen Werten ab-
weichen. Die t-Verteilung besitzt je nach Freiheitsgrad f unterschiedliche Formen. Sie
beschreibt die relative Häufigkeit, mit der Werte einer Variablen von einem
bestimmten Umfang aus einer normalverteilten Gesamtheit angenommen werden
können. Die in dieser Funktion benutzte Variable nennt man t-Variable.
t = xM --1/2
µ
s·N
t: t-Variable der t-Funktion
xM: Stichprobenmittelwert
µ: Mittelwert der Gesamtheit (Erwartungswert)
s: Standardabweichung.
Die t-Verteilung ist wie die Normalverteilung eine symmetrische, glockenförmige Ver-
teilungsfunktion. Das Maximum von Normalverteilung und t-Verteilung liegt auf dem
gleichen Wert. Die Breite und Höhe bei normierten Verteilungen sind jedoch anders,
weil nur die Form der t-Verteilung abhängig vom Freiheitsgrad ist. Bei einem
Freiheitsgrad f→∞ geht die t-Verteilung in die Normalverteilung über. Der Wert der t-
Variablen ist noch von einem Parameter P abhängig. Dieser Wert wird als das
„Vertrauensniveau“ oder die „statistische Sicherheit“ bezeichnet. Aufgrund des vom
Anwender zu wählenden Vertrauensniveaus P kann man mit den so genannten
„Konfidenzbändern“ den Vertrauensbereich VB darstellen.
VB = ± t·s½x
N
Interpretation: Wertebereiche, die als xM ± VB angegeben werden, enthalten mit
einer gewissen Wahrscheinlichkeit (= statistischen Sicherheit P) den wahren Wert µ
(Abbildung 3).
Angenommen es liegt eine zweiseitige Fragestellung (siehe Abschnitt 6.5) vor und
P = 95%, N = 31, dann ist:
Stichproben enthalten
den "wahren Wert"
Stichprobe enthält
nicht den "wahren Wert"
Werden aus einer Grundgesamtheit eines Messsystems zwei Stichproben mit der
Stichprobenanzahl N1 und N2 entnommen, können mit Hilfe der üblichen Gleichungen
die Mittelwerte xM,1 und xM,2 sowie die Varianzen s1² und s2². Aus den beiden
Varianzen wird der F-Wert (nach Ronald Fisher) nach Gleichung
s1²
F=
s2²
Dabei werden die Indices so angeordnet, dass F ≥ 1,00 ist. Der Quotient folgt der F-
Verteilung.
Anwendung: Ein berechneter F-Wert aus den Varianzen zweier Messreihen (s1² und
s2²) einer Grundgesamtheit, der größer ist als der entsprechende theoretische
Tabellen-F-Wert, deutet auf signifikant unterschiedliche Varianzen in den Messreihen
hin, d.h. die Messreihen stammen wahrscheinlich nicht aus einer Grundgesamtheit.
5.3 Poissonverteilung
7
Die Poissonverteilung ist in der
Analytik für die Auswertung von 6
pk
charakterisiert. Eine Größe heißt 3
Die Poissonverteilung kann als gute Näherung für die Binomialverteilung benutzt
werden, wenn p groß und n klein ist. λ = np. n ist der Umfang der Stichproben.
Beispiel: xM = 1000
→ s = (1000)½ ≈ 31,62;
→ Variationskoeffizient V nach 3.4.6: V ≈ · 100% ≈ 3,2%
xM = 10000
→ s = (10000)½ = 100 100
→ Variationskoeffizient V nach 3.4.6: V = · 100% = 1,0%
10000
5.4 Zusammenhang zweier Zufallsgrößen
6.1 Hypothesen
Der Anwender statistischer Tests wird sich für eine der beiden Behauptungen
(Hypothesen) vor der Analyse entscheiden. Diese natürlich nicht bewiesene
Behauptung nennt man Nullhypothese (H0). Nullhypothesen können im Allgemeinen
nicht bewiesen werden. Die zweite Behauptung, die im Gegensatz dazu steht, nennt
man Alternativhypothese (HA). Weiter wird festgelegt, mit welchem Niveau P die
Nullhypothese H0 oder die Alternativhypothese HA angenommen werden soll. Im
analytischen Labor wir dieser Wert P oft auf P =95% oder P=99% festgelegt, er ist
jedoch grundsätzlich frei wählbar. Wird P in % von 100% subtrahiert, erhält man die
so genannte „Irrtumswahrscheinlichkeit“ α.
α = 100% - P(%)
Der weitere Ablauf ist wie folgt:
Stichprobenauswahl N
Analytische Behandlung der Stichproben
Berechnung von statistisch relevanten Daten
Berechnung eines testspezifischen Prüfwerts (PW) oder Prüfgröße (PG)
Vergleich des Prüfwerts mit Daten aus einer testspezifischen Tabelle
Mit Hilfe eines statistischen Tests wird grundsätzlich untersucht, ob die
Nullhypothese H0 verworfen werden muss, weil die Alternativhypothese HA besser mit
dem Testergebnis übereinstimmt. Die Signifikanzgrenze muss vom Anwender nach
logischen Gesichtspunkten vor der statistischen Analyse festgelegt werden.
Gewöhnlich unterscheidet man im Routinelabor pragmatisch:
Nullhypothese wird akzeptiert, wenn die Alternativhypothese nicht nachweisbar ist,
Alternativhypothese wird akzeptiert, wenn sie signifikant oder hochsignifikant zutrifft
Im Einzelfall ist zu prüfen, ob diese pragmatische Unterscheidung auf das
vorliegende Prüfsystem zutrifft.
Wird eine Nullhypothese aufgrund eines negativen Tests abgelehnt, obwohl sie in
Wirklichkeit wahr ist, nennt man diesen Fehler „Fehler erster Art“.
Beispiel: Nach einer quantitativen Analyse kommt man zu dem Schluß, der Analyt ist
in der Probe, es ist jedoch nur eine zufällige Schwankung des Blindwerts nach oben,
so unterläuft einem ein Fehler erster Art.
Wird eine Nullhypothese beibehalten, obwohl sei tatsächlich nicht zutrifft, so nennt
man diesen Fehler „Fehler zweiter Art“.
Qualitätssicherung in der Instrumentellen Analytik 15
Nullhypothese Nullhypothese
Richtig ist wird beibehalten wird abgeleht
Nullhypothese ist wahr + Fehler 1. Art
Nullhypothese ist falsch Fehler 2. Art +
6.3 Ausreißertests
6.3.1 Dixon-Test
Der Test nach Dixon wird von der DIN-Norm 53804 empfohlen, wenn die
Stichprobenanzahl N weniger als 30 beträgt (N < 30).
Nullhypothese H0: Die Datenreihe enthält einen Ausreißer.
Die zu prüfenden Messwertreihen nach ihrer Größe geordnet.
Der kleinste Wert ist x1, der größte Wert ist xN,
Je nach N der Stichproben gibt es verschiedene Formeln (siehe Tabelle 10).
Es werden zwei Prüfwerte (PW) berechnet:
PW „nach oben“ überprüft den größten Wert
PW „nach unten“ überprüft den kleinsten Wert
Beide Prüfwerte sind mit einer von Dixon vorgegebenen tabellarischen
Signifikanzschranke δ(P,N) für ein gewähltes P, z.B. 95%, zu vergleichen.
PW > δ(P,N): signifikanter Ausreißer. Nullhypothese H0 wird angenommen.
Dieser Wert muss aus der Datenreihe eliminiert werden.
PW < δ(P,N): kein Ausreißer. Alternativhypothese HA wird angenommen.
Die Nullhypothese H0 lautet: der kleinste und der größte Wert sind keine Ausreißer,
die Alternativhypothese HA lautet: der kleinste und der größte Wert sind Ausreißer.
9021 - 7651
PW „nach oben“: mit ≈ 0,741
9021 - 7171
Qualitätssicherung in der Instrumentellen Analytik 17
5. Die Signifikanzschranke für N = 7 beträgt 0,507. Der Prüfwert „nach unten“ ist
kleiner, der Prüfwert „nach oben“ ist größer als dieser Wert.
6. Diagnose:
Für den kleinsten Wert wird die Alternativhypothese abgelehnt
⇒ x1 ist kein Ausreißer
Für den größten Wert wird die Alternativhypothese angenommen
⇒ xN ist ein Ausreißer und muss aus der Messreihe gestrichen werden
6.3.2 Grubbs-Test
Der Test nach Grubbs wird von der DIN-Norm 53804 empfohlen, wenn die
Stichprobenanzahl N mehr als 30 beträgt (N ≥ 30).
Die beiden Prüfgrößen werden nun mit einem Wert aus der rM-Tabelle verglichen.
Ist die Prüfgröße PG größer als der Tabellenwert (N, P=95%) aus der rM-Tabelle,
so handelt es sich nach Grubbs um einem signifikanten Ausreißer.
Bei positivem Befund wird der betreffende Wert aus der Messreihe eliminiert und
der Mittelwert und die Standardabweichung mit neuer Probenanzahl N berechnet.
N 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
T(N, P=99%) 1,155 1,492 1,749 1,944 2,097 2,221 2,323 2,410 2,485 2,550 2,607 2,659 2,705 2,747 2,785 2,821 2,854 2,884 2,912 2,939 2,963
N 24 25 26 27 28 29 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100
T(N, P=99%) 2,987 3,009 3,029 3,049 3,068 3,085 3,103 3,178 3,240 3,292 3,336 3,376 3,411 3,442 3,471 3,496 3,521 3,543 3,563 3,582 3,600
Qualitätssicherung in der Instrumentellen Analytik 18
Bei diesem Test muss Tabelle 7: Vergleichswerte für den Nalimov- Ausreißertest.
gelten N > 2.
Aufstellung der Nullhypo- Freiheits- P=95% P=99% Freiheits- P=95% P=99%
grad f grad f
these H0 1 1,409 1,414 32 1,946 2,502
Sortierung der Datenreihe. 2 1,644 1,710 34 1,947 2,507
Die Kontrolle erfolgt auf 3 1,758 1,924 36 1,948 2,511
den kleinsten und den 4 1,816 2,057 38 1,948 2,514
5 1,849 2,146 40 1,949 2,517
größten Wert 6 1,870 2,209 42 1,95 2,52
Eine Prüfgröße nach 7 1,885 2,257 44 1,95 2,523
Nalimov wird berechnet 8 1,895 2,293 46 1,951 2,525
Ist der Prüfwert kleiner als 9 1,904 2,322 48 1,951 2,527
der Tabellenwert, liegt 10 1,910 2,346 50 1,951 2,529
11 1,915 2,366 55 1,952 2,534
nach Nalimov kein 12 1,919 2,383 60 1,953 2,537
Ausreißer vor. 13 1,923 2,397 70 1,954 2,543
Die Prüfgröße nach Nalimov 14 1,926 2,409 80 1,955 2,548
berechnet sich nach: 15 1,928 2,420 90 1,956 2,551
16 1,930 2,429 100 1,956 2,554
17 1,932 2,438 150 1,958 2,562
|x* - xM| -½
PG =
sx
(·
N
N −1
) 18
19
1,934
1,935
2,445
2,452
200
250
1,958
1,959
2,566
2,568
20 1,937 2,458 300 1,959 2,57
x*: Ausreißerverdächtiger 22 1,939 2,469 400 1,959 2,572
Wert 24 1,941 2,478 500 1,96 2,573
xM: Mittelwert 26 1,943 2,485 1000 1,96 2,576
28 1,944 2,492 2000 1,96 2,577
sx: Standardabweichung 30 1,945 2,497 ∞ 1,96 2,576
N: Anzahl der Stichproben
6.4 Varianzen-F-Test
unterschiedliche Streuung
(theoretische) Varianz σ² der
Grundgesamtheit vorgegeben,
folgt der Quotient aus den Abbildung 6: Unterschiedliche Varianzen.
Quadraten der beiden abgeschätzten
Standardabweichungen einer F-Verteilung f1= N1 – 1 und f2= N2 –1 Freiheitsgraden.
F= s1² , s1 > s2
s2²
Qualitätssicherung in der Instrumentellen Analytik 19
Die größere Varianz erhält den Index 1, die kleinere Varianz den Index 2. Der
Unterschied zwischen den beiden Standardabweichungen gilt dann als nicht
nachweisbar, wenn der berechnete F-Wert den Zahlenwert aus der F-Tabelle
(Tabelle 8) mit P und f1 und f2 nicht überschreitet. Es werden folgende Niveaus
vorgeschlagen:
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,23 3,08 3,00 2,92 2,84 2,75 2,66 2,57
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,15 3,00 2,92 2,84 2,76 2,67 2,58 2,49
20 8,10 5,85 4,94 4,43 4,1 3,87 3,7 3,56 3,46 3,37 3,23 3,09 2,94 2,86 2,78 2,69 2,61 2,52 2,42
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,03 2,88 2,80 2,72 2,64 2,55 2,46 2,36
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 2,98 2,83 2,75 2,67 2,58 2,50 2,40 2,31
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,93 2,78 2,70 2,62 2,54 2,45 2,35 2,26
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,89 2,74 2,66 2,58 2,49 2,40 2,31 2,21
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,85 2,70 2,62 2,54 2,45 2,36 2,27 2,17
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,81 2,66 2,58 2,50 2,42 2,33 2,23 2,13
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,78 2,63 2,55 2,47 2,38 2,29 2,20 2,10
28 7,64 5,45 4,47 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,90 2,75 2,60 2,52 2,44 2,35 2,26 2,17 2,06
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,87 2,73 2,57 2,49 2,41 2,33 2,23 2,14 2,03
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,55 2,47 2,39 2,30 2,21 2,11 2,01
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,52 2,37 2,29 2,20 2,11 2,02 1,92 1,80
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,20 2,12 2,03 1,94 1,84 1,73 1,60
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,03 1,95 1,86 1,76 1,66 1,53 1,38
∞ 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,04 1,88 1,79 1,70 1,59 1,47 1,32 1,00
6.5 Mittelwert-t-Test
Es bedeutet: 2. Datenreihe
1. Datenreihe
PG Prüfgröße
xM1 Mittelwert der ersten Stichprobenreihe
xM2 Mittelwert der ersten Stichprobenreihe
sD mittlere gewichtete Standardabweichung
beider Datenreihen
N1 Anzahl der Messwerte der ersten Reihe
N2 Anzahl der Messwerte der zweiten
Reihe
0 5
gleiche10
Streuung 15 20
s1²·(N1 – 1) + s2²·(N2 – 1) ½
sD = [ ]
N1 + N2 - 2
Die Prüfgröße wird mit dem Wert aus der zweiseitigen t-Tabelle mit f und P
verglichen. Der Freiheitsgrad f berechnet sich mit: f = N1 + N2 - 2
Dabei werden folgende Grenzen vorgeschlagen:
Beispiel:
a) „Ist der Mittelwert der Datenreihe #1 signifikant größer als die der Datenreihe #2 ?
b) „Ist der Mittelwert der Datenreihe #1 signifikant kleiner als die der Datenreihe # 2 ?
N1 = 10 36 31 32 22 31 26 18 26 28 27
N2 = 7 35 29 27 28 24 35 22 - - -
Nullhypothese H0:
Zwischen den Mittelwerten dieser Datenreihe besteht kein Unterschied. Als
Vertrauensniveau soll P = 99% gewählt werden.
xM1 ≈ 27,7
xM2 ≈ 28,6
s1²·(N1 – 1) + s2²·(N2 – 1) ½
sD = [ ]
N1 + N2 - 2
Einsetzen:
26,90·(10 – 1) + 24,95·(7 – 1)
sD = [
10 + 7 - 2
]½ ≈ 5,11
f = 10 + 7 – 2 = 15
Berechnung der Prüfgröße:
|27,7 – 28,6| 10 ·7 ½
PG = ·( ) ≈ 0,346
5,11 10 + 7
t-Tabellenwert:
t(P = 99%, f=15) = 2,947
xG = N1·xM1 + N2·xM2
N1 + N2
Qualitätssicherung in der Instrumentellen Analytik 22
Beispiel:
Der gemeinsame Mittelwert berechnet sich zu:
2,947 ·5,11
≈ ± ≈ ± 3,65
17½
Als Ergebnis ist nach der Datenzusammenlegung: 28,1 ± 3,65 anzugeben.
Ohne Datenzusammenlegung:
Diesen Test kann man anwenden, wenn man entscheiden muss, ob zwischen dem
Mittelwert von Analysenergebnissen und einem vorgegebenen Sollwert ein
signifikanter oder hochsignifikanter Unterschied besteht. Die Prüfgröße PG berechnet
sich mit
|xM – W| ½
PG = ·N
s
Dabei bedeutet:
PG: Prüfgröße
N: Anzahl der Parallelbestimmungen
xM: Mittelwert von N Parallelbestimmungen mit N > 2
W: vorgegebener Sollwert
s: Standardabweichungen der Parallelbestimmungen
Qualitätssicherung in der Instrumentellen Analytik 23
Die Prüfgröße wird mit den Tabellenwerten der zweiseitigen t-Tabelle verglichen
(siehe Tabelle 9). Es gelten die folgenden Grenzen:
6.7 χ²-Anpassungstest
Wie beim David-Test wird mit dem χ²-Anpassungstest ermittelt, ob die Verteilungen
von Messwerten sich signifikant oder zufällig von einer Normalverteilung
unterscheiden.
Alternativen, die erste Hinweise liefern:
Schnelltest nach David (siehe Abschnitt 4.1.3)
Summenhäufigkeiten auf Wahrscheinlichkeitspapier
Ei = Bi ·N
100
Qualitätssicherung in der Instrumentellen Analytik 24
Dabei bedeutet:
Die Signifikanzschranke χ(f)² wird aus der χ²-Tabelle (Tabelle 10) entnommen.
Der Freiheitsgrad f ist:
f =k–1
Freiheits-
13 14 15 16 17 18 19 20 30 50 100 200 ∞
grad f
χ(f )² 22,36 22,68 25,00 26,30 27,57 28,87 30,14 31,41 43,77 67,50 124,34 233,99 ∞
Δ² =
Σ(xi – xi+1)²
N-1
Qualitätssicherung in der Instrumentellen Analytik 25
sx² =
Σ(xi – xM)²
N-1
xM: Mittelwert der Messreihe
Bewertung:
PG < ν(P=99%, N)
⇒ Die Nullhypothese muss aufgegeben werden; es liegt ein Trend vor.
PG > ν(P=99%, N)
⇒ Die Nullhypothese wird beibehalten; es ist kein Trend nachweisbar.
0,796
0,794
0,792
0,790
0,788
Extinktion
0,786
0,784
0,782
0,780
0,778
0,776
1
11
13
15
17
19
21
# Messung
# 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
Extinktion 0,783 0,785 0,782 0,786 0,789 0,784 0,791 0,788 0,793 0,783 0,788 0,789 0,791 0,792 0,791 0,793 0,793 0,794 0,789 0,793 0,794 0,793
xM 0,7893
xi - x M -0,006 -0,004 -0,007 -0,003 0,000 -0,005 0,002 -0,001 0,004 -0,006 -0,001 0,000 0,002 0,003 0,002 0,004 0,004 0,005 0,000 0,004 0,005 0,004
(xi - xM)² 3,9E-05 1,8E-05 5,3E-05 1,1E-05 7,4E-08 2,8E-05 3,0E-06 1,6E-06 1,4E-05 3,9E-05 1,6E-06 7,4E-08 3,0E-06 7,4E-06 3,0E-06 1,4E-05 1,4E-05 2,2E-05 7,4E-08 1,4E-05 2,2E-05 1,4E-05
(xi - xi+1)² 4,0E-06 9,0E-06 1,6E-05 9,0E-06 2,5E-05 4,9E-05 9,0E-06 2,5E-05 1,0E-04 2,5E-05 1,0E-06 4,0E-06 1,0E-06 1,0E-06 4,0E-06 0,0E+00 1,0E-06 2,5E-05 1,6E-05 1,0E-06 1,0E-06
PG = 0,00326 ≈ 1,011
0,00322
Ergebnis:
PG < ν(P=99%, N=22)
⇒ Die Nullhypothese H0 muss aufgegeben werden. Es muss von einem Trend
ausgegangen werden.
7. Kalibierungsstrategien
Viele Analysenmethoden bedürfen einer Kalibrierung. Damit wird aus einem
Messwert ŷ ein Konzentrationswert x` berechnet. ŷ nennt man im allgemeinen
Signalgröße. Es kann sich z.B. um eine Peakfläche, um eine Extinktion oder um eine
elektrische Leitfähigkeit handeln.
Verfahren, die aus den Signalgrößen über einen Kalibrieransatz zu den gewünschten
Konzentrationsgrößen umrechnen, nennt man „indirekte Verfahren“. Die
Signalgrößen y werden als abhängige Größen der unabhängigen Größe
Konzentration x gegenübergestellt. Die Aufgabe des Anwenders ist, mit Hilfe der
Daten ein gültiges mathematisches Modell für die Abhängigkeiten der Größen y von
x zu entwickeln und die Gültigkeitsgrenzen des Modells zu beschreiben. Falls
möglich soll ein linearer Zusammenhang gewählt werden (gerades Kalibiersystem).
Ein linearer Zusammenhang bei der Kalibrierung bedeutet: Die Signale sind der
Stoffportion oder der Konzentration des Analyten direkt proportional. Für den Begriff
„Linearität“ wird auch häufig „Analytical Response“ verwendet. Ein mathematisches
Modell zur Ermittlung der Kalibierfunktion und zur Beschreibung der
Leistungsfähigkeit der angenommenen Strategie ist die Regressionsanalyse. Diese
kann auch zu nicht linearen Kalibrierfunktionen führen. Durch Einengung des
Arbeitsbereiches kann oft erreicht werden, dass eine lineare Kalibrierung akzeptabel
wird.
Der Arbeitsbereich, also der Bereich zwischen der niedrigsten und der höchsten
Konzentration, sollte so gelegt werden, dass sich die zu erwartende
Konzentration der Probe in der Mitte des Arbeitsbereiches befindet.
Als Basis für die lineare Regression dienen die erhaltenen Messwerte (y) in
Abhängigkeit von der Konzentration (x) der Kalibrierlösungen. Es wird die Gerade
Kennlinie berechnet, bei der die Summe aller Abweichungsquadrate der Messwerte
in y-Richtung von der Ausgleichsgerade den niedrigsten Wert einnimmt. Die
Abweichungen in y-Richtung werden „Reste“ oder „Residuen“ genannt.
y = m·x + b
es bedeuten:
y: abhängige Größe, Messwert, z.B. die Peakfläche
x: unabhängige Größe, Konzentration
m: Steigung der Geraden
b: Ordinatenabschnitt
12
Steigung m
11
10
9
8
7
6 Ausgleichsgerade
y
5
4
3
2
1 Ordinatenabschnitt b
0
0 1 2 3 4 5 6 7 8 9
x
Sind die beiden Parameter m und b der Geradengleichung bekannt, kann von jedem
Signalwert (ŷi, z.B. Peakfläche) die dazugehörige Konzentration (x´i) berechnet
werden.
x´i = ŷi – b
m
Ziel der linearen Regression ist es aus den vorliegenden x,y-Wertepaaren, die aus
Kalibierlösungen mit dem betreffenden Analysenverfahren die beiden Parameter m
und b zu berechnen.
Σ(xi·yi) – [Σyi·Σxi]·N-1
m=
Σxi² - [(Σxi)²· N-1]
Σyi ·Σxi
Qxy = Σ(xi·yi) – [ ]
N
Der Wert im Nenner nennt man Qxx-Wert:
(Σxi)²
Qxx = Σxi² –
N
Qx
m=
Qxx
b = yM – m·xM
yM = Σyi
N
Der Parameter m ist ein Maß für die Empfindlichkeit E des Verfahrens.
Der Parameter b, der Ordinatenabschnitt bei der Konzentration c = 0, wird häufig als
„kalibrierter Blindwert yB“ bezeichnet.
sy = (
Σ[yi – (m·xi + b)]² )1/2 = ( Qxx - Qxy²· Qxx-1 1/2
)
N-2 N -2
Qualitätssicherung in der Instrumentellen Analytik 31
mit
yi: Signalwert
xi: Konzentrationswert
m: Steigung der Ausgleichsgeraden
b: Ordinatenabschnitt
N: Anzahl der Messwerte
Die Reststandardabweichung sy kann als Maß für die Anpassungspräzision der
Ausgleichsgeraden an die Messwertpaare aufgefasst werden.
Vx0 = Sx0·100%
xM
y = n·x² + m·x + b
Für den Anpassungstest nach Mandel wird die Varianzdifferenz Δs² berechnet.
PG = Δs²
sQ²
Qualitätssicherung in der Instrumentellen Analytik 32
Der Korrelationskoeffizient r vergleicht die Streuung der Punkte von der Re-
gressionsgeraden mit der Gesamtstreuung des Verfahrens. Der
Korrelationskoeffizient r ist eine Indexzahl, die angibt, ob und wie ein Variablenpaar
x und y miteinander verknüpft (korreliert) ist. Der Wert der Korrelationskoeffizienten
liegt zwischen -1 und +1. die Berechnung des Korrelationskoeffizienten r wird wie in
Abschnitt 5.5 gezeigt vorgenommen. Liegen alle Werte exakt auf der berechneten
Regressionsgeraden, wird r entweder den Wert -1 oder den Wert +1 annehmen. Ist
r ca. Null, so ist ein Zusammenhang zwischen den Wertepaaren nicht erkennbar.
Das Quadrat des Korrelationskoeffizienten nennt man Bestimmtheitsmaß r².
Aus r kann man nicht entnehmen, ob die lineare oder die quadratische Anpassung
günstiger wäre. Der Korrelationskoeffizient r ist daher kein Maß für die
Funktionsanpassung. In den Korrelationskoeffizienten geht die Steigung der Geraden
nicht mit ein. Die Verfahrensstandardabweichung ist deshalb die bessere Kennzahl
zur Beurteilung des Kalibierungsverfahrens.
Die Residualanalyse ist eine weitere Möglichkeit, die Qualität des linearen Ansatzes
zu bewerten. Unter den „Residuen“ (Resten) R versteht man die Differenz in y-
Richtung zwischen Messpunkt und zugehörigen Punkt auf der Regressionsgeraden.
Falls der Messpunkt direkt auf der Regressionsgeraden, wäre der Rest R = 0.
Dividiert man die Residuen aller Messpunkte durch die Standardabweichung aller
Residuen (d.h. der Verfahrensstandardabweichung sy), so erhält man normierte
Größen
ui = yi – ŷi
sy
ui: Normierte Größe der Reste
yi: berechneter y-Wert mit Hilfe der Regressionsgeraden
ŷi: Messwert
Ist der lineare Ansatz richtig, dann müssen die normierten Größen ui normalverteilt
sein, daher ergibt sich eine Gleichverteilung unter und über der Nulllinie.
x= y–b
m
Der geschätzte mit obiger Gleichung berechnete Wert ist mit einem Kalibierfehler
behaftet, der statistisch bewertet werden kann.
Qualitätssicherung in der Instrumentellen Analytik 33
yu und yo sind für x = 0 gleichzeitig der obere bzw. der untere Grenzwert des
Ordinatenabschnittes b (Blindwertes).
Die Hyperbeläste werden „Prognosebänder“ bzw. „Vertrauensbänder“ genannt.
12
Signalwert y
10
6 Messwert ŷ
0
Prognoseintervall
Konzentration x
xu xo
Erwartungswert x´
xu: unterer Grenzwert durch den Schnittpunkt mit dem oberen Prognoseband.
x´: Konzentration der Probe aus der Kalibrierung (Erwartungswert)
xo: oberer Grenzwert durch den Schnittpunkt mit dem unteren Prognoseband.
Die Ausreißertests z.B. nach Dixon und Grubbs, können auf Kalibrierdaten nicht
angewendet werden, da keine Daten eines Konzentrationsniveaus vorliegen.
# Konzentration xi Signal yi
µg/mL
1 100 0,241
2 125 0,304
3 150 0,364
4 175 0,453
5 200 0,503
6 225 0,574
7 250 0,661
0,8
0,6
Signal
0,4
Ausreißer?
0,2
0
50 100 150 200 250 300
Konzentration in µg/mL
1 1 (x - x )² 1/2
yu,o = (m·x4 + b) ± sy·t·[ + + 4 M ]
N Ň Qxx
Das Signalintervall Δy beträgt 0,413 bis 0,469. Der auf Ausreißer zu prüfende
Signalwert ist 0,453. Dieser liegt im Intervall.
⇒ Der 4. Wert ist kein Ausreißer.
Wird in einer Kalibierreihe ein Ausreißer erkannt, so muss dieser aus der Datenreihe
entfernt werden.
Beurteilung der Messwerte bei sehr niedrigen Gehalten des Analyten problematisch,
da Präzision der Messwerte gering ist.
Nach ICH:
Nachweisgrenze:
Die geringste Analytmenge in einer Messprobe, die detektiert, nicht aber quantifiziert
wird.
Bestimmungsgrenze:
Die geringste Analytmenge, die mit der geforderten Präzision und Richtigkeit
quantifiziert wird.
Bei den folgenden Berechungen wird nach DIN 32645 davon ausgegangen, dass
das vorliegende Datenmaterial normalverteilt ist.
Qualitätssicherung in der Instrumentellen Analytik 37
8.1 Definitionen
Probe, die den zu nachzuweisenden Stoff (Analyten) nicht enthält, sonst aber
weitgehend mit der Probe identisch ist.
a) Wiederholungsbestimmungen
Dabei sind mehrere unabhängig voneinander hergestellte Blindproben zu
messen, der Mittelwert der Messwerte ist als Blindwert anzusehen. Die Streuung
der einzelnen Messwerte wird durch die Standardabweichung sy erfasst.
oberer
Hyperbelast
yk
Konzentration x
Der Schnittpunkt des oberen Hyberbelastes yo(x=0) mit der Ordinate wird als
kritischer Wert der Messgröße yK bezeichnet. P =95%. Der t-Wert ist einer
einseitigen Fragestellung der t-Tabelle entnommen. Eine einseitige Fragestellung
wird auch für die Berechnung der Nachweisgrenze verwendet.
Qualitätssicherung in der Instrumentellen Analytik 38
Die Nachweisgrenze xNG ist nach DIN 32 645 eine Entscheidungsgrenze. Sie
bezeichnet jenen Gehalt an Analyten in einer Probe, der in der Messung den
„kritischen Wert der Messgröße yK“ gerade überschritten hat.
Signalwert y
oberer
Hyperbelast
yk
xNG Konzentration x
Es ist die Konzentration eines Analyten, bei dem die Wahrscheinlichkeit für den
Fehler 1.Art und 2.Art gleich sind: α = β. Bei Mehrfachmessungen von Proben, deren
Analyt mit einer Konzentration der Nachweisgrenze xNG auftritt wird Durchschnitt das
Ergebnis in 50% der Fällen „Wert kleiner Nachweisgrenze“ sein. Die Nachweisgrenze
ist kein Absolutwert.
Die Erfassungsgrenze xEG ist der kleinste Gehalt eines Analyten in einer Probe, bei
dem mit einer vorgegebenen Sicherheit, meist P=95%, ein Nachweis möglich ist. Die
Berechnung erfolgt aus dem 95% Prognosebereich der Kalibiergeraden.
xEG ≈ 2· xNG
das bedeutet, der Nachweis des Analyten in der Konzentration der Erfassungsgrenze
wird doppelt so oft gelingen, wie bei der Nachweisgrenze.
Die Bestimmungsgrenze ist eine quantitative Grenze. Sie ist jene Konzentration, bei
der ein Analyt mit einer vorher festgelegten Bestimmungsunsicherheit quantifiziert
werden kann. Die Bestimmungsunsicherheit ist das Verhältnis der jeweiligen
Grenzkonzentration zum 95%-Vertrauensbereich.
Qualitätssicherung in der Instrumentellen Analytik 39
8.1.7 Zusammenfassung
Bei der Bestimmung eines Analyten (Analytkonzentration xA) in einer Probe mit sehr
geringem Gehalt, gibt es nach DIN 32 645 sechs Grenzfälle:
xA < xNG ⇒ Nachweis in weniger als 50% der Fälle erfolgreich*).
xA ≈ xNG ⇒ Nachweis in 50% der Fälle erfolgreich*).
xNG <xA < xEG ⇒ Nachweis in 50% bis 95% der Fälle erfolgreich*).
xA ≈ xEG ⇒ Nachweis in 95% der Fälle erfolgreich*).
xEG <xA < xBG ⇒ Nachweis erfolgreich*), Quantifizierung mit der notwendigen
statistischen Sicherheit P ist unsicher.
xA ≈ xBG ⇒ Nachweis erfolgreich*), Quantifizierung mit der notwendigen
statistischen Sicherheit P ist möglich. Die Ergebnisun-
sicherheit wurde mit K =2 oder K = 3 festgelegt.
*)
erfolgreicher Nachweis: Die getroffenen Aussage z.B. Analyt vorhanden, ist wahr
8.2.1 Blindwertuntersuchungen
Probenverteilung
relative Häufigkeit
relative Häufigkeit
Blindwertverteilung
Bei der Konzentration, bei der ein Fehlerrisiko von 50% besteht, dass ein Analyt
identifiziert wird, obwohl das Signal zur Streuung des Blindwerts gehört, nennt man
nach DIN 23 645 die Nachweisgrenze. Wie man aus Abbildung 14 erkennt, wird nur
in 5% aller Fälle der Analyt nachgewiesen, obwohl die Probe in Wirklichkeit nicht den
Analyten nicht enthält.
Überlappungsbereich
50%
Probenverteilung
relative Häufigkeit
Konzentration
Fehler 2. Art:
Fehler 1. Art:
50%
5%
Nachweisgrenze
Blindwertverteilung
R
e
l 5% Probenverteilung
a Überlappung
t
Signalgröße
i
v
e
H
ä
u
f
i
g
k
eFehler 2. Art: Konzentration
i Fehler 1. Art:
5% 5%
t
Erfassungsgrenze
Zur Festlegung der Bestimmungsgrenze xBG. Wird die Konzentration so erhöht, dass
die Überschneidungsbereiche der Verteilungen von Blindprobe und Probe unter 5%
fallen.
5%
Überlappung
relative Häufigkeit
Konzentration
Überlappung:
< 5%
Bestimmungsgrenze
Bei der Berechnung muss der t-Wert mit „einseitiger Fragestellung“ entnommen
werden.
Nachweisgrenze xNG:
Zur Bestimmung der Nachweisgrenze xNG werden Ň Parallelmessungen an N
unabhängig hergestellten Blindproben durchgeführt. Aus allen Werten wird der
Mittelwert yM,B und die Standardabweichung sy berechnet. yk ist die Summe aus dem
Blindwert und der Breite des einseitigen Prognoseintervalls.
Erfassungsgrenze xEG:
Bestimmungsgrenze xEG:
Die Bestimmungsgrenze xBG ist bei einer statistischen Sicherheit von P =95% etwa
die sechsfache Standardabweichung sx (in x-Richtung) des Streubereichs der
Blindproben.
xBG ≈ 3·xNG
# 1 2 3 4 5 6 7 8 9 10
Extinktion yi 0,007 0,006 0,004 0,007 0,009 0,009 0,008 0,006 0,007 0,007
Mittelwert yM = 0,007,
Standardabweichung sy = 0,00149
8.2.2 Kalibrierkenndaten
Es sollte gelten:
xN
< 15.
xNG
Mit
xN: Höchster Kalibierwert
xNG: berechnete Nachweisgrenze
Ablauf:
- Grobe Abschätzung der xNG, xEG, xBG
- Arbeitsbereich so zu wählen, das kleinster und größter geschätzter Grenzwert
eingeschlossen sind.
- Prüfung der Varianzhomogenität des kleinsten und größten Werts der
Kalibierlösung.
- Prüfung, ob lineare Kalibierfunktion vorliegt.
- Schnittpunkt der Kalibiergeraden mit der y-Achse (Ordinatenabschnitt b) ist ein
Schätzwert für den Blindwert. An dieser Stelle ist x = 0.
- Berechnung der Prognosebänder mit P = 95%
Die Breite des Prognosebandes in (y-Richtung) gibt die Streuung des Signalwertes
an. Innerhalb dieser Streuung ist der Signalwert mit einer vorgegebenen Sicherheit P
zu erwarten (Abbildung 16). Wichtig für Berechnung der NG: Prognoseband für x= 0.
Signalwert y
oberer
Hyperbelast
yk
xNG Konzentration x
Anschaulich:
Nachweisgrenze:
Extrapolieren der „kritischen Größe des Messwertes yk“ (Schnittpunkt des Randes
oberen Prognosebandes mit der Ordinate) auf die Kalibiergerade und Fällen des
Lotes auf die x-Achse: ⇒ xNG nach DIN 32 645
Qualitätssicherung in der Instrumentellen Analytik 44
Erfassungsgrenze:
Extrapolieren der „kritischen Größe des Messwertes yk“ auf den Rand des unteren
Prognosebandes und Fällen des Lotes auf die x-Achse:
⇒ xEG nach DIN 32 645
Signalwert y
y k kritische Größe des Signalwerts
Abbildung 16: Anschauliche Ermittlung der Erfassungsgrenze xEG nach DIN 32 465.
Bei dieser Extrapolation ist α = β = 5%. Der Wert der Erfassungsgrenze ist wegen
der Symmetrie des Prognosebandes genau doppelt so groß wie die
Nachweisgrenze.
Signalwert y
Δx
xNG Konzentration x
Bestimmunggrenze xBG mit k = 3
xBG ≈ k·ΔxBG
Die Nachweisgrenze ist nach dieser Methode vereinfacht als Vielfaches der
Verfahrensstandardabweichung sx0 aufgefasst werden.
sy
xNG ≈ 1,2·Φ·
m
1 1/2
Φ = t·[1 + ]
N
t: t-Wert (Tabelle mit einseitiger Fragestellung , f=N-1, P=95%)
sy: Reststandardabweichung
N: Anzahl der Kalibierlösungen
m: Steigung der Geraden
xBG ≈ k·xNG
Voraussetzung:
• F-Test
• Mittelwert-t-Test
9.2 Wiederfindung
9.2.1 Begriffe
Die einer realen Probe den Analyten umgebenden Materialien nennt man
„Probenmatrix“ oder „Matrix“. Die „Matrix“ kann einen erheblichen Einfluß auf ein
Analysenverfahren haben. Solche matrixbedingten Überlagerungseffekte nennt man
auch „Interferenzen“.
Bei vielen realen Proben ist die Matrix so kompliziert aufgebaut, dass vor der
Quantifizierung eine (teilweise) Matrixentfernung stattfinden muss.
Probenaufschluss und Probenvorbereitung beeinflussen die Anwendbarkeit von
Analysenverfahren.
Typische Unterschiede in den Kalibiergeraden von reinen Analyten und Analyten
unter Matrixeinfluss sind:
Qualitätssicherung in der Instrumentellen Analytik 47
mit Matrix
Signalhöhe
ohne Matrix
Konzentration
mit Matrix
ohne Matrix
Konzentration
xFi = yFi – b
m
Herstellen einer ausreichenden Anzahl unterschiedlicher Konzentrationen des
Analyten in einem geeigneten Lösungsmittel xG1 bis xGN
Analysen ohne Matrixsubstanzen
Grundkalibrierung: y = mG·x + bG
Auftragen der xF1 bis xFN-Werte gegen die Grundkalibierkonzentration xG1 bis xGN
Wiederfindungsfunktion: xF = mA·xG + bA
sj = [
Σ(xi,j – xM,j)² ]1/2
N-1
xi,j: Einzelwert des Laboratoriums j
xM,j: Mittelwert des Laboratoriums j
N: Anzahl der Proben im Laboratorium j
sr = [
Σ[(Nj – 1)·sj²] ]1/2
N-k
sr: Standardabweichung unter Wiederholbedingungen für die Gesamtheit aller
Laboratorien
Nj: Anzahl der Proben im Laboratorium j
sj: Laborinterne Standardabweichung
N: Gesamtzahl aller Messwerte
k: Zahl der beteiligten Laboratorien
Vertrauensbereiche:
Wiederholstandardabweichung sr
Vergleichsstandardabweichung sR
Wiederholbarkeit:
Wiederholt ein Labor mit den gleichen Probenmaterialien an verschiedenen Tagen
die Messung, so sind die Ergebnisse als gleich zu betrachten, wenn die Differenz
beider Messungen „< r95%“ ist.
Vergleichbarkeit:
Vergleichen zwei Laboratorien ihre Messungen, die sie an den gleichen
Probenmaterialien erhalten haben, dann ist eine Differenz erst dann signifikant, wenn
die Vergleichbarkeit „größer ist als R95%“.
Bei digitaler Anzeige ohne weitere Information: Die letzte angezeigte Stelle ist die
erste unsichere.
12.1 Stichprobenauswahl
12.1.1 Zufallsauswahl
Stichproben werden zufällig ausgewählt. Die Wahrscheinlichkeit der Häufigkeit des
zu untersuchenden Merkmals ist gleich groß.
11.1.3 Wahrscheinlichkeitsauswahl
Gesamtheit der Proben wird in Bereiche aufgeteilt. Stichproben werden aus den
einzelnen Bereichen gezogen. Die Wahrscheinlichkeit ist nicht gleich groß.
Wichtungsfaktor.
Minimaler Stichprobenumfang:
n ≥ ( za )²·s²
d
n: Stichprobenumfang
za: Schranken der Normalverteilung
s: abgeschätzte Standardabweichung
d: zulässige Abweichung
t, l
konstante Konzentrations- periodische stochastische
Konzentration gradient Konzentrations- Konzentrations-
änderungen schwankungen
HOMOGEN INHOMOGEN
Abbildung 20: Klassifizierung der räumlichen und zeitlichen Verteilung des Analyten
Qualitätssicherung in der Instrumentellen Analytik 53
13.1 Grundfragen
13.2.1 Validierung
13.2.2 Verifizierung
13.2.4 Charakterisierung
Charakterisiert wird eine Methode, indem man die Werte für ihre charakteristischen
Kenngrößen ermittelt. Die Werte der Kenngrößen sind die Leistungs- oder
Verfahrensmerkmalswerte der untersuchten Methode. Sie dienen zur Abschätzung
der Unsicherheiten von Ergebnissen, die mit dieser Methode erzielt werden können.
Messen:
Experimenteller Vorgang, durch den ein Wert einer physikalischen Größe als
Vielfaches einer Einheit oder eines Bezugswerts ermittelt wird.
Prüfen:
Feststellen, ob der Prüfgegenstand eine oder mehrere vorgegebene Bedingungen
erfüllt. Mit Prüfen ist damit immer der Vergleich mit vorgegebenen Bedingungen
verbunden.
Prüfgegenstand kann sowohl die Probe als auch das Messgerät sein.
Justieren (Abgleichen):
Im Bereich der Messtechnik heißt justieren, ein Messgerät so einzustellen, oder
abzugleichen, dass die Messabweichungen möglichst klein werden oder dass die
Beiträge der Messabweichungen die Fehlergrenzen nicht überschreiten.
Kalibrieren (Einmessen):
Feststellen der Messabweichungen am fertigen Messgerät. Es folgt kein technischer
Eingriff am Messgerät.
Kalibieren kann sich sowohl auf die Festlegung des Messzusammenhangs als auch auf dessen
Überprüfung beziehen.
Eichen:
Das Eichen eines Messgeräts umfasst die von der zuständigen Eichbehörde nach
den Eichvorschriften vorzunehmenden Prüfungen und Stempelung.
An die Stelle der Eichbehörde kann auch eine Stelle treten, der die Eichbefugnis übertragen
wurde.
a) Der vom Labor zu erfüllende Auftrag muss so weit beschrieben sein, dass sich
daraus die an die analytische Methode zu stellenden Leistungsanforderungen klar
und eindeutig ableiten lassen.
Ist eine der beiden Forderungen nicht erfüllt, so ist eine Validierung nicht möglich.
ISO „Guide to the Expression of Uncertainty in Measurement (GUM) von 1993 sowie
in der Neufassung von 1995 heißt es zur Unsicherheit:
„Die Unsicherheit des Ergebnisses einer Messung reflektiert den Mangel an einem
genauen Wissen über den Wert der Messgröße. Das Ergebnis einer Messung ist
auch nach der Korrektur einer erkannten systematischen Einwirkung (effect) immer
noch eine Schätzung des Wertes der Messgröße infolge der Unsicherheit, die sich
aus der Beeinflussung durch zufällige Einwirkungen und aus der Korrektur des
Ergebnisses bezüglich der systematischen Einwirkung ergibt.“
Zielsetzung genau definieren, mit dem Was will ich/der Kunde wissen und
Auftraggeber die Ziele unmissverständ- warum?
lich festlegen.
Leistungsmerkmale und Akzeptanz- Was muss ich messen und welche Daten
kriterien festlegen brauche ich dazu?
Methode, falls sie nicht festgelegt ist, Methode?
auswählen
Prüfer bestimmen (evtl. Validierungs- Wer ist verantwortlich?
team bilden)
Zusammen mit dem Prüfer, Validierungs- Was ist zu tun?
plan erstellen
Methode auf Basis der experimentell Ist sie geeignet?
ermittelten Ergebnisse wählen
Empfehlungen wie in der Laborroutine mit z.B. Regelkarte
minimalem Aufwand die Methode
überprüft werden soll.
Dokumentation und Archivierung
Qualitätssicherung in der Instrumentellen Analytik 57
13.6.2 Dokumentation
13.6.3 Gerätequalifizierung
13.7.1.1 Präzision
Präzision: Streuung
einzelner Werte um
den Mittelwert
Einzelwert
richtiger
0 Wert 5 10 Mittelwert 15 20
Richtigkeit
Genauigkeit
mit
V·xM
s=
100
gilt:
(OSG – USG)√N·100
V<
4·t·xM
mit:
(OSG – USG)√N·100
V<
4·1,96·xM
mit
OSG: Obere Spezifikationsgrenze
USG: Untere Spezifikationsgrenze
Beispiel:
Vorgegebene Spezifikationsgrenzen 98% (USG) bis 102% (OSG)
Mittelwert: 100
Anzahl der Werte: N = 6
(102 – 98)√6·100 4·2,45·100
V< = = 1,25.
4·1,96·100 4·1,96·100
Wie kann man die Präzision erhöhen?
1
s∝
√N
Wiederholungsmessungen durchführen.
13.7.1.2 Richtigkeit
Richtigkeit ist das Mass der Übereinstimmung zwischen dem ermittelten Wert und
einem als richtig angesehenen Wert.
Prüfung auf Richtigkeit: Vergleich mit einem (oder) mehreren Referenz- oder
Arbeitsstandards.
Δxi,M =
ΣΔxi
N
│ΔxiM│
t= ·√N
sΔ
Δxi,M: Mittelwert der Differenzen
sΔ: Standardabweichung der Differenzen
Ist der erhaltene t-Wert größer als der tabellierte t-Wert (95%, f = N-1). So gilt mit der
vorgegebenen Wahrscheinlichkeit als erweisen, dass es einen Unterschied zwischen
beiden Methoden gibt.
13.7.1.3 Robustheit
Robustheit ist die Fähigkeit eines Verfahrens, ein Ergebnis zu liefern, das durch
variierende Bedingungen nicht oder unwesentlich verfälscht wird. Die Prüfung der
Robustheit setzt sowohl die gesicherte Präzision als auch die nachgewiesene
Richtigkeit voraus.
Definitionen:
Selektivität ist die Fähigkeit einer Methode, verschiedene nebeneinander zu
bestimmende Komponenten ohne gegenseitige Störung zu erfassen und somit
eindeutig zu identifizieren.
Spezifität ist die Fähigkeit einer Methode, eine Substanz oder Substanzklasse
ohne Verfälschung durch andere in der Probe enthaltenden Komponenten zu
erfassen.
13.7.1.5 Linearität
Die Wiederfindung oder Wiederfindungsrate ist das Verhältnis des unter Wieder-
holbedingungen gemessenen Mittelwertes zum richtigen Wert des Analyten in der
Probe.
xM
W= ·100%
xR
W: Wiederfindungsrate in %
xM: gemessener Mittelwert
xR: richtiger Wert
13.7.1.7 Arbeitsbereich
Prozessfähigkeitsindex
Toleranzbreite OSG - USG
cP = =
Prozessbreite 6s
cP: Prozessfähigkeitsindex
OSG: Obere Spezifikationsgrenze
USG: Untere Spezifikationsgrenze
Methodenfähigkeitsindex
analog cM
Der Fähigkeitsindex cP /cM sollte demnach mindestens 1 sein. cM ist von elementarer
Bedeutung, die Qualität von Produkten gemäß Spezifika-tionen zu beurteilen.
Korrigierter Methodenfähigkeitsindex
OSG - xb
cMK =
3s
xb - USG
cMK =
3s
mit:
xb: Bezugswert, z.B. Mittelwert
cMK: ist bei mittenzentrierten Prozessen gleich cM analog cPK
Qualitätssicherung in der Instrumentellen Analytik 63
cP = 1
cPK = 1
0 USG 10
x OSG 20
b
P rozess 1
Bogenschütze 1
cP = 1
cPK = 0,7
USG xb OSG
P rozess 2
Bogenschütze 2
cP = 0,7
cPK = 0,7
0
1,7
3,4
5,1
6,8
8,5
10,2
11,9
13,6
15,3
17
18,7
USG xb OSG
P rozess 3
Bogenschütze 3
cP = 0,7
cPK = 0,4
0
2,3
4,6
6,9
9,2
11,5
13,8
16,1
18,4
20,7
23
25,3
USG OSG xb
Prozess 4
Bogenschütze 4
14.2 Attributsprüfung
Nach Anzahl fehlerhafter Einheiten n-, die in der Stichprobe ermittelt werden, gilt für:
n- ≤ na Annahme des Prüfguts
n- > na Zurückweisung des Prüfguts
14.3 Sequenzanalyse
Bei einer Sequenzanalyse werden zur Prüfung des Unterschieds zwischen zwei
Grundgesamtheiten A und B bei festgelegten Wahrscheinlichkeiten für den Fehler 1.
und 2. Art, α und β, gerade nur soviel Einheiten untersucht werden, wie zur
Entscheidungsfindung erforderlich sind. Der Stichprobenumfang n wird selbst zur
Zufallsvariable. Sequentielle Untersuchungen sind sowohl für Attributsprüfungen als
auch für quantitative Messungen möglich. Vorteil: Kosteneinsparung. Auf der
Grundlage des Resultats jeder Einzeluntersuchung wird festgestellt, ob eine
Qualitätssicherung in der Instrumentellen Analytik 65
a) bei Attributsprüfung
Die Entscheidungen nach jeder Einzelprobe sind:
n-,n ≤ na,n ≤ ga(n) Annahme des Prüfguts.
n-,n > na,n ≤ gr(n) Zurückweisung des Prüfguts.
ga(n) > n-,n < gr(n) Prüfung fortsetzen: weitere Einzelprobe untersuchen.
Mit
n-,n: Anzahl fehlerhafter Einheiten bei n geprüften,
na,n, bzw. nr,n: Annahme- bzw. Rückweisungszahl für den Stichprobenumfang n
ga(n) bzw. gr(n) sind die quantitativen Rückweisungsfunktionen.
b) bei Variablenprüfung
14.4 Qualitätsregelkarten
(Σ x )- n·Z
n
CUSUMn = Sn = i
i=1
Qualitätssicherung in der Instrumentellen Analytik 67
ASK
0 d
V-Mask e
Die CUSUM-Werte enthalten Informationen sowohl überaktuelle als auch über die
vorangegangenen Werte. Veränderungen, die zu Ausser-Kontroll-Situationen (AKS)
führen, sind so leichter zu erkennen als die Orginalkarten. Voraussetzung für eine
effektive Wirkung ist die richtige Wahl der Parameter (Referenzwert, Skalierung, V-
Masken-Winkel und –Abstand d). In Softwarepaketen enthalten.
Datenbanksystem, das speziell auf die Anforderungen eines Labors zugeschnitten ist
und den Arbeitsablauf und Informationsfluss im Labor unterstützt.
Ergebnisvalidierung