Sie sind auf Seite 1von 25

Methodentransfer, Methodenverifizierung

und Methodenvalidierung - Lösungsfabrik

Methodenverifizierung, Methodenvalidierung und Methodentransfer. Diese Begriffe stehen in enger


Beziehung zueinander, sind jedoch nicht identisch. In diesem Blogbeitrag werden wir versuchen,
alle Unklarheiten durch geeignete Erklärungen und Beispiele zu beseitigen. Doch Schritt für Schritt:

Methodenverifizierung
Gemäß der United States Pharmacopoeia (USP) ist die Methodenverifizierung eine Maßnahme, mit
der eine Arzneibuchmethode auf ihre Eignung unter den tatsächlichen Anwendungsbedingungen
getestet werden kann. Jedes Labor, das eine Arzneibuchmethode zur Analyse einer bestimmten
Probe anwenden möchte, muss zuvor eine Verifizierung der Methode durchführen. Damit steht die
Methodenverifizierung in direktem Zusammenhang mit dem jeweiligen Labor, das diese Methode für
eine bestimmte Probe anwenden möchte.

So kann man sich beispielsweise vorstellen, dass ein Auftragslabor (contract research organization,
CRO) eine Arzneibuchmethode für eine bestimmte Probe bereits verifiziert hat, aber nun eine neue
Bestellung zum Testen einer anderen, neuen Probe erhält. Dafür ist es erforderlich, die
Methodenverifizierung für die neue Probe erneut durchzuführen. Ebenso muss auch eine Methode,
die bereits von einem bestimmten Labor (-standort) erfolgreich verifiziert worden ist, erneut
verifiziert werden, wenn die gleiche Probe vom einem anderen Labor (-standort) erneut analysiert
werden soll. Da sich die Methodenverifizierung auf Methoden bezieht, die in einem Arzneibuch
(Pharmakopöe) aufgeführt sind, wird sie mit etablierten analytischen Methoden durchgeführt, von
denen bekannt ist, dass sie funktionieren. Alle Arzneibuchmethoden wurden bereits in
internationalen Ringversuchen validiert und ausführlich getestet. Da dabei jedoch nicht jedes
existierende Medikament getestet werden konnte, sind diese Methoden nicht ohne vorherige
Überprüfung auf alle Testsubstanzen anwendbar. So kann man sich die Methodenverifizierung als
diese "Überprüfung" vorstellen, die für die spezifische, interessierende Probe unter den aktuell
vorherrschenden Laborbedingungen durchzuführen ist. Einen kurzen Überblick über einige
regulatorische Vorgaben finden Sie hier.

Ein Beispiel ist der Pyrogen- / Endotoxintest. Anstelle eines LAL- oder Kaninchenpyrogen-Tests kann
auch der in Kapitel 2.6.30 im europäischen Arzneibuch enthaltene in-
vitro Monozytenaktivierungstest (MAT) angewendet werden. Für diesen Test kann menschliches
Vollblut (entweder in Form von Cryoblut oder als frischem Blut), PBMCs oder eine Zelllinie (Mono
Mac 6) verwendet werden. Daher muss die Methode schon bereits aufgrund des einzusetzenden
Testsystems in dem Labor verifiziert werden, welches den Test für das zu analysierende, spezifische
Medikament seines Kunden anbieten möchte.

Methodenvalidierung
Die Validierung einer Methode ist ein Prozess, der die Eignung der Methode für die beabsichtigte
analytische Verwendung bestätigt.Methodenvalidierung wird auf "In-House"-Methoden, die vom
Labor selbst entwickelt wurden, angewandt und nicht auf allgemeine Analysemethoden, welche in
Arzneibüchern gelistet sind. Die Richtlinie "Validation of Analytical Procedures: Text and
Methodology" (ICH Q2(R1)), die von der ICH (International Council for Harmonisation of Technical
Requirements for Registration of Pharmaceuticals for Human Use) veröffentlicht wurde, definiert
eindeutige Kriterien, die eine Methode erfüllen muss, um als validiert zu gelten. Parameter, die im
Rahmen einer Methodenvalidierung zu untersuchen sind, sind folgende: Genauigkeit, Linearität,
Spezifität, Präzision, Robustheit, Nachweis- und Bestimmungsgrenze sowie Arbeitsbereich. Abhängig
von der beabsichtigten Anwendung der Methode (Identifizierung, Reinheit, Assay) können die
abzuprüfenden Parameter variieren. Einige weitere Erklärungen finden Sie auch in diesem Artikel.
Zunächst wird die Methode für ihren beabsichtigten Einsatzzweck entwickelt und später wird sie
validiert, um als zuverlässige, nachgewiesen geeignete Routinemethode in einem pharmazeutischen
Labor angewendet zu werden.

Wie bei der Verifizierung ist die erneute Validierung (Re-Validierung) auch bei
Methodenvalidierungen unten bestimmten Umständen notwendig. Ein Beispiel: Wenn eine in-house
entwickelte Chromatographie-Methode verwendet wird, um einen bestimmten monoklonalen
Antikörper in Labor 1 zu validieren, dieser aber für eine zweite Analyse an ein zweites Labor
geschickt wird, muss das zweite Labor die von Labor 1 entwickelte und bereits validierte
chromatographische Methode erneut validieren. Genauso ist es, wenn ein Labor eine analytische
Methode für die Analyse eines bestimmten monoklonalen Antikörpers bereits erfolgreich etabliert
und validiert hat, aber gebeten wird, eine andere Klasse monoklonaler Antikörper zu analysieren,
selbst strukturell ähnliche, muss das Labor die Validierung der etablierten Methode unter
Verwendung der neuen Probe erneut durchführen.

Methodentransfer
Methodentransfer ist, wie es der Name schon sagt, die Übertragung einer zuvor validierten Methode
auf ein neues Labor, um dieselbe Probe unter neuen Bedingungen zu analysieren. Der
Methodentransfer kann zwischen verschiedenen Standorten eines pharmazeutischen Unternehmens
(z.B. von der Entwicklungsabteilung zur Produktionsstätte in verschiedenen Ländern) oder im Falle
eines Verkaufs eines Medikaments von einem Unternehmen an ein anderes Unternehmen erfolgen.
Weitere Informationen zu Methodenübertragungen finden Sie hier.

Warum sind diese Dinge wichtig?


Zur Zeit der Globalisierung expandieren die meisten Pharmaunternehmen und suchen neue
Standorte für die Herstellung ihrer Wirkstoffe und Arzneimittel. Auf diese Weise sparen die
Unternehmen viel Geld und verbessern die Logistik ihrer (neuen) Produkte. In einer Zeit harten
Wettbewerbs ist Qualität allein nicht genug. Sie muss durch bessere Preise, schnellere
Entwicklungen und schnellere Lieferung ergänzt werden.

Was ein Validierungsplan und was


sagt uns dieser?
Geschrieben von Anindya Ghosh Roy am 12. Juni 2018. Veröffentlicht in Methodenvalidierung
Die Methodenvalidierung ist ein Bestätigungsprozess für die anzuwendenden analytischen Methoden,
um ihre Eignung für den beabsichtigten Gebrauch zu bewerten. Validierungsergebnisse werden
verwendet, um die Qualität, Zuverlässigkeit und Konsistenz von analytischen Methoden zu
beurteilen. Analytische Methodenvalidierung ist daher integraler Bestandteil einer jeder guten
analytischen Praxis und eine zwingende Voraussetzung für jede Methode, die in einem
pharmazeutischen QC-Labor oder assoziierten Auftragslaboren zur Anwendung kommen soll.

Als Faustregel gilt, dass analytische Methoden validiert oder revalidiert werden müssen

o vor ihrer Einführung in den Routineeinsatz für analytische Zwecke;


o für alle Änderungen der Methode nach ihrer Validierung (z.B. Änderung der
Pufferzusammensetzung, Änderung des Geräteprofils); und
o für jede Änderung, die außerhalb des ursprünglichen Einsatzzwecks der Methode liegt.

Jede Validierung besteht aus einem detaillierten Validierungsplan (VP) und einem
Validierungsbericht (VB). Der VP ist ein Dokument, das den gesamten Plan für die Validierung sehr
detailliert und eindeutig vorgibt, während der VB das Dokument ist, das die Übereinstimmung
(sowie ggf. Abweichungen) der im Plan beschriebenen Durchführung durch die Darstellung der
durchgeführten Experimente und die erhaltenen Ergebnisse abbildet. In diesem Blogartikel werden
wir ausführlich auf den VP eingehen.

Der Inhalt eines Validierungsplans


Das Schreiben eines VP erfordert eine enorme Detailgenauigkeit, um u.a. die Entwicklung eines
realistischen und ausgewogenen Zeitplans sicherzustellen. Ein guter VP sollte die folgenden Kapitel
enthalten:
Das ist kein Muss, aber eine Empfehlung, wobei keine regulatorischen Vorgaben existieren,
entsprechend kann natürlich auch die Reihenfolge geändert oder Kapitel können ergänzt,
weggelassen oder umbenannt werden...

1. Ziel
Das Kapitel „Ziel des Plans“ ähnelt einer Einführung in das Dokument. Es enthält normalerweise
einen Überblick über die gesamte Methode. Es beginnt mit der Auflistung der beabsichtigten
Verwendung der Methode, wie z.B. als Reinheitstest für z.B. die Freigabe von DS- / DP-Chargen. An
diese Informationen kann sich eine kurze Beschreibung der zu verwendenden Methode oder
Instrumente sowie das Training der durchführenden Analysten anschließen. Ein VP muss die
Parameter, die während der Validierung bestimmt werden sollen, und ihre Akzeptanzkriterien
aufführen (dies kann beispielsweise durch eine Übersichtstabelle zu Beginn des VP geschehen). Es
sollte auch die Maßnahmen enthalten, die im Falle einer Abweichung vom ursprünglichen Plan zu
ergreifen sind, oder einen Hinweis auf eine entsprechende Standardarbeitsanweisung (SOP), die sich
mit dem Abweichungsmanagement befasst.

2. Testmethode
In diesem Kapitel wird ein detaillierterer Fokus auf die analytische Methode gelegt. Hier wird der
Umfang der Methode ggf. zusammen mit Details zum Gerät (Modell, Eigenschaften), funktionellen
Details (Wellenlänge, pH) und Auswertungsdetails (% Peakfläche, S/N-Verhältnis) definiert. Dieser
Abschnitt kann auch sehr kurz sein mit nur einem Hinweis auf die entsprechende Testanweisung und
vielleicht einer Erklärung des Test- / Reaktionsprinzips.

3. Zeitpläne und Verantwortlichkeiten


Hier wird ein realistischer Zeitplan für jeden Prozessschritt zusammen mit der jeweiligen
zuständigen Abteilung oder Person aufgeführt. Da eine Validierung ein komplexer Prozess sein kann,
der eine Vielzahl von Abteilungen umfassen kann (das können z.B. die QC und QA-Abteilungen
verschiedener Standorte im Falle von Co-Validierungen während eines Transfers sein), ist es wichtig,
den Zeitplan aller beteiligten Abteilungen und Mitarbeiter zu berücksichtigen und die Zeitschienen
entsprechend abzubilden.

4. Testproben und Referenzmaterialien


Wie es der Titel sagt, muss dieser Abschnitt detaillierte Informationen über die einzusetzenden
Proben und Referenzmaterialien enthalten. Für beide, Referenzstandards und Proben, kann die
Quelle (z.B. die zu verwendende Charge), der (Protein-) Gehalt, der Formulierungspuffer und die
Matrixzusammensetzung klar angegeben werden. Zusätzlich können die Lagerungsbedingungen
angegeben werden.

5. Validierungsparameter
Dieser Abschnitt ist von größter Bedeutung, da er die Details über alle Parameter wie Linearität,
Genauigkeit, Präzision, Robustheit, Nachweis- und Bestimmungsgrenze (LOD / LOQ), Spezifität und
Arbeitsbereich enthält, die bei der Validierung entsprechend der für den jeweiligen Methodentyp
geltenden Anforderungen bestimmt werden müssen. Nicht jeder Parameter ist für jeden
Methodentyp erforderlich, Details dazu gibt z.B. die Validierungsrichtlinie ICH Q2(R1). Zusammen
mit der Auflistung enthält dieses Kapitel auch die Details zu jedem Parameter. Zum Beispiel, wie
die Präzision nachgewiesen werden soll. Ist es nur durch Wiederholpräzision, Laborpräzision,
Vergleichspräzision oder alle von ihnen? Für jeden Parameter muss die Anzahl der Proben, die
Anzahl der Analysten, ggf. die Dauer, die verwendeten Instrumente und auch die Konzentration der
Probe / des Referenzstandards (RS) klar definiert sein. Es sollte auch angegeben werden, wie die
Ergebnisse analysiert werden. In den meisten Fällen werden die erhaltenen Daten statistisch
ausgewertet (Mittelwert, Standardabweichung, relative Standardabweichung, etc.), aber in einigen
Fällen, wie LOD / LOQ, können die Ergebnisse auf verschiedene Arten wie z.B. mittels S/N-
Verhältnis oder durch visuelle Beurteilung usw. erhalten werden. So kann eine kurze Erklärung und /
oder z.B. ein Kapitel, das die Formeln zeigt, kann sehr nützlich sein (da z.B. auch Mittelwert und
gewichteter Mittelwert nicht verwechselt werden sollten). Wegen der Variabilität im Umfang der
Methoden hat die ICH Q2(R1) die Validierungsparameter für jede Art von Methode klar definiert. Die
Methoden sind in drei Kategorien eingeteilt: Identität, Reinheit, Assay (Gehalt und Wirksamkeit). Je
nach Methodenkategorie ist jeder Test erforderlich, um die Kompetenz gemäß den vordefinierten
Validierungsparametern der ICH Q2(R1) nachzuweisen.

6. Risikoanalyse
In diesem Kapitel werden potenzielle Risiken aufgezeigt, die während der Durchführung der
analytischen Methode auftreten können. Zum Beispiel eine schlechte Peakauflösung aufgrund
erhöhter Säulentemperatur. Der VP kann auch das Risikomanagement einschließen, das die
erforderlichen Maßnahmen im Falle eines solchen Risikos klar benennen sollte. Eine solche
Risikoanalyse kann ein gutes Mittel sein, um die Experimente zu definieren, die für die Bewertung
der Robustheit durchgeführt werden sollen (falls noch nicht während der Methodenentwicklung
bewertet), da sie die kritischen Schritte der Methode herausarbeiten kann. Dieses Kapitel ist nicht
zwingend erforderlich, aber gerade im Zusammenhang mit der Robustheit oft sinnvoll.

Die anderen Abschnitte können eine Beschreibung aller Berechnungen, gegebenenfalls ein Glossar,
verwendete Referenzen, unterstützende Dokumente und Anhänge enthalten, die alle zusätzlichen
Informationen enthalten können. Kurz gesagt, ein VP muss so formuliert sein, dass er eine Antwort
auf alle folgenden Fragen enthält:

1. Was ist Identität des Analyten?


2. Wie ist die Zusammensetzung und die Handhabung des Analyten, des/r Referenzstandard(s) und
der Probenmatrix?
3. Wie lange wird der Validierungsprozess dauern?
4. Welche Art von Inventar und Instrument wird verwendet?
5. Welches Personal ist involviert?
6. Woher stammen die Proben und wie werden sie gelagert?
7. Was ist der Umfang der Validierung?
8. Welche Validierungsparameter werden untersucht?
9. Was sind die definierten Kriterien für eine erfolgreiche Validierung?
10. Wie werden die Ergebnisse ausgewertet?
11. Falls ein Problem auftritt, wie wird damit umgegangen und wer ist verantwortlich?

Es ist auch wichtig zu beachten, dass jede Änderung / Abweichung extrem schwierig ist, sobald der
VP unterzeichnet ist. Daher ist es ratsam, die Methodenoptimierung beendet (und vielleicht
eine Methodenqualifizierung durchgeführt) zu haben, bevor die Validierung geplant wird, um
mögliche Kriterien zu bestimmen und sie einige Zeit vor Beginn der Validierungsaktivitäten im VP
festzulegen.
Die Methodenkategorien der ICH
Q2(R1)
Geschrieben von Anindya Ghosh Roy am 11. Mai 2018. Veröffentlicht in Methodenvalidierung

Die ICH Q2(R1) Richtlinie "Validierung analytischer Verfahren: Text und Methodik" ist die wichtigste
Leitlinie für die analytische Methodenvalidierung. Jede Methode, die für die Freigabe- oder
Stabilitätsprüfung von Arzneimitteln in einem Qualitätskontrolllabor eines pharmazeutischen
Unternehmens verwendet wird, muss validiert oder im Falle von Arzneibuchmethoden verifiziert
werden, bevor sie für die Routineanalyse verwendet werden darf. Validierung und Verifizierung sind
der Nachweis dafür, dass die Methode für den vorgesehenen Einsatzzweck geeignet ist. Für die
Methoden, die in keiner Pharmakopöe erwähnt sind, gibt die ICH-Richtlinie Auskunft über die für die
Validierung anzuwendenden Parameter, die sich je nach Typ der Methode unterscheiden können.
Daher werden die analytischen Methoden in 3 Haupttypen eingeteilt:

1. Identifizierungsmethoden
Wie der Name schon sagt, werden Identifizierungstests durchgeführt, um die Identität eines
Analyten in einer gegebenen Probe zu charakterisieren. Es ist eine behördliche Anforderung
nachzuweisen, dass in dem Arzneimittel, das Sie verkaufen wollen, auch tatsächlich der Wirkstoff
drin ist, dessen Funktion die Heilung ausüben soll. Dies wird oft dadurch erreicht, dass die
Eigenschaft eines Analyten mit der eines Referenzstandards verglichen wird. Für
Identifizierungstests ist die Spezifität (manchmal auch als "Selektivität" bezeichnet, obwohl sie
anders definiert ist, siehe unser Blogartikel zu diesem Thema) wichtig. Der Parameter "Spezifität"
erfordert im Wesentlichen von der Methode, den interessierenden Analyten von strukturell
ähnlichen Molekülen unterscheiden zu können.

Ein Beispiel für eine Identifizierungsmethode ist eine kapillarisoelektrische Fokussierung (cIEF) zur
Identifizierung einer bekannten monoklonalen Antikörper-Ladungsvariante in einem Pool anderer
Ladungsvarianten. Andere Beispiele sind z.B. Peptid-Mapping, bei welchem Sie ein spezifisches
Spaltungsmuster erhalten, das nur zu zu Ihrem interessierenden Protein passt oder ein mittlerweile
ein wenig in die Jahre gekommener Western-Blot, bei dem spezifische Antikörper verwendet
werden, die nur in der Lage sind, an das Zielprotein zu binden.

2. Methoden zur Bestimmung von Verunreinigungen (Reinheitstests)


Die Methoden zur Bestimmung von Verunreinigungen werden durchgeführt, um das Reinheitsprofil
der Probe genau zu definieren und damit zu zeigen, dass alle im Medikament vorkommenden
Verunreinigungen unterhalb akzeptabler Grenzwerte liegen. Also als Beweis der Unbedenklichkeit
für den Patienten. Alle Medikamente müssen so sicher im Sinne von „sauber“ wie möglich sein.
Gemäß den Anforderungen kann das dafür einzusetzende Verfahren entweder eine quantitative
Methode oder ein Limit-Grenztest sein. In beiden Fällen sollte es die Reinheit des Analyten in der
Probe widerspiegeln. Für quantitative Tests sind mehr Validierungsparameter erforderlich als für
Limit-Tests. Wenn Sie eine quantitative Methode anwenden, erhalten Sie ein Ergebnis mit einem
"echtem" Wert und Sie wissen genau, welche Menge des untersuchten Stoffes sich in der Probe
befindet (wie in diesem Beispiel). Wenn Sie einen Limit-Test anwenden, erhalten Sie nur ein
qualitatives Ergebnis wie "Nichts ist zu sehen", falls die Konzentration der Verunreinigung noch
unter dem Grenzwert liegt oder "Etwas ist drin" bei einer Konzentration über dem Grenzwert, aber
Sie kennen die genaue Menge nicht. Kolori- / photometrische Methoden, bei der es nach
Überschreiten eines Grenzwerts zu einem Farbumschlag kommt, sind Beispiele für Limit-Tests. Ein
anderes Beispiel ist die in dieser Publikation beschriebene eine HPLC/MS-Methode zum Nachweis
toxischer Verbindungen in der Probe.

3. Assays
Assays werden üblicherweise zur Quantifizierung des Analyten in einer Probe durchgeführt. Sie
adressieren entweder den Gehalt (content)des Analyten oder dessen Wirksamkeit / Aktivität
(potency). Für beide Aspekte fordern die Behörden entsprechende Methoden. Dies liegt an der
Tatsache, dass nachgewiesen werden muss, dass einerseits die angegebene Menge des Wirkstoffs
tatsächlich im Medikament vorliegt und dass andererseits dieser auch wirklich "aktiv" ist. Mit
anderen Worten, Assays messen entweder, wie viel des Analyten (also des Wirkstoffs) in der Probe
vorhanden ist, oder überprüfen seine Wirksamkeit.

So sind z.B. eine photometrische Methode zur Bestimmung von Fluvastatin-Natrium oder
eine Dünnschichtchromatografie-Methode zur Bestimmung von Clobetasolpropionat in topischen
Lösungen Bespiele für Gehaltsbestimmungen. Im Falle von Arzneimitteln auf Proteinbasis wird der
Gehalt oft durch eine einfache UV280 Messung bestimmt. Ein Verfahren, das die Aktivität eines
Enzyms wie beispielsweise des Gewebeplasminogenaktivators (tPA) mittels Clot-Lyse-
Assay bestimmt, ist ein Beispiel für einen Wirksamkeitstest. Für Medikamente wie Antikörper, die
zur Behandlung von Krebs eingesetzt werden und deren Wirkung durch Bindung an spezifische
Zellrezeptoren infolge dessen der Zelltod induziert wird, erzielt wird, werden spezielle
Zellkulturassays zum Nachweis der Wirksamkeit verwendet.

Was ist die ICH Q2(R1) Richtlinie?


Geschrieben von Anindya Ghosh Roy am 08. Mai 2018. Veröffentlicht in Methodenvalidierung

Die Richtlinie mit dem Titel „Validation of Analytical Procedures: Text and Methodology (ICH
Q2(R1))“ wurde von der Internationalen Konferenz zur Harmonisierung der technischen
Anforderungen für die Registrierung von Humanarzneimitteln (ICH) veröffentlicht. Sie enthält
Validierungsparameter für eine Vielzahl analytischer Methoden und wurde zum Zwecke der
Harmonisierung (also der Angleichung der Anforderungen) beim Zulassungsverfahren von
Arzneimitteln für verschiedene Märkte herausgegeben. Die drei an dieser Harmonisierung
beteiligten Parteien sind die USA, die EU und Japan. Es gibt eine ganze Reihe weiterer ICH-
Richtlinien, die in 4 Hauptgruppen eingeteilt sind:

1. Qualitätsrichtlinien (z.B. GMP, pharmazeutische Entwicklung, analytische Validierung usw.)


2. Sicherheitsrichtlinien (z.B. Toxizitätsstudien)
3. Wirksamkeitsrichtlinien (z.B. Pharmakovigilanz, Berichte über klinische Studien, GCP usw.)
4. Multidisziplinäre Richtlinien (z.B. elektronische Standards, Gentherapie usw.).

Diese Richtlinien sollen mögliche Unterschiede beim Zulassungsverfahren unterschiedlicher


Behörden überbrücken, welche die Qualität des Arzneimittels beeinflussen könnten. In anderen
Worten: Sie sollen die gleiche Qualität des Arzneimittels gewährleisten, unabhängig davon, in
welchem Land das Medikament auf den Markt gebracht werden soll. Außerdem sollen sie den
Behörden helfen, die gleichen Dokumente in guter Qualität bei der Einreichung der
Zulassungsunterlagen zu erhalten. Dies soll das Zulassungsverfahren erleichtern, da den
Antragstellern alle erforderlichen Informationen bekannt sind. Obwohl die USA ein Teil der
dreigliedrigen ICH sind, werden von der eigenen Behörde, der US-amerikanischen Food and Drug
Administration (FDA) zusätzliche Richtlinien veröffentlicht. Diese müssen im Falle eines Vertriebs
von Arzneimitteln in den USA ebenfalls berücksichtigt werden.

Wie eingangs erwähnt, ist die ICH Q2(R1) Richtlinie Bestandteil der ICH-Qualitätsrichtlinien und
beschreibt die Anforderungen an die Validierung von Analysemethoden. Diese Richtlinie bezieht sich
auf drei Hauptkategorien analytischer Methoden:
1. Identifizierungsmethoden
2. Quantitative und Limit-Tests zur Bestimmung des Gehalts an Verunreinigungen
3. Quantitative Tests des aktiven Wirkstoffs oder anderer Komponenten sowie Assays zum
Nachweis der Wirksamkeit.

Von den Arzneibuchmethoden abgesehen, welche für ihren Einsatz im Labor zuvor
eine Verifizierung durchlaufen müssen, sollen die oben aufgeführten zu validierenden Testmethoden
die Qualität (z.B. durch Identifizierung des Wirkstoffs), die Sicherheit (durch den Nachweis von
Verunreinigungen in Konzentrationen unterhalb zu akzeptierender Grenzwerte) und die Wirksamkeit
(durch Nachweis des angegebenen Wirkstoffgehalts und dessen Aktivität) demonstrieren. Für jede
Methode muss ihre Eignung zur Analyse des entsprechenden Arzneimittelwirkstoffs bzw. des
Fertigarzneimittels gezeigt werden. Die für die Validierung gemäß ICH Q2(R1) erforderlichen
Parameter sind Spezifität, Linearität, Genauigkeit, Präzision, Nachweis- sowie
Bestimmungsgrenze, Arbeitsbereich und Robustheit. Da nicht alle Parameter für jede
Methodenkategorie erforderlich sind, ist es sehr wichtig, die Kategorie der zu validierenden
analytischen Methode zu kennen, um ihre beabsichtigte Verwendung mit Hilfe der Validierung
nachzuweisen.

Die ICH Q2(R1) Methodenvalidierungsrichtlinie ermöglicht ein Verständnis für die Anwendung aber
auch für die Grenzen der Testmethode. Während der Methodenentwicklung selber ist noch keine
Validierung erforderlich, aber die Prinzipien, die in der ICH Q2(R1) aufgeführt sind, sollten bereits
im Hinterkopf behalten werden, da nach dem Abschluss der Methodenentwicklung deren Validierung
ansteht. Wenn die Methodenvalidierung nicht oder in unzureichender Weise durchgeführt wurde,
kann davon ausgegangen werden, dass die Methode keine zuverlässigen Ergebnisse liefert und von
den Behörden nicht für die anstehenden Freigabe- und Stabilitätsprüfungen von Arzneimitteln
akzeptiert wird.

Was ist der Arbeitsbereich einer


Methode?
Geschrieben von Anindya Ghosh Roy am 04. Mai 2018. Veröffentlicht in Methodenvalidierung
In diesem Artikel werfen wir einen kurzen Blick auf den „Arbeitsbereich“ einer Methode im Kontext
der analytischen Methodenvalidierung.

Die für Methodenvalidierungen üblich anzuwendende Richtlinie, die ICH Q2(R1), definiert den
Arbeitsbereich als den Bereich zwischen der höchsten und niedrigsten Konzentration des Analyten in
der Probe, für den nachgewiesen wurde, dass die Methode mit einem akzeptablen Grad an
Genauigkeit, Präzision und Linearität verlässliche Ergebnisse generiert. Die durchgeführten
Experimente zur Linearität der Methode definieren in der Regel den Arbeitsbereich.

Kommen wir zurück zu dem Beispiel, welches wir es auch schon im Blogartikel zur
Linearität verwendet haben. Wenn die Pflanze im Laufe von 3 Jahren alle 0,5 Jahre um 10 cm bis zu
einer Gesamthöhe von 60 cm wächst, liegt ein lineares Wachstum für jedes 0,5-jährige Zeitintervall
vor. Wenn diese Pflanze nach den 3 Jahren nicht mehr linear wächst, wäre - übertragen gesehen -
der Arbeitsbereich auf den Zeitraum von 0-3 Jahren begrenzt, da das Wachstum außerhalb der
Obergrenze (3 Jahre) und der Untergrenze (0 Jahre) mit Unsicherheiten behaftet ist.
Für eine analytische Methode sollte der lineare Teil der Kalibrierungskurve die Konzentration
abdecken, bei der die Probe normalerweise analysiert (ggf. zuvor verdünnt) wird (= 100%
Arbeitskonzentration) sowie ein wenig darüber und ein wenig darunter. Diese "ein wenig drüber /
darunter“ werden im Folgenden erklärt:

Der Arbeitsbereich ist ein Parameter, der bei der Validierung von Reinheitstests
und Assays (Gehalts- und Wirksamkeitsbestimmungen) in QC-Laboren untersucht werden muss. Die
ICH Q2(R1) gibt dazu folgende Empfehlungen:

 Für Assays sollte der Arbeitsbereich zwischen 80 und 120% der Testkonzentration liegen.
 Bei Reinheitsmethoden sollte der Arbeitsbereich die Spanne von der Berichtsebene (reporting
level; Anm.d. Red.: siehe ICH Q3A(R2)und Q3B(R2); aber ein Start ab der Bestimmungsgrenze
LOQ ist ebenfalls möglich) bis 120% der Spezifikation abdecken.
 Für kombinierte Reinheits- und Assay-Methoden unter Verwendung eines 100%-Standards
sollte der Arbeitsbereich die Spanne von der Berichtsebene bis zu 120% der Assay-Spezifikation
abdecken.
 Für die Methode der Bestimmung der Gleichförmigkeit des Gehalts (Content Uniformity; Anm.
d. Red.: dies ist eine Arzneibuchmethode - siehe z.B. USP <905> -, welche entsprechend
nur verifiziert werden muss), sollte der Arbeitsbereich normalerweise 70% bis 130% der
Testkonzentration abdecken, falls nicht begründeter Weise ein breiterer Arbeitsbereich
notwendig ist.

Für den gesamten Arbeitsbereich müssen Präzision und Genauigkeit eingehalten werden. Im Falle
einer niedrigen, knapp über der Bestimmungsgrenze (limit of quantitation, LOQ) als extremem Ende
liegenden Konzentration, welche nach oben zwar weiterhin eine gute Linearität, aber Replikate mit
nicht ausreichender Präzision oder Genauigkeit aufweist, ist diese vom Arbeitsbereich
auszuschließen. Entsprechend muss der Arbeitsbereich beginnend mit der nächsten darüber
liegenden Konzentration definiert werden, für welche eine gute Präzision und Genauigkeit gezeigt
wurde.

Was ist Linearität?


Geschrieben von Anindya Ghosh Roy am 02. Mai 2018. Veröffentlicht in Methodenvalidierung
In diesem Blogartikel möchten wir den Parameter "Linearität", der für analytische
Methodenvalidierungen von Relevanz ist, seine Bedeutung und seine Berechnung erläutern.
Mathematisch gesehen ist die Linearität eine Funktion von Werten, die grafisch als Gerade
dargestellt werden können. Analog kann gemäß der ICH Q2(R1)-Richtlinie die Linearität einer
analytischen Methode als ihre Fähigkeit erklärt werden, "Ergebnisse zu erzielen, die direkt
proportional zur Konzentration des Analyten in der Probe sind". Die Linearität wird oft innerhalb
eines vorgegebenen Bereichs gemessen. Betrachten wir zum Beispiel eine Pflanze, die alle 6 Monate
für 3 Jahre um exakt 10 cm wächst, so dass ein „lineares Wachstum“ über diese 3 Jahre beobachtet
werden kann.

Leider ist die analytische Reaktion bei einer Methode nicht immer so ausgeprägt linear wie das
Wachstum von Bäumen (siehe Beispiel oben).

Bei analytischen Methoden kann die Linearität eines Signals entweder die Beziehung zwischen dem
Signal des Analyten und der Konzentration des Analyten in der Kalibrierungsprobe oder die in der
Probenmatrix widerspiegeln. Letzteres ist wichtiger, weil, wenn das Signal des Analyten in der
Probe linear ist, es fast sicher ist, dass dies auch in den Kalibrierungsproben der Fall ist. Das Gleiche
gilt jedoch nicht unbedingt für den umgekehrten Fall, zum Teil wegen des „Matrixeffekts“. Ein
Matrixeffekt ist der Einfluss, der durch die anderen Komponenten der Probe (z.B.
Formulierungspuffer) auf die erwartete Reaktion in Abwesenheit der zu analysierenden Substanz
verursacht wird. In Falle, dass die Daten nicht linear sind, können sie mathematisch transformiert
werden, z.B. durch Logarithmieren; aber in einigen Fällen, wie beispielsweise bei Immunoassays, ist
gar keine Transformation möglich.

Die Linearität ist wichtig zur Bestätigung der Sensitivität der Methode für die Analyse der
Konzentration des Analyten im definierten Bereich. Gemäß der ICH Q2(R1)-Richtlinie muss die
Linearität mit mindestens von 5 Konzentrationen des Analyten untersucht und die Daten statistisch
analysiert werden, z.B. indem eine Regressionsanalyse gemäß der Methode der kleinsten Quadrate
durchgeführt wird. Die Ergebnisse können zusätzlich zur grafischen Darstellung in Form des
Korrelationskoeffizienten r, des Y-Achsenschnittpunkts, der Steigung der Regressionsgerade und der
Restsumme der Quadrate (residual sum of squares, RSS) gezeigt werden. Mehr Informationen über
die RSS finden Sie hier. Bei der linearen Regressionsgleichung y = ax + b ist der
Regressionskoeffizient die Konstante "a", die die Änderungsrate der Variablen "y" als eine Funktion
der Änderung von "x" darstellt, während "b" der Y-Achsenabschnitt ist.

Für einen linearen Datensatz muss sich die Berechnung des Pearson-Korrelationskoeffizienten r als
ausreichend erweisen. Dieser Koeffizient ist eine dimensionslose Größe, welche uns etwas über den
Grad einer linearen Beziehung zwischen zwei Variablen sagt. Im Falle eines perfekt linearen
Zusammenhangs, hat er einen Wert von 1. Wenn der Wert kleiner als 0,95 ist, kann dies entweder
das Ergebnis einer breiten Streuung während der Messung sein oder auf einer nichtlinearen
Korrelation beruhen. Oft wird das Bestimmtheitsmaß (R2) verwendet, das lediglich der quadrierte
Korrelationskoeffizient ist.
Für die Validierung von Reinheitstests und Assays (Gehalts- und Wirksamkeitsbestimmungen; für
einen Überblick zur Eingruppierung analytischer Testmethoden bitte hier klicken) sind
Linearitätsstudien obligatorisch. Linearitätsstudien sind wichtig, weil sie den Bereich der Methode
definieren, in dem Ergebnisse richtig und präzise erhalten werden können. Bei sehr kleinen zu
quantifizierenden Mengen an Verunreinigungen ist eine Untersuchung der Bestimmungsgrenze (limit
of quantification, LOQ) notwendig. Linearitätsexperimente am LOQ (in Kombination mit
Wiederholpräzision, bei gegebener Spezifität) dienen dazu, die Genauigkeit abzuleiten, da diese
auch beim LOQ gewährleistet sein muss.

Was ist der Unterschied zwischen


Spezifität und Selektivität?
Geschrieben von Anindya Ghosh Roy am 24. April 2018. Veröffentlicht in Methodenvalidierung
In diesem kleinen Blogartikel möchten wir zwei Begriffe erläutern, die im Rahmen analytischer
Methodenvalidierungen verwechselt werden. Es geht um Spezifität und Selektivität.

Spezifität
Gemäß der offiziellen Richtlinie ICH Q2(R1), die für Methodenvalidierungen anzuwenden ist, ist
Spezifität definiert als:

"Spezifität ist die Fähigkeit, den Analyten in Gegenwart von anderen Komponenten, die
erwartungsgemäß ebenfalls vorhanden sein können, eindeutig zu bestimmen."

Aber was heißt das nun konkret? In anderen Worten kann man sagen, dass uns Spezifität etwas über
den Grad an Interferenz durch andere ebenfalls in der Probe vorhandene Substanzen aussagt.
Stellen Sie sich zum Beispiel vor, dass Sie einen Schlüsselbund tragen und nur ein Schlüssel daraus
das Schloss Ihrer Haustür öffnen kann. Eine Methode, die den richtigen Schlüssel für das
Haustürschloss identifizieren kann, kann als "spezifisch" bezeichnet werden. Anders gesagt, die
Methode ist spezifisch für diesen einen Schlüssel unter allen anderen Schlüsseln Ihres
Schlüsselbundes.

Für die Spezifität ist die Identifizierung der anderen Schlüssel im Schlüsselbund nicht erforderlich.

Bei analytischen Verfahren definiert Spezifität die Identität eines Analyten in einer Mischung mit
ähnlichen Komponenten in einer Probe, wobei die Identität der einzelnen Komponenten nicht
wichtig ist. Spezifität kann untersucht werden, indem

1. entweder ein bekannter Analyt in einer Mischung mit strukturell ähnlichen Verbindungen (+)
oder
2. eine Mischung strukturell ähnlicher Moleküle ohne den eigentlichen Analyten (-) analysiert wird.

Der zweite Ansatz kann auch als "Matrixinterferenz" bezeichnet werden und wird angewendet, um
zu überprüfen, ob die Matrix (z.B. Formulierungspuffer) selber einen Effekt (in Form einer
Signalverstärkung oder -aufhebung) auf die Ergebnisse ausüben kann. Der erste Ansatz kann - im
Falle von Separationstechniken wie HPLC-Methoden - auch als "Trennselektivität" (separation
selectivity) angesehen werden. Dies bedeutet, dass das Verfahren dahingehend überprüft wird, ob
es noch in der Lage ist, eine mit bekannten Mengen potentiell störender Substanzen gespikte Probe
angemessen aufzutrennen und saubere Peaks zu erzielen.
Labormethoden, die in der pharmazeutischen Qualitätskontrolle (QC) eingesetzt und validiert
werden müssen, können in 3 Hauptgruppen(Identifizierungsmethoden, Tests zur Bestimmung von
Verunreinigungen und Gehalts- / Wirksamkeitsassays) eingeteilt werden. Unabhängig von der
Eingruppierung, ist für jede von ihnen ist der Validierungsparameter Spezifität erforderlich. Es ist
jedoch leicht nachvollziehbar, dass gerade für Identifizierungsmethoden Spezifität unabdingbar ist,
da sichergestellt sein muss, dass nur der interessierende Analyt in der Probe detektiert wird und es
nicht zu Kreuzreaktionen mit anderen vorhandenen Substanzen kommt.

Selektivität
Manchmal wird auch der Begriff "Selektivität" verwendet, um dasselbe wie Spezifität zu sagen,
obwohl Selektivität ein wenig anders definiert ist. Dieser Begriff wird in der ICH Guideline nicht
erwähnt, sondern taucht in der europäischen Richtlinie zur bioanalytischen Methodenvalidierung auf
und ist definiert als:

„Die analytische Methode sollte in der Lage sein, den/die interessierenden Analyten und den IS
[Anm. d. Red.: internen Standard] von endogenen Komponenten in der Matrix oder anderen
Komponenten in der Probe zu unterscheiden."

Hier liegt die Betonung auf „unterscheiden“. Anders ausgedrückt, können wir sagen, dass
Selektivität der Spezifität im Grundgedanken sehr ähnlich ist, jedoch mit dem großen Unterschied,
dass die Identifizierung aller Komponenten der Mischung obligatorisch ist. Im obigen Beispiel
erfordert die Selektivität die Identifizierung aller Schlüssel im Schlüsselbund und nicht nur des einen
Schlüssels zum Öffnen der Haustür.

Es ist wichtig zu verstehen, dass der Begriff Spezifität verwendet wird, um etwas über die Fähigkeit
der Methode zu sagen, nur auf einen einzelnen Analyten zu reagieren,
während Selektivität verwendet wird, wenn die Methode auf mehrere verschiedene Analyten in
der Probe reagieren kann. Im Kontext der analytischen Chemie ist Selektivität gemäß den IUPAC-
Empfehlungen zu bevorzugen.

Für analytische Methoden wie Trenntechniken sollten einzelne Komponenten markiert werden
können. Bei chromatographischen Techniken sollten die Chromatogramme eine klare Auflösung
zwischen verschiedenen Peaks aufweisen, wie schon durch die ICH Q2(R1) gefordert: „For critical
separations, specificity can be demonstrated by the resolution of the two components which elute
closest to each other.“ .

Was ist Genauigkeit?


Geschrieben von Anindya Ghosh Roy am 31. Mai 2018. Veröffentlicht in Methodenvalidierung
In unserem heutigen Blog werden wir den Begriff Genauigkeit im Kontext der Methodenvalidierung
sowie dessen Berechnung erläutern, seine Bedeutung hervorheben und darüber informieren, welche
Anforderungen bestehen.

Unter der Genauigkeit (accuracy) einer analytischen Methode wird das Maß der Differenz zwischen
den gemessenen Werten gegenüber den erwarteten, theoretisch wahren Werten verstanden,
welches aufgrund von Fehlern auftritt. Solche Fehler können zufälliger oder systematischer Natur
sein. Stellen Sie sich zum Beispiel eine Situation vor, in der ein Fußballspieler seine Elfmeterschüsse
übt. Er gilt als genau, wenn er jedes Mal das Tor (also den Zielbereich) trifft - unabhängig von der
Seite oder Ecke des Tores. Er ist jedoch nicht präzise, da er nicht immer die gleiche Ecke oder Seite
trifft, aber das ist eine andere Geschichte, die wir bereits im vorherigen Blogartikel erzählt haben.
Es ist jedoch wichtig, das Konzept der Genauigkeit nicht mit dem der "Richtigkeit" (trueness) zu
verwechseln, da die Richtigkeit nur systematische Fehler misst und sich auf einen Referenzwert
bezieht, während die Genauigkeit beide Arten von Fehlern umfasst und sich auf den "wahren" Wert
bezieht. Weitere Informationen finden Sie hier.

Die Genauigkeit ist ein wichtiger Parameter, der im Rahmen von Validierungen analytischer
Methoden zur Bestimmung von Verunreinigungen oder von Assays bestimmt werden muss. Es ist ein
Parameter, der uns etwas über die Wahrheit der während einer Messung erhaltenen Werte sagt. Bei
der Evaluierung der Genauigkeit muss folgendermaßen unterschieden werden:

Assays mit Wirkstoffen (drug substance, DS)

Um die Genauigkeit einer Methode für einen Wirkstoff zu bestimmen, kann die Methode auf einen
Analyten mit bekannter Reinheit wie einen Referenzstandard (RS) angewendet werden. Die
Ergebnisse der Methode könnten auch mit anderen, bereits etablierten Methoden bekannter
Genauigkeit verglichen werden.

Assays mit Fertigarzneimitteln (drug product, DP)

Die Genauigkeit einer Analysenmethode für Fertigarzneimittel kann durch Zugabe einer bekannten
Menge zu analysierender DS zu einer Mischung synthetischer DP-Komponenten bestimmt werden. Im
Fall, dass synthetische DP-Komponenten nicht verfügbar sind, könnten bekannte DS-Mengen zum DP
hinzugefügt und unter Anwendung der Methode analysiert werden. Wie bei der DS ist außerdem
auch ein Vergleich mit einem unabhängigen Verfahren erlaubt.

Für quantitative Bestimmungen von Verunreinigungen (Reinheitstests) kann die Genauigkeit


bestimmt werden, indem der Analyt mit bekannten Mengen an verfügbaren Verunreinigungen
versetzt wird (Spiking-Experimente) oder analog zu den Assays durch einen Vergleich mit einem
unabhängigen Verfahren.

Gemäß Methodenvalidierungsrichtline ICH Q2(R1) sollte die Genauigkeit mit mindestens 9


Bestimmungen (z.B. 3 Konzentrationen, je 3-mal) evaluiert werden. Zur Berechnung der
Genauigkeit einer analytischen Methode wird der prozentuale Fehler (% Err) oder die prozentuale
Wiederfindung (oder Wiederfindungsrate; recovery) verwendet.

Die Wiederfindungsrate einer analytischen Methode wird dadurch erhalten, indem der theoretische
und der gemessene Wert verglichen werden. Dafür wird die gemessene Menge des zugesetzten
Spikes durch die theoretische Menge des Spikes dividiert und dann mit 100 multipliziert, wodurch
ein Ergebnis in % erhalten wird. An einem Beispiel könnte das so aussehen: Wir wissen, dass unser
zugesetzter Spike eine theoretische Konzentration von 40 pg/Kavität hat, aber bei der Messung
erhalten wir nur einen Wert von 38,8 pg/Kavität. Damit beträgt die Wiederfindungsrate 97% (38,8 /
40 * 100). Im Falle der Verwendung von Linearitätsexperimenten zur gleichzeitigen Ermittlung der
Genauigkeit, kann z.B. die gemessene Peakfläche des Hauptpeaks durch den theoretischen Wert
dividiert werden, der durch die Regressionsgerade bestimmt wurde. Unter idealen Bedingungen
wäre eine Wiederfindungsrate von 100% zu erwarten, aber dies ist aufgrund offensichtlicher
Unterschiede in der Methodik, der Geräte und der Handhabung fast nie möglich.

Was ist Präzision?


Geschrieben von Anindya Ghosh Roy am 29. Mai 2018. Veröffentlicht in Methodenvalidierung
In unserem Blogartikel möchten wir heute einen kurzen Blick auf den analytischen
Methodenvalidierungsparameter "Präzision" werfen und die verschiedenen Begriffe
Wiederholpräzision (repeatability), interner Laborpräzision (intermediate precision) und
Vergleichspräzision / Reproduzierbarkeit (reproducibility) erläutern.

Präzision ist ein Maß für die Übereinstimmung (Nähe) von Daten, die durch eine Reihe von
Experimenten unter ähnlichen Bedingungen erhalten werden. Für analytische Methoden ist es der
Grad der Übereinstimmung der Ergebnisse, die unter den spezifizierten Bedingungen der Methode
erhalten werden. Präzision zielt darauf ab, zufällige Fehler anzuzeigen, der in der Methode
auftreten können.

Präzision sollte unter keinen Umständen mit Genauigkeit (accuracy) verwechselt werden. Eine
Methode kann präzise, aber nicht genau sein oder umgekehrt oder beides. Nachfolgend ein Beispiel
für ein besseres Verständnis:
Abbildung 1: Erläutert den Unterschied zwischen Präzision und Genauigkeit am
Beispiel eines Fußballspielers, der 9 Elfmeterschüsse übt. 1. Der Ball trifft das Tor,
aber in verschiedenen Bereichen, 2. Der Ball wurde in die linke Seite des Tors
geschossen, 3. Der Ball wurde zur linken Seite geschossen, leider außerhalb des
Tores, 4. Der Ball wurde in alle Richtungen außerhalb des Zielbereichs gespielt.
Die Präzision analytischer Methoden kann in Wiederholpräzision, interne Laborpräzision und
Vergleichspräzision unterteilt werden.

Instru- Instru-
Tag 1 Tag 2 Analyst 1 Analyst 2 Labor 1 Labor 2
ment 1 ment 2

Wiederholpräzision x x x x

Interne Laborpräzision x x x x x x x

Vergleichspräzision x x

Tabelle 1: Dargestellt ist ein allgemeines Schema von Präzisionsexperimenten.

Wiederholpräzision
Die Wiederholpräzision sagt uns etwas über das Ausmaß der Übereinstimmung der analytischen
Ergebnisse einer Reihe wiederholter Experimente während eines kurzen Zeitintervalls. Die
Wiederholpräzision wird im Englischen auch als intra-assay-precision bezeichnet. Dabei wird die
Methode in der Regel mehrmals am selben Tag vom selben Analysten (Laboranten) durchgeführt.
Gemäß der Methodenvalidierungsrichtlinie ICH Q2(R1) kann die Wiederholpräzision nur mit
mindestens 9 Bestimmungen (3 Konzentrationen x 3 Replikate) oder 6 Bestimmungen bei 100%
Testkonzentration ermittelt werden.
Abbildung 2: Veranschaulicht die Idee der Wiederholpräzision. Derselbe
Fußballspieler führt die Elfmeterschüsse zu verschiedenen Zeiten am selben Tag
durch.

Interne Laborpräzision
Die interne Laborpräzision spiegelt die Variation innerhalb eines Labors wider, indem sie die
Übereinstimmung der Ergebnisse analysiert, die erhalten werden, wenn eine Methode an
verschiedenen Tagen von verschiedenen Analysten mit unterschiedlichen Instrumenten angewendet
wird. Daher wird die Laborpräzision von Tag zu Tag, von Analyst zu Analyst, von Instrument zu
Instrument verglichen. Alternativ kann die Laborpräzision auch in einem sogenannten "Matrix-
Ansatz" evaluiert werden, der aus 6 Experimenten besteht, wo alle Aspekte gemeinsam abgedeckt
werden.

Abbildung 3: Veranschaulicht die Idee der Tag-zu-Tag-Laborpräzision. Derselbe


Fußballspieler führt die Elfmeterschüsse an zwei verschiedenen Tagen durch (Tag 2
ist sonniger).
Abbildung 4: Zeigt die Idee der Analyst zu Analyst-Laborpräzision. Zwei verschiedene
Spieler üben die Elfmeterschüsse unter ansonsten gleichen Bedingungen.

Abbildung 5: Illustriert die Idee der Laborpräzision unter Verwendung


unterschiedlicher Instrumente. Derselbe Fußballspieler übt die Elfmeterschüsse mit
zwei verschiedenen Bällen.

Vergleichspräzision
Die Vergleichspräzision ist eine Art der Präzision, die Unterschiede in einer Methode durch den
Vergleich der Ergebnisse aufzeigt, welche durch eine in verschiedenen Laboren, also an
verschiedenen Orten, durchgeführte Methode erhalten werden. Dies sollte nicht mit dem
Methodentransfer verwechselt werden, der ein wichtiger (obligatorischer) Parameter für
Arzneimittel ist, die in verschiedenen Ländern oder Kontinenten auf den Markt gebracht werden
(sollen) oder an verschiedenen Orten hergestellt werden. Die Vergleichspräzision zeigt im
Wesentlichen, dass die Durchführung der analytischen Methode unabhängig vom Standort des Labors
bzw. vom durchzuführenden Labor selber ist.
Abbildung 6: Veranschaulicht die Idee der Vergleichspräzision (Inter-Labor)
Präzision. Derselbe Fußballspieler übt die Elfmeterschüsse an zwei verschiedenen
Orten, wobei es noch nicht einmal derselbe Fußballspieler sein muss.
Die Vergleichspräzision wird nicht nur zur Messung der Leistungsfähigkeit einer Methode verwendet.
Viele Laboratorien verwenden diesen Parameter, um die Leistung eines Qualitätstests zu bewerten.
Ein Eignungstest wie ein universeller Ringversuch könnte für diesen Zweck durchgeführt werden. Ein
Ringversuch ist ein Test, bei dem mehrere verschiedene Labore teilnehmen. Er ermöglicht die
Einschätzung der Leistungsfähigkeit einer Methode (bzw. des durchführenden Prüflabors) basierend
auf Versuchen, die in allen teilnehmenden Laboren mit den gleichen homogenen Proben
durchgeführt werden. Ziel eines solchen Tests ist es, die Qualität und Effizienz der Laborleistung zu
verbessern (z.B. im Falle akkreditierter Prüflabore). Ringversuche sind unerlässlich, um
Akkreditierungsbehörden, Kunden und Aufsichtsbehörden Kompetenz zu beweisen. Oft werden
Ringversuche für Methoden durchgeführt, die Arzneibuch-Methoden werden sollen, so dass sie in
einer Pharmakopöe wie z.B. in der Ph. Eur. gelistet werden.

Die Ergebnisse von Präzisionstests werden statistisch analysiert. Die ICH Q2(R1) schlägt vor, dass das
Ergebnis als Standardabweichung (SD), relative Standardabweichung (RSD, Variationskoeffizient)
und Konfidenzintervall (CI) für jeden Präzisionstyp dargestellt werden sollte. Das CI ist ein
nützliches statistisches Werkzeug zur Beurteilung der Präzision. Es erlaubt uns eine Beurteilung der
Fähigkeit eines Instruments, konsistente Daten innerhalb eines gegebenen Wertebereichs zu
erzeugen. Mit anderen Worten, es erlaubt uns, den Bereich der Methode zu kennen, in der mit
dieser Methode präzise und zuverlässige Daten erhalten werden können. Im Zusammenhang mit
Präzision ist eine Anwendung eines Konfidenzintervalls auf eine Wiederholpräzision, bei der 6
Messungen mit 100% Testkonzentration durchgeführt wurden, wahrscheinlich nicht sehr sinnvoll.
Aber die Berechnung eines „overall“ Konfidenzintervalls kann nützlich sein, bei dem sowohl die
Werte der Wiederholpräzision als auch die der internen Laborpräzision eingehen.

Was ist Robustheit?


Geschrieben von Anindya Ghosh Roy am 05. Juni 2018. Veröffentlicht in Methodenvalidierung
Ist Ihnen jemals in den Sinn gekommen, was passieren würde, wenn die Bedingungen bei der
Entwicklung einer analytischen Methode variieren würden? In diesem Artikel werden wir die gleiche
Frage mit dem Parameter Robustheit (robustness) behandeln, der im Rahmen der
Methodenvalidierung untersucht werden kann, wenn dies nicht schon früher geschehen ist.
Robustheit ist die Untersuchung einer analytischen Methode, bei der zuverlässige Ergebnisse
erhalten werden, selbst wenn die Methode mit leichten Veränderungen durchgeführt wird. Es ist die
Fähigkeit einer Methode, unbeeinträchtigt zu bleiben, wenn geringfügige Variationen angewendet
werden. Ein allgemeineres Beispiel für diesen Parameter wäre es, sich vorzustellen, dass ein
Fußballspieler unter bestimmten Bedingungen mit bestimmten Techniken Elfmeterschüsse übt. Nun
wird derselbe Fußballspieler gebeten, die Schüsse mit einem anders dimensionierten Ball, einem
kleineren Ziel, bei höherer Umgebungstemperatur oder mit verschiedenen Turnschuhen
auszuführen. Wenn die Ergebnisse (statistisch) ähnlich sind, kann die Technik als robust bezeichnet
werden.

Der Begriff Robustheit (robustness) kann sich abhängig von der Definition von dem Begriff
„Unempfindlichkeit“ (ruggedness) unterscheiden. In der älteren Literatur wurde „ruggedness“ im
USP-Kapitel <1225> verwendet, um (Methoden-) Variationen zu beschreiben, die gemäß der ICH
Q2(R1) als "interne Laborpräzision" (intermediate precision) bekannt sind. Im aktuellen USP-Kapitel
ist dies harmonisiert. Andere schlagen vor, den Begriff „ruggedness“ zu verwenden, wenn externe
Faktoren (wie verschiedene Analytiker und Instrumente) analysiert werden, und Robustheit für
interne Faktoren, die die Stabilität des Verfahrens charakterisieren (wie z.B. die
Fließgeschwindigkeit der mobilen Phase oder die Säulentemperatur). Da in der ICH Q2(R1) nur der
Begriff Robustheit auftaucht, nicht zwischen robustness und ruggedness unterschieden wird und sie
korrekte Definitionen für die interne Laborpräzision und die Vergleichspräzision liefert, können alle
anderen variablen Faktoren, die die Leistungsfähigkeit der Methode beeinflussen, als Parameter der
Robustheit angesehen werden.

Abbildung: (links) Der Fußballspieler übt unter bestimmten Bedingungen seine


Elfmeterschüsse. (rechts) Derselbe Fußballspieler versucht die Schüsse unter leicht
veränderten Bedingungen (hier: ein größerer Ball, ein sonnigerer Tag und höhere
Temperaturen) zu wiederholen.

Für analytische Methoden hängt die Untersuchung der Parameter für die Robustheit von der Art der
zu evaluierende Methode ab. Die Methodenvalidierungsrichtlinie ICH Q2(R1) hat für bestimmte
Methoden die zu variierenden Bedingungen klar definiert:

Im Falle der Flüssigkeitschromatographie sind nachfolgende Beispiele typische Variationen:

 Einfluss von Schwankungen des pH-Wertes in der mobilen Phase;


 Einfluss von Variationen in der Zusammensetzung der mobilen Phase;
 verschiedene Säulen (verschiedene Chargen und / oder Lieferanten);
 Temperatur;
 Flußrate

Beispiele typischer Variationen sind bei der Gaschromatographie:


 verschiedene Säulen (verschiedene Chargen und / oder Lieferanten);
 Temperatur;
 Flußrate.

Es ist leicht verständlich, dass Flüssigkeitschromatographie-Techniken, wie HPLC, oft empfindlich


gegenüber leichten Änderungen sind. Eine etwas viskosere mobile Phase oder ein geringerer
Durchmesser der Säule kann zu Druckschwankungen, unzureichenden Trennungen führen und
wiederum zu einer möglichen Beschädigung der analytischen Säule führen oder "nur" die Ergebnisse
beeinträchtigen. In ähnlicher Weise kann eine Änderung der Säulentemperatur die Viskosität der
Fließgeschwindigkeit beeinträchtigen und damit direkt auf die Ergebnisse einwirken, z.B. in Form
veränderter Retentionszeiten.

Im Idealfall bezieht sich Robustheit auf Änderungen, die an der Methode im selben Labor
vorgenommen werden. Robustheit kann jedoch auch als die Möglichkeit angesehen werden, die
analytische Methode in verschiedenen Laboratorien durchführen zu können (was dann durch den
Parameter Vergleichspräzision - reproducibility - untersucht wird) oder unter verschiedenen
Umständen ohne Auftreten unerwarteter Unterschiede in den erhaltenen Ergebnissen.

Wie bereits erwähnt, wird die Robustheit nicht als Validierungsparameter im engeren Sinne
betrachtet, da sie in der Regel bereits während der Methodenentwicklung untersucht wird, nachdem
die Methode (zumindest teilweise) optimiert wurde. Daher ist die Untersuchung der Robustheit
während der Entwicklung sinnvoll, da Parameter, die die Methode beeinflussen, leicht identifiziert
werden können, wenn sie zu Optimierungszwecken verändert werden.

Ein guter Weg der Analyse der Robustheit wurde von M. Jimidar et. al. während der Studie "Method
Validation and Robustness Testing of an Enantioselective CE Method for Chemical Quality Control "
gezeigt. Die Autoren identifizierten alle möglichen Faktoren, die die Methode im Prinzip
beeinflussen könnten und haben Robustheitsstudien an ihnen durchgeführt (siehe nachfolgende
Tabelle):

Faktor Einheit Grenzen Stufe (-1) Stufe


Konzentration von Cyclodextrin
1 mg/25 mL ± 10 mg 476 49
im Pufferelektrolyten
2 Konzentration des Puffers mg/100 mL ± 20 mg 870 91
3 pH des Puffers ± 0,2 2,8 3,
4 Injektionszeit s ± 0,5 s 2,5 3,
5 Säulentemperatur °C ± 2°C 18 2
6 Spülzeit Lösungsmittel 1 (Wasser) min ± 0,2 min 1,8 2,
7 Spülzeit Lösungsmittel 2 (Pufferelektrolyten) min ± 0,2 min 3,8 4,
In diesem Fall erwies sich die Methode als sehr robust und konnte erfolgreich in verschiedene
Laboratorien in Europa, den USA, Japan und China transferiert werden.

Zusammenfassend ist die Robustheit ein bedeutender Parameter, der bei der Entwicklung und
Validierung analytischer Methoden untersucht wird und die Funktionalität der Methode unter leicht
unterschiedlichen Bedingungen beweist. Darüber hinaus ist eine robuste Methode einfacher
zu transferieren.
Was ist eigentlich ein
Konfidenzintervall?
Geschrieben von Dr. Eva Arnold am 01. September 2017. Veröffentlicht in Methodenvalidierung

Bei der Herstellung eines Arzneimittels sind die Kontrollen mandatorisch. Hier kommt man schnell
auf ein Problem: Um den Endverbraucher zu schützen, möchte man keine Fehler in einem
Produktionsschritt übersehen. Andererseits ist eine 100 % Kontrolle in einigen Produktionsschritten
nicht möglich. So kann man beispielsweise nicht jede einzeln verpackte Tablette wieder auspacken
und auf ihre Beschaffenheit untersuchen, nur um sicher zu sein, dass kein Fehler übersehen wurde.

Aus diesem Grund nimmt man eine Stichprobe, das heißt man entscheidet sich für eine gewisse
Menge an Tabletten pro Charge, um diese auf Fehler zu untersuchen. Anschließend muss von dieser
Stichprobe ausgehend eine Schätzung abgegeben werden, die sich auf die gesamte Charge bezieht.
Hier kommt das sogenannte Konfidenzintervall ins Spiel.

So werden bei In-Prozess-Kontrollen ermittelte Werte mit einem zuvor definierten Soll-Wert
verglichen. Wenn man davon ausgeht, dass die Produktion diesen Wert sehr genau einhält,
schwanken also die echten Werte in einer Normalverteilung um diesen Soll-Wert. Einfach gesagt:
Eine Tablette soll 400 Milligramm eines Wirkstoffs enthalten. Die produzierten Tabletten enthalten
selten exakt 400 Milligramm, sondern schwanken zwischen 390 und 410 Milligramm. Da der
Produzent natürlich bemüht ist, den Sollwert von 400 Milligramm einzuhalten, kommen die meisten
Tabletten sehr nah an die 400 Milligramm heran, beispielsweise enthalten die meisten Tabletten
zwischen 395 und 405 Milligramm. Würde man eine komplette Tablettencharge und die jeweiligen
Gewichte des Wirkstoffs gegeneinander auftragen, würde man eine klassische Normalverteilung
erhalten. Daraus lässt sich auch der „echte“ Mittelwert, der sogenannte Erwartungswert,
bestimmen. Als Qualitätsmerkmal haben wir in der Spezifikation festgelegt, dass dieser „echte“
Mittelwert zwischen 395 und 405 Milligramm liegen soll.

Wie oben bereits erwähnt, können wir nicht jede einzelne Tablette untersuchen. Daher bleibt
dieser Erwartungswert für uns unbekannt. Da wir dennoch wissen wollen, ob die aktuelle
Tablettencharge dem Soll-Wert des Wirkstoffgehalts entspricht, ziehen wir also eine Stichprobe von
beispielsweise 100 Tabletten und analysieren diese. Mit sehr hoher Wahrscheinlichkeit
unterscheidet sich der Mittelwert der Stichprobe vom „echten“ Mittelwert. Andersherum gesagt: Es
ist sehr unwahrscheinlich, mit einem Stichprobenmittel auf exakt den Erwartungswert zu kommen,
den man haben möchte. Nun stehen wir vor dem folgenden Problem: Unser Stichprobenmittelwert
ist nur eine Schätzung, und den „echten“ Mittelwert können wir nie und nimmer bestimmen, ohne
unsere ganze Charge zu zerstören.

Um dieses Problem zu umgehen, legen wir einen Bereich fest, in dem dieser „echte“ Mittelwert zu
vermuten ist. Dieser Bereich wird Konfidenzintervall (oder auch Vertrauensintervall) genannt. Je
größer dieser Bereich ist, desto wahrscheinlicher enthält dieser auch den „echten“ Mittelwert. Nun
könnte man meinen, es sei von Vorteil, ein möglichst breites Konfidenzintervall zu bestimmen,
damit der „echte“ Mittelwert immer enthalten ist. Je größer das Konfidenzintervall ist, desto
schlechter ist jedoch die Genauigkeit der Schätzung. Entsprechend wollen wir also ein möglichst
schmales Konfidenzintervall. Damit kommen wir zu einem weiteren Problem: Bei einer zufällig
gezogenen Stichprobe können auch Ausreißer dabei sein, die sich bei der oben genannten
Normalverteilung zum Beispiel am äußeren Rand der Wirkstoffmenge befinden. Diese Ausreißer
enthalten selbst mit dem Konfidenzintervall nicht den „echten“ Mittelwert. Die Wahrscheinlichkeit,
solche Ausreißer in der Stichprobe zu haben, ist zwar entsprechend gering, aber nicht unmöglich.
Um diese Wahrscheinlichkeit miteinzubeziehen, legt man ein sogenanntes Konfidenzniveau (auch
Vertrauensniveau genannt) fest. Nehmen wir ein Konfidenzniveau von 95 % an, so bedeutet dies,
dass 95 % der Stichprobenwerte mit Konfidenzintervall den „echten“ Mittelwert enthalten. Damit
dürfen 5 % der Werte Ausreißer sein.

Doch wie legt man das Konfidenzintervall fest? Die Breite des Konfidenzintervalls hängt von der
Standardabweichung (σ) der Stichprobe und dem gewählten Konfidenzniveau ab. Die Wahl des
Konfidenzniveaus ist einem selbst überlassen. In der Pharmabranche wird üblicherweise das 95 %-
Niveau verwendet. Das gewählte Konfidenzniveau wird verwendet, um den kritischen Wert Z a/2 zu
ermitteln. Dafür wird für 0,95 / 2 = 0,475 der dazugehörige Wert in einer z-Tabelle
(Normalverteilungstabelle) nachgeschaut. Für ein Konfidenzniveau von 95 % ergibt das einen Z a/2-
Wert von 2. Mit diesem Wert, der Standardabweichung (σ) der Stichprobe und der Stichprobengröße
(n) lässt sich das Konfidenzintervall bestimmen. Nehmen wir an, wir haben 100 Tabletten analysiert
und kommen auf einen Mittelwert von 398,8 Milligramm und eine Standardabweichung von 12,4
Milligramm. Unser Konfidenzintervall berechnet sich damit aus:

2* σ / √(n) = 2*12,4 / √(100) = 2,48

Das heißt, der „echte“ Mittelwert liegt bei 398,8 im Konfidenzintervall [396,32; 401,28] und wäre
damit innerhalb unser Spezifikation (zwischen 395 und 405 mg).

Je größer die Standardabweichung, also die Streuung unserer Stichprobe ist, desto größer ist unser
Konfidenzintervall. Hieraus ergibt sich auch, weshalb ein breites Konfidenzintervall ein Zeichen für
eine schlechte Schätzung darstellt. Gleichzeitig lässt sich unser Konfidenzintervall verkleinern,
indem wir unsere Stichprobengröße (n) erhöhen. Wenn wir unsere Stichprobe erhöhen, reduzieren
wir gleichzeitig auch unsere Streuung und damit Standardabweichung, da wir, je mehr Tabletten wir
analysieren, der „echten“ Normalverteilung immer näherkommen. Würden wir beispielsweise nur 10
Tabletten untersuchen, kämen wir bei gleichem Mittelwert und gleicher Standardabweichung auf
ein Konfidenzintervall von 7,8, womit unsere Schätzung mit dem Konfidenzintervall [391,0; 406,6]
nicht mehr der Spezifikation entspricht und die Charge nicht freigegeben werden kann.

Stellen wir also abschließend fest: Je größer die Stichprobe (n) gewählt ist, desto kleiner ist das
Konfidenzintervall und desto genauer ist unsere Schätzung. Die Wahl der Stichprobe ist also
maßgeblich für die Vertrauenswürdigkeit einer Kontrolle eines Herstellungsprozesses – wohingegen
die Anzahl der Stichproben weniger ausschlaggebend ist. Nehmen wir also unser Tablettenbeispiel:
Wenn wir pro Charge 10 Stichproben à 10 Tabletten nehmen, ist unsere Schätzung weniger genau,
als wenn wir 1 Stichprobe à 100 Tabletten nehmen, obwohl dieselbe Menge Tabletten, nämlich 100
Stück, „geopfert“ werden musste.

Um den Bogen zur Methodenvalidierung zu spannen, soll abschließend erwähnt werden, dass auch
hierfür die Kenntnis der Berechnung von Konfidenzintervallen notwendig ist, da die Angabe von
Konfidenzintervallen von der ICH Q2(R1) Guideline sowohl für den Parameter Richtigkeit (accuracy)
als auch für alle Arten der Präzision (precision) empfohlen wird.
Journal Club: Validierung einer
photometrischen Methode zur
Gehaltsbestimmung
Geschrieben von Dr. Janet Thode am 25. Februar 2018. Veröffentlicht in Methodenvalidierung

Einleitung und Hintergrund


Jede Medikamentenentwicklung beginnt mit der Identifizierung eines Moleküls, das das Potenzial
hat, Krankheiten zu bekämpfen, zu kontrollieren, zu verhindern oder zu heilen. Während der
Identifizierung solcher Verbindungen sind verschiedene analytische Verfahren von Bedeutung. So ist
es obligatorisch, dass das Molekül frei von unerwünschten Verunreinigungen ist, es die richtige
Konzentration aufweist und seine Identität sowie Wirksamkeit verifiziert werden kann. Aus diesen
Gründen kommt eine Vielzahl analytischer Methoden zum Einsatz.

Für Gehaltsbestimmungen werden vorwiegend spektrometrische Methoden eingesetzt, jedoch finden


auch andere Techniken wie z.B. Chromatographie in Kombination mit Spektrometrie Anwendung. Im
Laufe der Jahre wurden viele neue Methoden entwickelt, bei denen die Selektivität, Zuverlässigkeit
und Sensitivität optimiert wurden.

In diesem Blogbeitrag möchten wir eine spektrophotometrische Methode und ihre Validierung
erläutern, die von Ashour et al. für die Bestimmung von Fluvastatin für die Analyse
pharmazeutischer Präparate entwickelt wurde. Fluvastatin-Natrium (FVS) ist ein antilipämisches
Mittel, das die Hydroxymethylglutaryl-Coenzym-A- (HMG-CoA) -Reduktase hemmt, welche einen
wichtigen Schritt in der Cholesterin-Biosynthese katalysiert. FVS wird hauptsächlich verwendet, um
den Cholesterinspiegel im Plasma zu senken und kardiovaskulären Erkrankungen vorzubeugen.

In der Vergangenheit wurden verschiedene elektroanalytische Methoden zur FVS-Bestimmung


eingesetzt. Neben einer Vielzahl von voltammetrischen Verfahren wurden auch
Kapillarelektrophorese (CE), Derivativ-Spektrophotometrie und
Hochleistungsflüssigkeitschromatographie (HPLC) zur FVS-Bestimmung angewandt. Außerdem gibt es
eine Titrationsmethode, die im britischen Arzneibuch gelistet ist.

FVS erzeugt bei der Reaktion mit 4-Chlor-7-Nitrobenzofurazan (NBD-Cl) eine stark gelbe Farbe.
Diese Eigenschaft wurde für die Entwicklung einer Methode zur Bestimmung von FVS in reiner Form
und in pharmazeutischer Formulierung genutzt. Die von Ashour et al. vorgestellte Methode ist die
erste kinetische photometrische Methode zur Gehaltsbestimmung von FVS. Sie ist einfach und
schnell.

Untersuchte Ansätze und Methoden


Das elektroaktive Halogenidreagenz NBD-Cl wurde ursprünglich in Verfahren zur Bestimmung von
Aminosäuren und Aminen eingesetzt. Der wichtigste Faktor bei photometrischen Verfahren ist die
Erzeugung von Farbe durch die eingesetzten Reagenzien. Entsprechend wurde in dieser Studie die
Tatsache genutzt, dass FVS mit NBD-Cl in Aceton-haltigem Medium bei 55 ± 2ºC eine gelbe Farbe
generiert mit einem Absorptionsmaximum bei 462 nm. Zur Ermittlung der optimalen
experimentellen Bedingungen wurden von den Autoren verschiedene Faktoren wie Temperatur,
Konzentration, Absorption und Lösemittelauswahl untersucht.

Der Umstand, dass die Intensität der erzeugten Farbe direkt proportional zur Zeit bis zum Erreichen
des Absorptionsmaximums ist, wurde zur Entwicklung der kinetischen Methode zur FVS-Bestimmung
genutzt. Zur Erstellung einer Kalibrationskurve wurden verschiedene Ansätze getestet
(Geschwindigkeitsdaten, Geschwindigkeitskonstanten, variable Zeit und feste Zeit).

Für den Geschwindigkeitsdatenansatz wurden verschiedene FVS-Konzentrationen hergestellt, der


Anstieg der Absorption als Funktion der Zeit aufgezeichnet und schließlich die
Reaktionsgeschwindigkeit der verschiedenen Konzentrationen aus der Tangentensteigung der Kurve
ermittelt. Für die Kalibrationskurve wurden logarithmierte Werte der Reaktionsgeschwindigkeit
gegen logarithmierte Konzentrationswerte aufgetragen. Im Gegensatz dazu wurde
beim Geschwindigkeitskonstanten-Ansatz lineare Regression zwischen den
Geschwindigkeitskonstanten und den Konzentrationen angewandt. Beim variablen Zeit-
Ansatz wurde die Zeit gemessen, die von verschiedenen FVS-Konzentrationen benötigt wurde, um
einen vordefinierten Absorptionswert zu erreichen. Für die Kalibrationskurve wurde der Kehrwert
der Zeit (1/t) gegen die Anfangskonzentration aufgetragen. Beim festen Zeit-Ansatz wurden bei
zuvor definierten festen Zeitpunkten die Absorptionen verschiedener Konzentrationen gemessen.
Die Kalibrationskurve jedes festen Zeitpunkts (u.a. 20 Minuten) wurde generiert, indem die
Absorptionen gegen die Anfangskonzentration aufgetragen wurden.

Diese vier Ansätze wurden auf ihre Anwendbarkeit, Sensitivität, die Werte des Achsenabschnitts und
auf ihren Korrelationskoeffizienten (R2) untersucht. Alle 4 Ansätzen zeigen lineare Beziehungen mit
einem R2 von > 0,99. Die besten Ergebnisse wurden mit dem Geschwindigkeitsdaten- und einem
festen (20 Minuten) Zeit-Ansatz erhalten (Linearität: 15-50 μg/ml beim
Geschwindigkeitsdatenansatz und 10-90 μg/ml beim 20 Minuten-Zeit-Ansatz). Für diese Ansätze
wurden die Nachweisgrenze (limit of detection, LOD) und die Bestimmungsgrenze (limit of
quantification, LOQ) bestimmt. Der Geschwindigkeitsdatenansatz weist eine niedrigere LOD als der
20 Minuten-Zeit-Ansatz auf (0,017 gegenüber 0,134 μg/ml), während es für die LOQ umgekehrt ist
(10 μg/ml versus 15 μg/ml). Des Weiteren wurden für den 20 Minuten-Zeit-Ansatz die optimale
Konzentration nach Ringbom (15-50 μg/ml) und die Sensitivität nach Sandell (0,147 μg cm -2 pro
0,001-Absorptionseinheit) berechnet. Die Sensitivität nach Sandell ist die Masse des Analyten pro
Volumeneinheit der Lösung, die eine Absorption von 0,001 in einer Küvette mit einer Weglänge von
1 cm ergibt. Sie kann verwendet werden, um verschiedene Moleküle hinsichtlich ihrer Sensitivität
beim Nachweis mit spektrophotometrischen Verfahren zu vergleichen. Sie wurde 1944 von Sandell
beschrieben (Sandell E.B, 1944, Colorimetric Determination of Traces of Metals, Interscience
Publishers, New York and later in 1959). Der optimale Ringbom-Konzentrationsbereich (T% = f (log
C), wobei C in μg/ml) ist der Bereich mit der höchsten Genauigkeit aufgrund des geringsten
photometrischen Fehlers. Er wurde 1939 von Ringbom postuliert (Ringbom A., 1939, Accuracy of
colorimetric determinations, Z. Anal. Chem. 115, 332-342). Da diese beiden Parameter
photometrischer Bestimmungen ziemlich alt sind, ist ihr Nutzen für gegenwärtige Methoden etwas
fraglich.
Analytische Methodenvalidierung und Diskussion
Im Rahmen der analytischen Methodenvalidierung beider Ansätze wurden Genauigkeit (accuracy)
und Präzision evaluiert. Dafür wurden sechs Bestimmungen bei vier verschiedenen Konzentrationen
durchgeführt. Für die Präzision wurde die relative Standardabweichung (RSD%) und für die
Genauigkeit der relative Fehler (Er%, der die Differenz zwischen der bestimmten und der
theoretischen Konzentration hinsichtlich der Wiederfindung zeigt) berechnet. Die ermittelten
Ergebnisse zeigen eine hohe Präzision und Genauigkeit, da sowohl sehr niedrige RSD%- als auch Er%-
Werte ermittelt wurden (RSD% bis zu 2,38 und Er% bis zu 1,41).

Die Selektivität wurde ebenfalls untersucht. FVS wird in Form von Kapseln verkauft, mit z.B. 20 oder
40 mg FVS und verschiedenen Hilfsstoffen. Zur Evaluierung der Selektivität wurde eine Mischung von
typischen Kapselhilfsstoffen zusammen mit dem Wirkstoff analysiert und die relative Wiederfindung
(% Recovery) für FVS berechnet. Die Hilfsstoffe haben keinen Einfluss auf die relative
Wiederfindung, da bei allen Experimenten Wiederfindungsraten von 100,32 % ± 0,49 % bis 101,41 % ±
0,48 % beobachtet wurden. Keiner der Hilfsstoffe zeigt eine Absorption im interessierenden Bereich.

Ein wichtiger Aspekt der Methodenentwicklung ist die Vergleichbarkeit der Ergebnisse mit bereits
etablierten, akzeptierten Methoden. Aus diesem Grunde wurde die Performance der beiden Ansätze
mit der in der britischen Pharmakopöe aufgeführten nicht-wässrigen Titrationsmethode verglichen.
Für alle 3 Methoden wurde FVS in seiner pharmazeutischen Formulierung, also als Kapsel der
gleichen Charge eingesetzt. Die erhaltenen Ergebnisse wurden mit einem t-Test (für die
Genauigkeit) und einem F-Test (für die Präzision) verglichen und es wurde kein signifikanter
Unterschied zwischen den neuen Verfahren im Vergleich zum etablierten Verfahren festgestellt.

Die Methode soll zur Gehaltsbestimmung von FVS (= assay) eingesetzt werden. Gemäß der ICH
(Internationale Konferenz zur Harmonisierung der technischen Anforderungen für die Registrierung
von Humanarzneimitteln) Richtlinie Q2(R1) sind für eine Gehaltsbestimmung Linearität,
Arbeitsbereich, Genauigkeit, Präzision in Form von Wiederholbarkeit (repeatability) und
Vergleichspräzision (intermediate precision) sowie Spezifität zu prüfen.

Zur Evaluierung der Linearität sollen gemäß ICH Q2(R1) mindestens 5 Konzentrationen getestet
werden. Obwohl in diesem Artikel eine gute Linearität gezeigt werden konnte, wurden hierfür nur 4
Konzentrationen eingesetzt. Zur Bestimmung des Arbeitsbereichs wird die Verwendung von
Konzentrationen im Bereich von 80 bis 120% der Testkonzentration empfohlen. Die beobachtete
Linearität lag bei 15-50 µg/ml (Geschwindigkeitsdaten-Ansatz) und 10-90 µg/ml (20-Minuten-Zeit-
Ansatz), so dass eine 100%ige Testkonzentration bei etwa 33 µg/ml (Geschwindigkeitsdaten-Ansatz)
bzw. 50 μg/ml (20-Minuten-Zeit-Ansatz) angenommen werden kann. Die für Genauigkeit und
Präzision durchgeführten Experimente umfassen einen Bereich von 20-50 μg/ml
(Geschwindigkeitsdaten-Ansatz) und 10-70 μg/ml (20-Minuten-Zeit-Ansatz) und schließen daher die
für den Arbeitsbereich empfohlenen Konzentrationen von 80 bis 120% mit ein. Genauigkeit und
Spezifität wurden gezeigt. Aufgrund der Tatsache, dass für jede Konzentration 6 Replikate
verwendet wurden, wurde die Präzision als Wiederholpräzision erfolgreich evaluiert. Experimente,
die eine Vergleichspräzision zeigen, fehlen jedoch komplett.

Zusammengefasst sind die größten Vorteile der vorgestellten Methoden ihre Einfachheit und
Zeiteffektivität. Sie sind relativ unkompliziert und deutlich schneller als andere gängige
Analysemethoden. Die Ergebnisse der Methodenvalidierung waren sehr gut, abgesehen von der
Tatsache, dass eine Konzentration für die Linearität und die Experimente für die Vergleichspräzision
fehlen. So eingereicht wäre die Akzeptanz einer Behörde unwahrscheinlich