Internationale Laborberatung


Für jedes Labor das Richtige, nicht für alle Labors dasselbe!

Kalibrieren, aber richtig

Als das Kalibrieren von Geräten noch reine "Handarbeit" war, hatten die Beteiligten noch einen sehr direkten Zugang zu den Kalibrierfaktoren und ein Gespür für das, was "normal" war und dem, was einen Hinweis auf einen möglichen Fehler gab. Seit moderne Geräte mit einem einzigen Tastendruck am PC und fern vom Gerät neu kalibriert werden können, wird munter drauflos gedrückt und alle wähnen sich so auf der sicheren Seite. Dabei wird im Hinblick auf die Streuung der Ergebnisse genau das Gegenteil dessen erreicht, was man glaubt so erreichen zu können. 

In nicht wenigen analytischen Laboratorien wird fast mehr kalibriert als produktiv gemessen. Das kann im Einzelfall daran liegen, dass es immer nur sehr geringe Probenzahlen gibt, die zu bearbeiten sind. In der Regel aber liegt es eher daran, dass bewusst oder unbewusst versucht wird, die Qualität der Ergebnisse durch eine möglichst umfangreiche Kalibrierung zu gewährleisten. Dabei wird dann auch schon einmal „kalibrieren“ mit „validieren“ verwechselt, sprich es werden in arbeitstäglicher Regelmäßigkeit die Validierungsdaten mehr oder weniger komplett neu erhoben. Dabei beruhen die Kalibrierfaktoren der allermeisten chromatografischen Verfahren auf Konstanten wie der molaren Extinktion oder von Naturgesetzen wie dem Lambert Beerschen Gesetz oder anderen. Diese muss man aber nicht arbeitstäglich in Zweifel ziehen, dann hätte die ganze Analytik gewaltige Probleme und keine solide theoretische Basis.

Gerade vor dem Hintergrund der Stabilität des herzustellenden Bezuges ist es, solange das Gerät ordnungsgemäß funktioniert, absolut nicht notwendig, Kalibrierfaktoren neu zu definieren, wenn diese z. B. durch die statistische Absicherung mittels einer Vorperiode sehr nahe bei dem Wert sind, der mit dem Verfahren überhaupt erreichbar ist, also das größtmögliche Maß an Präzision und Richtigkeit verspricht. Die Einbeziehung der Dimension "Zeit" in die Ermittlung stabiler Kalibrierfaktoren ist ein wesentlich sinnvollerer Ansatz als das Streben nach großer Menge - gemeint ist die Zahl der Kalibrierpunkte - in sehr kurzer Zeit. 

Dabei gilt es auch, mit einem anderen Missverständnis aufzuräumen. Kalibrieren bedeutet wie bereits erwähnt die Herstellung eines Bezuges zwischen einer Messgröße und einer Bezugsgröße, also z. B. der Fläche eines Peaks zu der Masse - und damit einer SI-Einheit - einer Substanz. Die chromatografischen Verfahren sind - anders als physikalische Prüfungen wie z. B. der Länge - mit einer relativ großen Messunsicherheit behaftet. Dieses betrifft logischerweise auch jede einzelne Kalibriermessung. 

Irrigerweise wird aber meist so getan oder es so verstanden, als ob die Kalibrierung auf absolut richtigen Werten beruhen würde und die Fehler nur bei den Proben auftreten könnten. Deshalb wird munter drauflos rekalibriert ohne zu schauen, ob die gemessenen Werte nicht im Rahmen der normalen Streuung - ermittelt durch die Validierung bzw. die Vorperiode, dabei kann beides eins sein - liegen und deshalb jeder Aktionismus unterlassen werden sollte. Auch die Bestätigung dessen, dass der Bezug nach wie vor stimmt, ist eine erfolgreiche Kalibrierung und allemal besser, als den Bezug immer wieder neu zu definieren!

Wenn der Bezug immer wieder neu definiert wird, ist die Fehlerbreite des Prüfverfahrens über die Zeit erheblich größer, denn jede Überprüfung der Kalibrierung ist mit einer Messunsicherheit behaftet, deren Bereich in der Regel nach oben oder unten über den Bereich der normalen Langzeit-Streuung hinausgeht und diesen, sollte jedes Mal rekalibriert werden, deutlich vergrößert. Dadurch vergrößert sich natürlich auch die Messunsicherheit des ganzen Prüfverfahrens, was bei Messungen an Grenzwerten unter Umständen unnötig verschärfend wirkt.

Was für den einzelnen Messpunkt gilt, gilt selbstverständlich auch für den Messbereich. Wenn in der Validierung festgestellt wurde, in welchem Bereich ein Verfahren linear ist und man dann mit angemessenem Abstand von diesen Grenzen den Arbeitsbereich definiert, ist es völlig überflüssig, arbeitstäglich oder in kurzen Intervallen die Kalibrierung z. B. mit 5 – 10 Punkten über den gesamten linearen Bereich zu machen. Es ist ein Trugschluss, damit etwas Nennenswertes zur Präzision und Richtigkeit der Ergebnisse beitragen zu können. 

Jede Verletzung der normalen Streuung sollte, statt zu einer spontanen Rekalibrierung, besser zu einer Suche nach der Ursache führen, denn dann stimmt etwas nicht am Gerät, an der gemessenen Lösung oder an der Bearbeitung. Das Wissen darum bzw. die einzig angemessene Reaktion darauf findet man nur noch selten, dabei könnte so ohne große Anstrengung die Wirtschaftlichkeit und Qualität eines Labors erheblich gesteigert werden. 

Wenn Kalibrierfaktoren trotz wunderbarer Basislinientrennung um 10% und mehr springen und die einzige, nahezu stoische Reaktion eine Rekalibrierung ist, gibt es ein Problem. Hier scheint Wissen und technisches Verständnis verlorengegangen zu sein.

Selbstverständlich gibt es auch Ausnahmen, für die der getriebene Aufwand unter analytischen Aspekten seine Berechtigung hat. Beispielhaft erwähnt seien hier Methoden wie die Massenspektrometrie, die in Verbindung mit den verschiedenen chromatografischen Verfahren so empfindlich auf nahezu unvermeidliche Veränderungen des Messsystems reagiert, dass die Bezugsfaktoren sich tatsächlich auch kurzzeitig verändern, nicht nur um einen Mittelwert schwanken. Das Wissen darum sollte vielleicht dazu beitragen, in der Massenspektrometrie nicht die analytische "Geheimwaffe" für alle Fälle zu sehen. Eine unvoreingenommene Kosten-/Nutzenabwägung könnte auch das eine oder andere Mal zu einer anderen Entscheidung führen. 

Doch warum wird gerade im gesetzlich geregelten Bereich (z. B. Pharma, Umwelt, Forensik) ganz anders verfahren und dieses dann manchmal auch geradezu blind und ohne Not durch andere Bereiche kopiert, die gar nicht in dem Umfeld arbeiten?

  

Es geht in den genannten Feldern ausschließlich um die beweissichere Vertretung von analytischen Ergebnissen gegenüber Behörden, Gerichten usw., weil der wissenschaftliche Disput des  wirklich notwendigen im Hinblick auf die Qualität und Zuverlässigkeit der Ergebnisse zu einem unüberschaubaren juristischen Risiko führen würde.

Für Verwaltungsbeamte und Juristen z. B. als analytische Laien sind die Geräte im Labor eine "Black Box". Dagegen kommen Naturwissenschaftler mit allen analytisch begründeten und wissenschaftlich fundierten Aussagen nicht an, es zählt allein der umfassend zu würdigende Beweis. Daher wird eben alles das, was ein Ergebnis beweisbar richtig erscheinen lässt, zu jeder Probe separat und möglichst dicht dran immer wieder neu erstellt, unabhängig davon, ob es analytisch und wirtschaftlich auch sinnvoll ist. Mit dem Nachweis der Kompetenz hat das auch nicht viel zu tun, die Schwerpunkte liegen nur auf dem Führen des Beweises. Solange dieses so ist, wird man damit leben müssen, egal was es kostet und wie nervig es manchmal sein kann.

Fazit:
Mit übertriebenen Vorgaben zu Kalibrierungen wird in etlichen Labors Geld "verbrannt" und gleichzeitig die Qualität der Ergebnisse in ihrer Gesamtheit noch negativ beeinflusst. Hier sollten die Analytiker - soweit sie nicht den beschriebenen Zwängen unterworfen sind - sich vielleicht mal der Fakten besinnen und andere Lösungen ins Auge fassen.

Auf keinen Fall aber sollte es auf Bereiche ausgedehnt werden, die nicht von den Anforderungen tangiert sind, und so vielleicht den fachlichen Disput und die kontinuierliche Verbesserung des analytischen Handwerks beschränken. Hier sind auch die Auditoren in der Pflicht, welche aus diesen gesetzlich geregelten Bereichen kommen.

Sie wollen mehr wissen? Sprechen Sie uns an.