Die unsichtbare Präzision: Messtechnik, Qualitätssicherung und statistische Gewissheit. In der Welt der digitalen Messtechnik, wo Präzision und Zuverlässigkeit entscheidend sind, ist die Qualitätssicherung von Messungen von größter Bedeutung.
Ähnlich wie im Gaming, wo jeder Pixel und jede Berechnung zählt, müssen auch in technischen Projekten die Ergebnisse verlässlich sein. Hier kommt die Messtechnik ins Spiel, die durch standardisierte Verfahren und statistische Analysen die Verlässlichkeit von Daten sicherstellt.
Dr. Wolfgang Kessel von der PTB hat dazu in seiner Publikation zur Allgemeinverständlichen Erläuterung der Messunsicherheit folgenden Text verfasst:
Die […] Definition der Meßunsicherheit drückt die bekannte Tatsache aus, daß Messungen keinen exakten Wert liefern, ja gar nicht liefern können. Messungen sind Unzulänglichkeiten und Unvollkommenheiten unterworfen, die nicht exakt quantifiziert werden können. Einige von ihnen haben
ihre Ursache in zufälligen Effekten, wie kurzzeitigen Schwankungen der Temperatur, der Feuchtigkeit und des Luftdruckes der Umgebung. Auch die nicht gleichmäßige Leistungsfähigkeit des Beobachters, der die Messung ausführt, kann Ursache zufälliger Effekte sein: sei es, daß bei der Ablesung eines Wertes gewisse Abweichungen von einem Skalenwert geschätzt werden müssen oder ein Parameter in einem Meßprozeß eingestellt werden muß. Messungen, die unter den gleichen Bedingungen wiederholt werden, zeigen auf Grund dieser zufälligen Einflüsse unterschiedliche Ergebnisse.
Andere Unzulänglichkeiten und Unvollkommenheiten haben ihre Ursache darin, daß gewisse systematische Effekte nicht exakt korrigiert werden können oder auch nur näherungsweise bekannt sind. Hierher gehören
u. a. die Nullpunktsabweichung eines Meßinstrumentes, die Veränderung der charakteristischen Werte eines Normales zwischen zwei Kalibrierungen (Drift), die Voreingenommenheit des Beobachters, einen zuvor erhaltenen Wert bei der Ablesung wiederzufinden, oder auch die Unsicherheit, mit der der Wert eines Referenznormales oder Referenzmaterials in einem Zertifikat oder Handbuch angegeben wird.
Neben statistischen Vertrauensniveaus sind es vor allem standardisierte Verfahren der Messsystemanalyse (MSA), die die Zuverlässigkeit von Messungen greifbar machen. Ohne ein fähiges Messsystem können Maschinen- oder Prozessfähigkeitskennzahlen wie Cm, Cmk, Pp oder Ppk keine belastbaren Aussagen liefern. Deshalb bildet die Messmittelfähigkeit die Grundlage jeder verlässlichen Qualitätsaussage.
Für Laien lässt sich das so zusammenfassen: Ein Messgerät ist wie eine Kamera. Ist die Linse scharf gestellt (Genauigkeit), das Bild wiederholbar gleich (Wiederholpräzision), bei jedem Fotografen konsistent (Reproduzierbarkeit) und über Zeit stabil, dann können wir den Aufnahmen vertrauen.
Ein grundlegendes Werkzeug in der Messtechnik ist das Verfahren 1 zur Beurteilung der Messmittelfähigkeit (MSA Verfahren 1). Dieses Verfahren dient dazu, die Eignung eines Messmittels für eine bestimmte Messaufgabe zu bewerten, indem es sich auf die Wiederholpräzision (Repeatability) konzentriert. Es untersucht, wie nahe einzelne Messwerte beieinander liegen, wenn derselbe Prüfling mit demselben Merkmal, vom gleichen Bediener und mit demselben Messmittel unter identischen Bedingungen gemessen wird.
Eine wichtige Voraussetzung für dieses Verfahren ist, dass das Messmittel eine ausreichende Auflösung besitzt, typischerweise nicht mehr als 5% der Toleranz des zu messenden Merkmals, um sichere und ablesbare Messwerte zu gewährleisten.
Verfahren 1 ist eine Kurzzeitbeurteilung und wird oft im Rahmen routinemäßiger Audits oder Zwischenprüfungen eingesetzt, um die Messbeständigkeit unter möglichst realen Bedingungen zu beurteilen.
Die Verlässlichkeit von Messungen wird durch die Messunsicherheit ausgedrückt, die oft mit Vertrauensniveaus quantifiziert wird. Viele Messungen, insbesondere in der Qualitätssicherung, folgen einer Normalverteilung (auch Gauß-Verteilung genannt), die grafisch als Glockenkurve dargestellt wird. Innerhalb dieser Normalverteilung liegen bestimmte Prozentsätze der Datenpunkte innerhalb definierter Standardabweichungen (Sigma, σ) vom Mittelwert:
68,27% Vertrauensniveau (±1σ): Etwa 68% der Messwerte liegen innerhalb einer Standardabweichung vom Mittelwert. Damit kann man bereits Qualitätssicherung betreiben. Von zB. 10 Prüflingen sind also 7 „gut genug“ bzw. maßhaltig.
95,45% Vertrauensniveau (±2σ): Dieses Niveau bedeutet, dass etwa 95,45% der Messwerte innerhalb von zwei Standardabweichungen vom Mittelwert liegen. Dies ist ein häufig verwendetes Konfidenzniveau, beispielsweise auch bei Meinungsumfragen, wo es die „Fehlermarge“ angibt.
99,73% Vertrauensniveau (±3σ): Ein noch höheres Vertrauensniveau, bei dem 99,73% der Messwerte innerhalb von drei Standardabweichungen vom Mittelwert liegen. Diese „Drei-Sigma-Regel“ wird in den empirischen Wissenschaften oft als nahezu absolute Gewissheit betrachtet. In der Praxis somit häufig zwar „nice to have“ aber bitte nicht um jeden Preis anstreben.
Diese statistischen Gewissheiten bilden die Grundlage für fortgeschrittene Qualitätsmanagement-Methoden. Sie ermöglichen es, die Zuverlässigkeit und Konsistenz eines Prozesses oder einer Messung quantifizierbar zu machen.
Die „Level 92“-Philosophie findet hier eine weitere Bestätigung: Es geht darum, ein hohes, statistisch signifikantes Niveau an Qualität und Zuverlässigkeit zu erreichen, das für den beabsichtigten Zweck „gut genug“ ist, ohne sich in einem unerreichbaren Streben nach absoluter Perfektion zu verlieren.
Messmittelfähigkeit: Die Basis möglichst verlässlicher Daten
Ein Messmittel ist „fähig“, wenn es die Realität so genau und präzise abbildet, dass die gewonnenen Werte zuverlässig für Prozessentscheidungen genutzt werden können. Die wichtigsten Kriterien sind:
- Genauigkeit (Bias): Abweichung zum Referenzwert.
- Wiederholpräzision (Repeatability): Wie nahe liegen mehrere Messungen desselben Prüflings beieinander?
- Vergleichspräzision (Reproducibility): Wie stark beeinflussen unterschiedliche Bediener die Ergebnisse?
- Linearität: Ist das Messsystem über den gesamten Messbereich hinweg verlässlich?
- Stabilität: Liefert das Messsystem über längere Zeiträume konstante Ergebnisse?
- Diskriminierung (ndc): Erkennt das Messsystem zuverlässig Unterschiede zwischen Prüflingen?
Die Verfahren der Messsystemanalyse (MSA)
Verfahren 1 – Kurzzeitbeurteilung der Messmittelfähigkeit
Das Verfahren 1 dient zur Bewertung neuer oder geänderter Messsysteme. Es konzentriert sich auf die Wiederholpräzision und – sofern ein Referenznormal vorliegt – auch auf die systematische Abweichung.
- Praxis: 20–50 Wiederholmessungen am Normalteil durch denselben Prüfer unter identischen Bedingungen.
- Kennzahlen: Cg (Streuung) und Cgk (Streuung + Abweichung zum Sollwert).
- Kriterien: Auflösung ≤ 5% der Toleranz; Kalibrierunsicherheit des Normals deutlich kleiner als die Toleranz.
Verfahren 1 ist also eine Art „Schnelltest“, bevor ein Messmittel in den produktiven Einsatz geht.
Verfahren 2 – Gauge R&R (Wiederhol- und Vergleichspräzision)
Während Verfahren 1 die reine Wiederholbarkeit prüft, geht Verfahren 2 weiter: Es untersucht zusätzlich den Einfluss mehrerer Bediener.
- Praxis: Mehrere Prüfer messen mehrere Prüflinge, jeweils mehrfach.
- Kennzahl: R&R-Wert (Anteil der Messsystemstreuung an der Gesamtschwankung).
- Zielwerte: R&R < 10% der Toleranz ideal, 10–30% akzeptabel, >30% kritisch.
Dieses Verfahren ist besonders wichtig, wenn menschlicher Einfluss eine Rolle spielt, beispielsweise bei Handmessungen mit Lehren oder Messschrauben.
Verfahren 3 – Für automatisierte Systeme
Das Verfahren 3 ist eine Sonderform des Verfahrens 2 und prüft Messsysteme ohne direkten Bedienereinfluss, etwa Koordinatenmessmaschinen oder automatisierte Inline-Prüfungen.
- Praxis: Wiederholungstests am System, meist automatisiert.
- Kennzahl: ebenfalls R&R-Wert.
- Ziel: Nachweis, dass auch ohne Bedienereinfluss das System stabil und fähig misst.
Verfahren 7 – Attributive Prüfungen
Nicht alle Merkmale lassen sich in Zahlen ausdrücken. Oft geht es um Gut/Schlecht-Entscheidungen, etwa bei Sichtprüfungen oder Grenzlehren. Hier setzt Verfahren 7 an.
- Praxis: Prüfer oder Systeme bewerten dieselben Teile mehrfach.
- Kennzahlen: Übereinstimmungsrate, Kappa-Wert oder Fehlerquote.
- Ziel: Sicherstellen, dass Prüfentscheidungen eindeutig, reproduzierbar und zuverlässig sind.
Messunsicherheit und Vertrauensniveau
Die Verlässlichkeit von Messungen wird durch die Messunsicherheit ausgedrückt. Sie beschreibt den Bereich, in dem der wahre Wert mit einer bestimmten Wahrscheinlichkeit liegt. Hierbei spielen auch die statistischen Vertrauensniveaus eine zentrale Rolle:
- 68,27% (±1σ): Erste Einschätzung, etwa 7 von 10 Prüflingen sind innerhalb der Toleranz.
- 95,45% (±2σ): Häufig verwendetes Niveau, auch bekannt aus Umfragen als „Fehlermarge“.
- 99,73% (±3σ): Nahezu absolute Gewissheit, oft angestrebt in hochkritischen Anwendungen.
Die zwei Gesichter der Messunsicherheit: Typ A und Typ B
Eine physikalische Messung liefert nie den „wahren Wert“ mit absoluter Sicherheit. Stattdessen wird das Messergebnis immer mit einer Messunsicherheit (u) angegeben, die einen Bereich definiert, in dem der wahre Wert mit einer bestimmten Wahrscheinlichkeit liegt. Diese Unsicherheit entspringt zwei Hauptquellen:
Systematische Abweichungen (Typ B): Hierbei handelt es sich um vorhersehbare, oft konstante Abweichungen, die aus externen Quellen stammen. Beispiele sind Fehler im Kalibrierzertifikat des Messmittels, Umwelteinflüsse wie Temperaturschwankungen oder der individuelle Einfluss des Bedieners.
Zufällige Abweichungen (Typ A): Diese Unsicherheiten ergeben sich aus der Streuung wiederholter Messungen unter denselben Bedingungen. Sie sind unvorhersehbar und werden statistisch erfasst, beispielsweise durch die Standardabweichung einer Messreihe. Dies kann später dabei helfen, Prozesse zu zentrieren.
Die kombinierte Messunsicherheit ergibt sich aus beiden Anteilen. Wichtig: Sie ist kein Fehler, sondern ein Maß für das Vertrauen in ein Messergebnis.
Beispiel: Wenn ein Messschieber den Wert 10,00 mm ± 0,05 mm angibt, heißt das, dass mit einer hohen Wahrscheinlichkeit der wahre Wert zwischen 9,95 und 10,05 mm liegt. Diese gemeinsame Betrachtung macht das Vertrauen in ein Messergebnis erst greifbar.
Auch hier möchte ich noch einmal Professor Kessel zitieren:
Aus der Definition der Meßunsicherheit geht hervor, daß sie ein quantitatives Maß der Qualität des jeweiligen Meßergebnisses ist. Sie gibt eine Antwort auf die Frage, wie gut das gewonnene Ergebnis den Wert der Meßgröße widerspiegelt. Sie ermöglicht es dem Anwender, die Verläßlichkeit des Meßergebnisses einzuschätzen, etwa um die Ergebnisse verschiedener Messungen der gleichen Meßgröße miteinander oder mit Referenzwerten zu vergleichen. Das Vertrauen in die Vergleichbarkeit von Meßergebnissen ist wichtig im nationalen Handel und internationalen Warenaustausch. Es hilft, Handels- und Wirtschaftsbarrieren abzubauen.
Häufig soll ein Meßwert mit Grenzwerten verglichen werden, die in einer Spezifikation oder normativen Vorschrift festgelegt sind. In diesem Falle kann man anhand der Meßunsicherheit erkennen, ob das Meßergebnis deutlich innerhalb der vorgegebenen Grenzen liegt oder ob die Forderungen nur knapp erfüllt werden. Liegt der gemessene Wert sehr nahe bei einem Grenzwert, so besteht ein großes Risiko, daß die Meßgröße doch nicht die gestellten Forderungen einhält. Die beigeordnete Meßunsicherheit ist in diesem Fall eine wichtige Hilfe, dieses Risiko realistisch einzuschätzen.
Lineare Regression und Messunsicherheit bei Messreihen
In der Praxis werden oft ganze Messreihen aufgenommen. Um Trends oder Zusammenhänge zu analysieren, nutzt man die lineare Regression. Dabei wird eine Gerade durch die Messpunkte gelegt, die den Zusammenhang zwischen zwei Größen beschreibt.
Auch hier spielt die Unsicherheit eine Rolle: Je größer die Streuung der Punkte um die Regressionslinie, desto unsicherer die Vorhersage. Die Statistik liefert Werkzeuge wie das Bestimmtheitsmaß (R²) oder Konfidenzintervalle, um diese Unsicherheit quantitativ zu erfassen.
Für Laien lässt sich das so erklären: Je enger die Messpunkte an der Linie liegen, desto besser ist die Vorhersage. Weichen sie stark ab, sinkt das Vertrauen in die Aussage.
Best Practices für die Anwendung
- Führen Sie eine MSA immer vor Maschinen- oder Prozessfähigkeitsanalysen durch.
- Wiederholen Sie die Analyse bei neuen Messsystemen, nach Reparaturen, Prozessänderungen oder in regelmäßigen Intervallen.
- Nutzen Sie realistische Bedingungen: gleiche Umgebung, gleiche Prüfer, gleiche Bauteile.
- Dokumentieren Sie die Ergebnisse – sie sind zentral für Audits und Kundenfreigaben.
- Streben Sie „gut genug“ an: Ziel ist nicht absolute Perfektion, sondern belastbare, zweckgerechte Ergebnisse.
Fazit: Die Level-92-Philosophie in der Messtechnik
In der Messtechnik geht es nicht darum, eine unerreichbare Perfektion zu erzwingen. Entscheidend ist, ein hohes, statistisch abgesichertes Maß an Qualität und Zuverlässigkeit zu erreichen.
Ein Messsystem muss „fähig“ sein, nicht makellos, sondern verlässlich für den vorgesehenen Zweck. Genau darin liegt die Kunst: Die Balance zwischen Präzision, Aufwand und Pragmatismus. Oder, in der Sprache der Level-92-Philosophie -> „gut genug, um wirklich weiterzukommen.“