Statistische Prozesskontrolle Thomas Reiter
  Belastbarer Umgang mit technischen Unsicherheiten

Statistik, RAMS & Qualitätsmanagement
Auf dieser Seite suchen
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII------Dienstleistungen-----IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="first_item"_im_ersten_li_tag_xxxxxxxx
    • MTBF Berechnung
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="last_item"_im_ersten_li_tag_sowie_zusaetzliche_/ul_und_/li_tags_am_schluss_xxxxxxxx
    • Funktionale Sicherheit
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-----Fachartikel---IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="first_item"_im_ersten_li_tag_xxxxxxxx
    • RAMS
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • RAMS Normen
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Funktionale Sicherheit
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • MTBF
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • FMEA, FMECA
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Blockdiagramme
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Fehlerbaumanalyse
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Ereignisbaumanalyse
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Markovdiagramme
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Weibullanalyse
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • SPC Einführung
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • SPC: Eingriffsgrenzen bei gestutzter Normalverteilung
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="last_item"_im_ersten_li_tag_sowie_zusaetzliche_/ul_und_/li_tags_am_schluss_xxxxxxxx
    • SPC: Eingriffsgrenzen bei Rayleighverteilung
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-----Fachliteratur---IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="first_item"_im_ersten_li_tag_xxxxxxxx
    • Statistische Versuchsplanung (DoE)
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Statistische Prozessregelung (SPC)
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="last_item"_im_ersten_li_tag_sowie_zusaetzliche_/ul_und_/li_tags_am_schluss_xxxxxxxx
    • Mean Time Between Failures (MTBF)
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-------Referenzen-----IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="first_item"_im_ersten_li_tag_xxxxxxxx
    • Kunden
    • xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-beachte_class="last_item"_im_ersten_li_tag_sowie_zusaetzliche_/ul_und_/li_tags_am_schluss_xxxxxxxx
    • Projekte
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-------Profil-----IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-------Kontakt-----IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
  • IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII-------English-----IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
Sitemap

Statistische Prozesskontrolle, SPC

Inhaltsverzeichnis                                        

1. Linksammlung SPC für verschiedene Zielgruppen
2. Statistische Prozesskontrolle: Allgemeine Kernaussagen
3. Statistische Prozesskontrolle, Grundidee
4. Veranschaulichung Statistische Prozesskontrolle: Laufender Prozess
5. Veranschaulichung Statistische Prozesskontrolle: Messsystem Analyse (MSA)
6
. Echte Statistische Prozesskontrolle: Regelkarten

Eins hoch

1. Linksammlung SPC

Eins runter
Dies ist die Wissensseite zum Thema SPC. Statistische Prozesskontrolle | Thomas Reiter
Die Hauptadressaten sind Unternehmen, die das erste Mal geschäftsmässig mit dem Thema Statistische Prozesskontrolle konfrontiert werden. Diese Seite will ein grundsätzliches Gefühl dafür vermitteln, auf was man sich bei Statistischer Prozesskontrolle ggfs. einlässt.
Der Begriff kommt aus dem Englischen und meint "Statistical Process Control", was zumeist übersetzt wird mit "Statistische Prozesskontrolle". Alternative Übersetzungsvarianten sind, geordnet nach Häufigkeit:
Statistische Prozesskontrolle ist die treffendste Übersetzung, da in der Technik der Begriff kontrollieren auch Bedeutungen wie regeln, steuern, unter Kontrolle haben, usw. vereint.
Die folgende Tabelle listet einige Ressourcen zum Thema SPC auf, die an spezifische Personenkreise gerichtet sind.

Nr.
Ressource
Beschreibung
1.
SPC Projekt Leitfaden
kostenlos-auf-Anfrage
Handlungsempfehlungen für Unternehmen, die zum ersten Mal mit
Statistischer Prozesskontrolle konfrontiert werden.
8 Seiten. Das gesamte Kapitel 3 des SPC Skripts
2.
SPC für Entscheider
kostenlos-auf-Anfrage
Statistische Prozesskontrolle kurz und knapp für Entscheider.
Ohne Mathematik. 3 Seiten. Das gesamte Kapitel 5 des SPC Skripts
3.
SPC für Ingenieure
kostenlos-auf-Anfrage
SPC kurz und knapp für Prozessingenieure. Die ersten 7 Seiten des Kapitels 6 des SPC Skripts. Sehr wenig Mathematik.
4.
SPC Skript
450 seitiges pdf mit 44 Excel Vorlagen. Alle Inhalte und Beispiele sind ungeschönt,
und geben daher die SPC Wirklichkeit wieder.
Die ersten 20 Seiten können kostenlos heruntergeladen werden.
10 grossformatige Bilder geben Einblicke in die Excel Vorlagen.
5.
SPC Beratung
Beratungsdienstleistung zum Thema Statistische Prozesskontrolle.
Sie beschreiben mir Ihre Situation, ich gebe ihnen meine Einschätzung in Klartext,
und mache Ihnen Handlungsvorschläge, ggfs. in Schriftform. Sie müssen keine vertraulichen Daten preisgeben. Als Videokonferenz.

Eins hoch

2. Statistische Prozesskontrolle: Allgemeine Kernaussagen

Eins runter
Statistische Prozesskontrolle kommt sehr oft als QM Mode daher, allerdings ist sie in keiner Weise besser ist als "klassische" Prozessüberwachung. SPC kann unter bestimmten technischen und wirtschaftlichen Bedingungen die effizienteste (und damit anzustrebende) Prozessüberwachungsform sein. Kann, wohlgemerkt. 
Das Grundproblem

Wie stellt man sicher, dass ein Produktionsprozess dauerhaft genau die Qualität produziert, die man möchte? Der quantitative Zugang dazu sind die Produktmasse, insbesondere deren Toleranzen. Solange alle (wichtigen) Toleranzen eingehalten werden, entspricht die Qualität der hergestellten Produkte der Erwartung.
Wann immer technisch und wirtschaftlich möglich, sollte vollautomatische 100% Prüfung als Prozessüberwachungsform angestrebt werden. Prozesse sollten also soweit es geht so ausgelegt werden, dass jedes produzierte Teil automatisch vermessen wird.
Das bisher Gesagte ist universell gültig und zeitlos. Vollautomatische 100% Kontrolle mit enger gefassten Grenzen sind der Statistischen Prozesskontrolle in jedem Fall überlegen.

Eins hoch

3. Statistische Prozesskontrolle, Grundidee

Eins runter
Nun gibt und gab es schon immer Produktionsprozesse, bei denen man aus technischen Gründen nicht jedes einzelne produzierte Teil überprüfen kann, oder aus wirtschaftlichen Gründen nicht will. Welche Möglichkeiten hat man jetzt, um hinreichend sicherzustellen, dass alle ausgelieferten Teile, insbesondere die ungeprüften, innerhalb Toleranz liegen?
Man nimmt bei laufendem Prozess ab und zu ein Teil heraus und vermisst es. Je nachdem wie das Messergebnis ausfällt, werden Entscheidungen hinsichtlich des Prozesses getroffen. Die genaue Vorgehensweise kann sehr unterschiedlich sein, und hängt von der Unternehmenskultur und den Marktanforderungen ab. Es ist durchaus möglich, dabei ganz ohne Mathematik auszukommen, und rein auf die Erfahrung und Einschätzung von Prozessexperten zu setzen. Das kommt häufiger vor als viele denken, und ist nicht etwa altmodisch, sondern schlicht eine wirtschaftliche Implementierung der Sicherstellung von Kundenforderungen. Wo dies nicht ausreicht, müssen quantitative Verfahren bemüht werden, doch damit sind wir noch lange nicht bei Statistischer Prozesskontrolle. Diese Verfahren gehen ungefähr so:
Obwohl diese Vorgehensweise nach Statistischer Prozesskontrolle anmutet, ist sie es nicht,  weil das statistische Fundament fehlt, oder zumindest nicht ermittelt wurde. Meistens wurden solche Verfahren in der Vergangenheit von Prozesskennern entwickelt, seitdem nie hinterfragt oder gar validiert, doch sie haben sich in der Praxis offenbar bewährt. Auch das ist nicht etwa altmodisch, sondern wiederum eine wirtschaftliche Implementierung der Sicherstellung von Kundenforderungen.

Der Nachteil solcher Verfahren ist, dass sie nur im eigenen Unternehmen existieren, und von anderen Teilnehmern in der Lieferkette "ad hoc" oder vom Himmel heruntergefallen vorkommen. Das betrifft vor allem die Frage, wie sicher solche Verfahren sind, insbesondere wie gut und wie schnell sie Veränderungen im Prozess offenbaren.
Daher erscheint es naheliegend, Methoden zu verwenden, die von jedermann nachvollzogen werden können. Hierfür sind statistische Methoden geradezu prädestiniert, denn Mathematik ist universell, und damit jederzeit durch Dritte nachvollziehbar.

Um von dieser Stelle aus zur Statistischen Prozesskontrolle zu kommen, brauchen wir 2 grundlegende Eigenschaften:
  1. Es ist vorteilhaft, mit Mittelwerten und Standardabweichungen von Stichproben zu arbeiten, denn für diese beiden Parameter existieren unzählige Verfahren, die quantitative Rückschlüsse auf die zugrundeliegenden Einzel-Messwerte ermöglichen.
  2. Die meisten (im Produktionskontext nahezu alle) statistischen Verfahren benötigen noch eine weitere Annahme, damit sie funktionieren, nämlich die Verteilungsform der Messwerte. 
Der erste Punkt dürfte für die meisten Ingenieure naheliegend erscheinen, und braucht daher nicht weiter erläutert werden. Man zieht Stichproben, und berechnet daraus Mittelwert und Standardabweichung. Technische Rechenhilfen gibt es dafür zuhauf.
Der zweite Punkt ist in der Theorie viel schwieriger, erweist sich im betrieblichen Alltag jedoch als äusserst einfach: 
Die Verteilungsform ergibt sich nämlich ausschliesslich und eindeutig aus der Natur des Prozessmasses, und dafür kommen im produktionstechnischen Umfeld überhaupt nur 3 verschiedene Möglichkeiten in Betracht, wovon die Normalverteilung die bei weitem häufigste ist. Mit anderen Worten:
Auf statistischer Ebene wirkt die Kenntnis der Verteilungsfunktionsform wie ein Nachbrenner:
Das über die Verteilungsfunktionsform Gesagte ist für die Statistische Prozesskontrolle so fundamental, dass er hier noch einmal mit anderen Worten wiederholt wird:

Die Form der Verteilungsfunktion ergibt sich allein aus der Natur des Prozessmasses.
Welche das ist, lässt sich ohne akademisches Wissen (z.B. mit Fragenliste) herausfinden.
Es kommen nur 3 Möglichkeiten in Betracht, wobei die Normalverteilung am häufigsten ist.

Durch Kenntnis der Verteilungsfunktionsform bekommt man viel Information mit wenigen Messwerten.

Warum ist das so?
Hier muss man zunächst festhalten, dass Verteilungsfunktionen für die meisten Ingenieure "nur" Modelle zur möglichst guten Beschreibung von Daten sind (künstliche Verteilungsfunktion). Man nennt diese Herangehensweise Heuristik. Doch Verteilungsfunktionen verkörpern viel mehr. Sie sind nämlich eine direkte Folge aus der "Entstehungsgeschichte" oder dem "Entstehungsmechanismus" der Messwerte. Verteilungsfunktionen beschreiben die dahinter stehende Physik. Meistens handelt es sich um Mechanismen, die in verschiedensten Bereichen der Natur anzutreffen sind (natürliche Verteilungsfunktion).
Davon abweichend gibt es auch Verteilungsfunktionen, die "erfunden" wurden, um spezielle statistische Berechnungen zu ermöglichen. Einen Überblick darüber, welche Verteilungsfunktionen natürlich oder künstlich sind, findet man auf der Seite Formparameter. Die Beziehungen der Verteilungsfunktionen untereinander werden auf der Seite Verteilungsfunktionen-Beziehungen beschrieben

Wir nehmen im Weiteren der Einfachheit halber Normalverteilung an.

Eins hoch

4 Veranschaulichung der Statistischen Prozesskontrolle:
Laufender Prozess

Eins runter
In der Statistischen Prozesskontrolle gibt es einen allgemeingültigen Massstab, mit dem man die Prozessqualität misst.
Dieser so genannte cpk Wert, insbesondere wie er berechnet wird, ist äusserst seltsam, weshalb an dieser Stelle nicht näher darauf eingegangen, und stattdessen auf das SPC Skript verwiesen wird. Der cpk ist extrem nichtlinear, und vom Wertebereich willkürlich, sodass man mit ihm weder rechnen, noch Vergleiche anstellen kann. Der praktisch relevante Wertebereich beträgt [1,33 ... 2,00].
Die folgenden Bilder veranschaulichen, was sich dahinter verbirgt. Die horizontale Achse kann als Zeitachse aufgefasst werden; mit fortschreitender Zeit werden immer mehr Teile vermessen. Zuerst betrachten wir ein Prozessmass, das einen cpk Wert von 1,33 aufweist.
SPC Prozessfähigkeit cpk 1,33
Wer sich das erste Mal mit Statistischer Prozesskontrolle beschäftigt, sollte hier sehr genau hinsehen, und das wirklich einmal sacken lassen: Es sind 16.000 Messwerte abgebildet, wobei nur ein einziger ausserhalb einer Toleranzgrenze liegt (symbolisch vergrössert, auf OTG liegend dargestellt).
Nochmal: Bei einem cpk Wert von 1,33 reden wir gerade einmal vom Einstieg in die Statistische Prozesskontrolle!

Prozesse mit einem c
pk Wert von 1,33 oder grösser werden in der SPC als fähig bezeichnet. Nur solche Prozesse sind geeignet für die Statistische Prozesskontrolle.

Das nächste Bild zeigt ein Prozessmass mit einem c
pk Wert von 1,66. Dieser Wert dürfte in so genannten Qualitätsvereinbarungen am häufigsten vorkommen, insbesondere in solchen, wo keine Seite weiss wovon eigentlich die Rede ist. Man sieht deutlich, wie von den 16.000 Messwerten kein einziger auch nur in der Nähe einer Toleranzgrenze liegt. Statt 16.000 müsste man 1.700.000 Teile, also gut 100 mal mehr produzieren, um ein Ausschussteil zu bekommen. Zwischen 1,33 und 1,66 liegen also Welten!
SPC Prozessfähigkeit cpk 1,66

Der Vollständigkeit halber sollen noch die entsprechenden Verhältnisse bei cpk = 2,00 genannt werden: Dann müsste man 500.000.000 Teile produzieren, um endlich mal ein Ausschussteil zu finden. Das sind etwa Faktor 300 mehr als bei cpk = 1,66, also auch zwischen 1,66 und 2,00 liegen wieder Welten!

Das nächste Bild zeigt die Verhältnisse für 1,33 und 1,66 gemeinsam in einer anderen Darstellung.
SPC Prozessfähigkeit cpk 1,33 vs 1,66
Die horizontale Achse verkörpert nun die Messwerte, und die senkrechte Achse ist die relative Häufigkeit. Beide Kurven sind massstabsgerecht; die 1,33 Kurve ist genau 4, und die 1,66 Kurve genau 5 Teilstriche hoch. Für die Breite der Kurven lässt sich dasselbe sagen: Die 1,66 Kurve ist genau 4, und die 1,33 Kurve genau 5 Einheiten breit. 
Es ist kein Zufall, dass 1,66/1,33 genau diesem 5/4 Verhältnis entspricht.

Die bisherigen Betrachtungen gehen von einem Prozess aus, der genau in der Toleranzmitte liegt. Dadurch werden Darstellung und Beschreibung deutlich einfacher, ohne nennenswerte Beschränkung der Allgemeinheit. Bei aussermittigen Prozessen ergäbe sich bei selben cpk Werten sogar noch weniger Ausschuss (bestenfalls die Hälfte).
In einfachen Worten sagt der cpk Wert also 2 Dinge gleichzeitig aus:
  1. wie "eng" die einzelnen Messwerte beieinanderliegen (Streuung)
  2. wieviel "Platz" zwischen der Messwertewolke und der näher gelegenen Toleranzgrenze ist (Lage)
Je weiter der Prozess ausserhalb der Toleranzmitte liegt, desto kleiner muss die Streuung sein, damit der cpk Wert sich nicht verschlechtert.

Warum liegt die Grenze für fähige Prozesse gerade bei cpk = 1,33?
Einen sachlichen Grund für eine feste Grenze gibt es nicht. Mann kann aber allgemein folgendes sagen: Je grösser der cpk Wert, desto weniger Aufwand hat man bei praktisch laufender Statistischer Prozesskontrolle. Je grösser der cpk Wert, desto mehr "Platz für die Messwerte, sich im Toleranzband auszutoben", ohne dass eine Toleranzgrenze verletzt wird.
Etwas präziser formuliert: Je grösser der cpk Wert, desto weniger Prüfaufwand bei gleichbleibender statistischer Sicherheit. Je nachdem wie gross der Prüfaufwand ausfällt, würde -rein praktisch- nichts dagegen sprechen, bereits bei niedrigeren cpk Werten SPC zu betreiben. Das Problem liegt vielmehr darin, dass sich die cpk > 1,33 Forderung überall etabliert hat, und Prozesse mit niedrigeren cpk Werten (und damit verbunden höheren Ausschussanteilen) in der SPC Praxis schlicht nicht akzeptiert werden.


Warum gerade 0,33 Schritte?
Der cpk Wert misst die Entfernung des Mittelwertes zur näher gelegenen Toleranzgrenze. Dabei entspricht der dimensionslose Wert 0,33 einer Standardabweichung. Bei cpk = 1,33 befindet sich der Prozessmittelwert demnach Im Abstand von 4 Standardabweichungen zur näher gelegenen Toleranzgrenze. Die Betrachtungen weiter oben zeigen, dass das 0,33 Raster extrem grob ist.
Praktisch relevante cpk Werte liegen im Bereich zwischen 1 und 2. SPC fähige Prozessmasse haben cpk Werte im Bereich 1,33 bis 2. Beachte, dass 1,33 erst der Einstieg, 2,00 dagegen bereits extrem gut ist.

Die folgende Tabelle stellt das bisher Gesagte in einem erweiterten Bereich zusammengefasst dar. Bei der Angabe des Ausschussanteils wird folgendes vorausgesetzt:
 cpk-Wert 
Ausschussanteil
Anmerkungen
0,33
32%

0,66
4,6%
In diesem Bereich liegen die allermeisten klassisch überwachten Prozesse. Prozesse mit manuellen Arbeitsschritten kommen nur schwer auf unter 1%.
1
0,26%
1,33
 0,0064% = 64 ppm
Ab hier beginnt SPC.
Der Unterschied im Ausschussanteil zwischen 1,00 und 1,33 liegt bei Faktor 40. 1,00 ist bereits ein sehr guter klassischer Prozess, doch der Einstieg in SPC erfordert eine Verbesserung um Faktor 40. Wer glaubt, man könne klassische Prozesse dahin bringen, sollte sich einmal fragen, warum bisher so viel Potential verschenkt wurde.
1,66
0,56 ppm
Sehr guter Prozess.
Weitere evtl. Verbesserung kaum sinnvoll begründbar.
2,00
0,002 ppm
= 2 / 109
2,00 kann man als Obergrenze ansehen. Darüber hinaus ist es nur noch Spielerei.
2,33
0,000.0026 ppm
= 2,6 / 1012
Wer mit solchen Werten als Forderung konfrontiert wird, hat es höchstwahrscheinlich mit SPC- Bullshit zu tun.
2,66
0,000.000.0014 ppm =1,4 / 1015


Eins hoch

Veranschaulichung der Statistischen Prozesskontrolle:
Messsystem Analyse (MSA)

Eins runter
Prozessmasse, die mittels Statistischer Prozesskontrolle überwacht werden, müssen mit dafür geeigneten Messmitteln gemessen werden. Die Notwendigkeit dieser so genannten fähigen Messmittel wird in SPC Literatur und betrieblichen Verfahrensanweisungen stark überbewertet. Hierzu folgende Kernaussage:

Hauptzweck von fähigen SPC Messmitteln ist nicht, möglichst genau zu messen, sondern
(insbesondere schleichende) Veränderungen des Produktionsprozesses möglichst sicher zu erkennen.

Die beiden Dinge haben nicht viel miteinander zu tun.

Im SPC Skript wird anhand von Beispielen gezeigt, dass ein im SPC Sinne fähiges Messmittel weniger geeignet sein kann als ein extrem unfähiges, d.h., letzteres kann durchaus in der Lage sein, Prozessänderungen frühzeitiger zu erkennen. Das soll nicht heissen, dass fähige Messmittel nicht erstrebenswert sind, sondern wie eingangs bereits gesagt, die Eigenschaft "fähig" nicht zu hoch bewertet werden sollte. Der nächste Kernsatz weiter unten beschreibt, wie man damit praktisch umgehen sollte.

Die Fähigkeit (bzw. der Grad der Fähigkeit) von Messmitteln für die Statistische Prozesskontrolle wird anhand von 2 speziellen Verfahren ermittelt. In einfachen Worten kann man es so beschreiben:
  1. Messung der Messgenauigkeit des Messmittels "an sich" unter idealisierten Bedingungen (Verfahren 1)
  2. Messung der Messgenauigkeit des Messmittels unter praktischen Bedingungen (Verfahren 2 oder 3) 

Den Ablauf einer Messsystemanalyse kann man so beschreiben:

    a) Das Messmittel muss eine Auflösung von mindestens 20 aufweisen, d.h., in das Toleranzband müssen mindestens             20 unterscheidbare Stufen passen. Wenn dies erfüllt ist, dann:

    b) Das Verfahren 1 muss einen sog. cgk Wert von mindestens 1,33 ergeben. Wenn das erfüllt ist, dann:

    c) Entscheidung entweder für Verfahren 2 oder 3

    d) Das Verfahren 2 oder 3 muss einen sog. Gauge R&R Wert von idealerweise < 10%, mindestens jedoch < 30%
        ergeben.

Besteht das Messmittel die
Messsystemanalyse, dann wird es als fähig bzw. bedingt fähig eingestuft. Diese Bezeichnungen sind etwas irreführend, denn wie zuvor schon erwähnt kann man auch mit nicht-fähigen Messmitteln gut SPC betreiben. Ausserdem existieren keine allgemein anerkannten Verfahrensweisen, was bei bedingt fähigen Messmitteln evtl. zu beachten ist, d.h., der "konforme" Anwender wird auch bedingt fähige Messmittel uneingeschränkt verwenden.
Eine sinnvolle praktische Herangehensweise sieht so aus:

Beschaffe das unter den gegebenen wirtschaftlichen und technologischen Randbedingungen
beste beschaffbare Messmittel, ermittle den Istzustand bez. der Kriterien der MSA,
aber bewerte es anhand der rohen Messdaten und wende es entsprechend an.


Die Kriterien der MSA (obige Punkte a), b) und d)) sollten primär als Informationsquelle über die Messmittel verstanden werden, und weniger als Entscheidungsgrundlage für die (Nicht-) Anwendung. Dazu folgende Erläuterungen:

Zu a)
Die Forderung "Auflösung mindestens 20" ist sinnvoll, aber nicht essentiell. Sie hat absolut nichts mit Messgenauigkeit zu tun, sondern ist allein einer Unzulänglichkeit des Verfahrens 1 geschuldet. Auflösungen von u. U. deutlich kleiner 20 sind im praktischen SPC Betrieb im Endeffekt nicht nachteilig. Die Begründung dafür ist etwas umfangreich. Dies, und insbesondere auch der Umgang mit derartigen Situationen, wird im SPC Skript genauer erklärt bzw. durchgerechnet.

Zu b)
Die Forderung cgk > 1,33 ist ebenfalls sinnvoll, allerdings ebenfalls nicht essentiell. Da dieses Verfahren verschieden geartete Messabweichungen mit einer einzigen Kenngrösse ausdrückt, kommt es sehr darauf an, wie sich das Messmittel im Detail verhält. Die folgenden drei Bilder zeigen beispielhaft, was sich dahinter verbergen kann, und die Vergleichstabelle darunter birgt Überraschungen.

Statistische Prozesskontrolle: cgk 1,33     Statistische Prozesskontrolle: cgk 0,00 

   Statistische Prozesskontrolle: cgk 0,33

Messreihe
Messmittel ist laut MSA ...
Messmittel ist im praktischen Einsatz ...
A:
cgk = 1,33
fähig ... das Schlechteste von Dreien
B:
cgk = 0,00
unbrauchbar
... ein sehr gutes Messmittel: Sehr geringe Streuung, und mit einem bekannten Offset lässt es sich messtechnisch gut leben.
C:
cgk = 0,33
unbrauchbar ... das Beste von Dreien: Zwar sehr hohe Streuung aufgrund niedriger Auflösung, doch gerade deswegen wird man Änderungen im Prozess eher schneller erkennen.


zu c)
Wenn der Messprozess die eigentliche Messung wesentlich beeinflusst, dann Verfahren 2, andernfalls Verfahren 3.
Diese Entscheidung muss vor der MSA aufgrund technischer Überlegungen getroffen werden. Im Zweifelsfall das (aufwendigere) Verfahren 2.

Zu d)
Auch die Forderung Gauge R&R < 10%, mindestens jedoch < 30% ist sinnvoll, jedoch ebenfalls nicht essentiell. Genau wie bei b) kommt es sehr darauf an, wie sich das Messmittel im Detail verhält.
Zu Verfahren 2 und 3 gibt es als "moderne Variante" das ANOVA Verfahren. Dieses ist deutlich robuster als das Klassische Verfahren, weil es mathematisch begründet ist (und daher die Gesamtsituation absolut richtig abbildet), im Gegensatz zum klassischen Verfahren, welches aus historischen Gründen mit dem Anspruch der Einfachheit entwickelt wurde. Das ANOVA Verfahren lässt sich im Gegensatz zum klassischen Verfahren grundsätzlich nicht "austricksen", d.h. es bildet Abweichungen vom idealen Messprozesszustand in jedem fall richtig ab.

Aus heutiger Sicht, also durch die unbeschränkte Verfügbarkeit von Auswertesoftware, spricht nichts mehr für das klassische Verfahren 2 (und auch 3). Das ANOVA Verfahren ist in jedem Fall vorzuziehen.
Die folgenden beiden Bilder belegen dies beispielhaft:

2 Prüfer, Rot und Blau, haben dieselben 10 Teile jeweils zweimal vermessen.
Ein Messwertpaar besteht z.B. aus den beiden Messungen des Prüfers Rot an Teil Nr.1.
Die Streuung innerhalb der Messwertpaare ist meistens so klein, dass sie im Diagramm wie eine einzige Messung aussehen.....
SPC: GR&R Klassisch vs ANOVA Bei Teil Nr. 8 ist im Zusammenhang mit Prüfer Rot etwas Besonderes passiert.
Würde man sich auf das klassische Verfahren 2 verlassen, wäre die Entscheidung gemäss GRR 10% "gerade noch fähig".
Das ANOVA Verfahren dagegen "sieht" die Ungereimtheit und zeigt dies mit GRR 34% (nicht fähig) gebührend an.

Wie beim Verfahren 1 sollten in jedem Fall die Rohdaten gesichtet und ggfs. bewertet werden.
SPC: GR&R Klassisch vs ANOVA Bei den Teilen Nr.1 und Nr.2 messen beide Prüfer zwar wie gewohnt sehr wiederholgenau, kommen jedoch auf sehr unterschiedliche Ergebnisse.
Würde man sich auf das klassische Verfahren 2 verlassen, wäre die Entscheidung gemäss GRR 7% "fähig".
Für das ANOVA Verfahren dagegen sind die Ungereimtheiten "unübersehbar", und es schlägt mit GRR 63% (nicht fähig) deutlich Alarm.

Wie beim Verfahren 1 sollten in jedem Fall die Rohdaten gesichtet und ggfs. bewertet werden.
 

Eins hoch

6. Echte Statistische Prozesskontrolle:
Regelkartentechnik

Eins runter
Der Titel deutet bereits an, dass Vieles, was als Statistische Prozesskontrolle daherkommt, in Wirklichkeit keine SPC ist, sondern Show Program for Customer. So witzig es klingt, so gravierend ist das Problem, das damit einher geht. Unternehmen, die sich zu SPC haben nötigen lassen, leiden unter Reibungsverlusten, weil deren Show Program keinerlei Nutzen hat. Der Knackpunkt liegt bei Control, was in diesem Kontext Regeln, Steuern, Kontrollieren, bedeutet.
Unechte bzw. vorgetäuschte SPC erkennt man
Das zentrale Werkzeug zur Darstellung der aktuellen Prozessqualität ist die Regelkarte. Von den vielen verschiedenen Regelkartentypen, die in der Literatur durchgekaut werden, gibt es genau eine Wesentliche, nämlich die xquer / s Karte. Diese ist 1. zeitgemäss, und 2. deckt sie fast alle Fälle ab. Alle anderen Regelkartentypen sind entweder Ausnahmen, oder veraltet. Die sehr populäre Bezeichnung Shewhart Karte hat leider keine einheitliche Bedeutung, und sollte daher nicht verwendet werden. Die folgenden beiden Bilder zeigen eine für didaktische Zwecke modifizierte xquer / s Karte mit Daten eines SPC Masses. Dargestellt sind Mittelwerte von Stichproben (xquer) und Standardabweichungen von denselben Stichproben (s).
SPC  xquer s Regelkarte          Statistische Prozesskontrolle  xquer s Regelkarte

Kernaussagen:

  1. Die Eingriffswahrscheinlichkeit ist diejenige Wahrscheinlichkeit, mit der fälschlicherweise in den (völlig intakten) Prozess eingegriffen wird = Wahrscheinlichkeit für falschen Alarm (~ für falsch positiv).

  2. Interessanter wäre die Wahrscheinlichkeit dafür, dass sich der Prozess tatsächlich verändert hat.
Der erste Punkt ist eine direkte Folge der bei Statistischer Prozesskontrolle zur Anwendung kommenden statistischen Methoden. Bei laufendem, unverändertem Prozess wird jede Stichprobe mit der Wahrscheinlichkeit 1% ausserhalb der EG liegen. Man kann die regelmässige Stichprobenmessungen als Rauschen bezeichnen, das etwa jedes 100te mal so laut wird, dass es falschen Alarm auslöst.
Wenn sich der Prozess tatsächlich einmal verändert, dann wird sich das durch häufigere Alarme zeigen. Ob es sich im Einzelfall um einen berechtigten oder nur falschen Alarm handelt, muss jedesmal von neuem entschieden werden. Bei der Entscheidung ist es hilfreich, die Vorgeschichte (also frühere Stichproben) zu berücksichtigen. In der SPC Praxis wird der Prozessführer allerdings nicht warten, bis sich die Alarmhäufigheit wahrnehmbar erhöht hat, sondern er wird durch laufende Auswertung, statistische Tests und "scharfes Hinsehen" schon deutlich früher über mögliche  Prozessänderungen erfahren und ggfs. gegensteuern. Solche statistische Tests heissen Trendtests und Stabilitätstests. Letztere testen die in der SPC Praxis weit verbreiteten so genannten Stabilitätskriterien.
Eins hoch


Ganz hoch










Weiter

Datenschutzhinweise