Um die Qualität von Teilen möglichst genau vorhersagen zu können, braucht es eine umfangreiche Sammlung von Daten; genauer gesagt ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind.
Bei der Erfassung solcher Daten können sowohl klassische Datensammler, eine IIoT-Plattform als auch Manufacturing Execution Systeme wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann aber auch von Hand geschehen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten ist auch die Vielfältigkeit entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Einfacher gesagt, je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.
Auf Basis der vorliegenden Daten lässt sich ein Vorhersagemodell entwickeln. Hierbei kommen sowohl statistische Methoden als auch künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle, die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für Predictive Model Markup Language. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der Data Mining Group (DMG) zusammengeschlossen haben. Kurz gesagt: Der PMML-Standard eignet sich, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.
Prozessdaten in Echtzeit interpretieren
Bringt man das generierte Modell in die Erfassungskomponente von Predictive Quality ein, so können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen.
Beispielsweise können Mitarbeiter dann Metallteile, die mit einer Wahrscheinlichkeit von mehr als 60 % Ausschuss sind, sofort wieder einschmelzen. Genauso können auch Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 % liegt – natürlich nur, wenn keine 100-%-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden.
Insbesondere dann, wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Ein gutes Beispiel dafür sind die mechanische Nachbearbeitung beim Gießen von Metallteilen oder auch Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können sowohl Zeit als auch Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.
Effiziente Regelkreise für die smarte Fabrik
Predictive Quality ist somit eine nützliche Anwendung der modernen Fertigungs-IT, die Ereignisse vorhersagen kann. Diese Art von Anwendungen lassen sich auch unter dem Sammelbegriff Prediction zusammenfassen. Zusammen mit weiteren Anwendungsgruppen wie Analytics, Execution, IIoT sowie Planning & Scheduling spricht MPDV auch von den sogenannten Smart Factory Elements. Auf deren Basis lassen sich effiziente Regelkreise für die smarte Fabrik von heute und morgen gestalten. ■