Echtzeit-Qualitätsmanagement-System in der Brillenglasbearbeitung

Wie Maschinen für höhere Produktqualität lernen

Fehlerquellen im Produktionsprozess konnte HPE bei einem Hersteller von Brillengläsern mittels Big Data und Data Mining rasch identifizieren Bild: Fotolia.com/Inga F
Anzeige
Mess- und Prüftechnik an einzelnen Maschinen stößt oft an ihre Grenzen, um den Ausschuss in der Fertigung zu verringern. High-Tech-Kunden setzen daher mit HPE auf ein intelligentes System auf Basis neuronaler Netze, das Daten der Maschinen, der Qualitätskontrolle und Produktionsaufträge in der Fabrik in Echtzeit korreliert und auf Fehlerquellen analysiert.

Für High-Tech-Hersteller von Brillengläsern ist eine hohe Produktqualität eine Selbstverständlichkeit. Gleichzeitig legen sie großen Wert auf eine effiziente Fertigung auch bei Neuprodukten und Fertigungsänderungen, indem Ausschussquoten kontinuierlich gesenkt werden. Dabei reicht die Qualitätssicherung am Schluss des Fertigungsprozesses längst nicht aus. Doch auch die Mess- und Prüftechnik in beziehungsweise an der Linie stößt an ihre Grenzen: So stellte ein Unternehmen in der Vergangenheit immer wieder fest, dass Versatz beim sogenannten Blocken mehr Ausschuss bedeutete. Dennoch war unklar, wo genau die Ursachen dafür lagen. Eine 100-Prozent-Prüfung nach verschiedenen Fertigungsschritten war angesichts der Menge und Zeitvorgaben nicht durchgehend realisierbar.

Deshalb wandte man sich an die Experten von HPE. Die Idee von HPE: Mithilfe von Data Mining Auffälligkeiten in der Fertigung zu entdecken. Data Mining verfolgt das Ziel, große Datensätze nach verborgenen Informationen zu untersuchen und nutzbar zu machen.
Im ersten Schritt wurde die Fertigung von Gläsern untersucht, die in großen Stückzahlen ausgeliefert werden. Dabei fand man keine Auffälligkeiten, die mit einfachen, organisatorischen Änderungen behebbar wären. Deshalb verlagerte man den Fokus auf außergewöhnliche, seltene Glas-Charakteristiken, also Anomalien in der Produktspezifikation.
Die Skepsis bei den Produktionsverantwortlichen war groß zu Beginn des Projekts, doch wich sie schnell der Begeisterung, als nach kurzer Zeit erste Resultate klar und ursächlich zu erkennen waren: Durch die digitale Durchgängigkeit des Fertigungsprozesses war es HPE möglich, Daten aus verschiedenen Quellen für die komplexe Datenanalyse zu nutzen: Die HPE Realtime QM Analytics und Rules Engine griff auf das ERP-, das MES-, das Business-Warehouse- und das Kalkulations-System des Unternehmens zu. Außerdem flossen Maschinen-, Sensor- und andere Produktionsdaten ein: Welche Maschinen kamen bei welcher Glasspezifikation zum Einsatz? Welches Material? Welche Temperatur und Luftfeuchtigkeit herrschen beim Bearbeiten der Gläser? Welche Mess- und Prüfdaten liegen vor? Welche Schicht hat gearbeitet? Diese Daten können heute in Echtzeit aggregiert und analysiert werden.
So gelang es im ersten Schritt, drei Werkzeugmaschinen mit einer hohen Fehlerquote bei außergewöhnlichen Spezifikationen zu identifizieren. Doch Gespräche mit den entsprechenden Mitarbeitern zeigten, dass diese Fehlerquellen im Prozess bereits entdeckt und anschließend scheinbar eliminiert wurden. Daher hat HPE in der Folge den gesamten Produktionsprozess bis hin zum Blocken genauer unter die Lupe genommen – mit dem Ergebnis, dass die Blockstücke bei den fehlerhaften Gläsern bei manuellem Blocken mit einem winzigen Versatz aufgebracht waren. Dieses Fehlerbild ließ sich durch entsprechende Kontrollen, also ohne zusätzliche Implementierung von Sensorik und IT, an dieser Stelle im Produktionsprozess leicht in den Griff bekommen. HPE hat dazu mittlerweile sechs Stufen zur Vermeidung solcher Produktionsfehler etabliert, die ohne zusätzliche technologische Implementierungen auskommen.
Nachdem diese Fehlerquelle mittels Big Data und Data Mining rasch identifiziert werden konnte, wurde ein gemeinsamer Prototyp entwickelt, der Fertigungsabläufe und Produkteigenschaften in Echtzeit analysiert, um damit die Produktion im laufenden Betrieb zu optimieren. Damit konnte der Ausschuss in der Fertigung bereits deutlich gesenkt werden.
Neuronale Netze für Echtzeit-Qualitätsmanagement
Dieses Echtzeit-Qualitätsmanagement-System funktioniert auch auf der Basis neuronaler Netze. Künstliche Nervenzellen (Neuronen) schicken erst dann ein Signal ab, wenn die Summe ihrer Inputs einen gewissen Schwellenwert überschreitet. Sie arbeiten also mit Schwellenwert-Logik in mehreren Schichten. Dies ist von Vorteil gerade bei der Massenverarbeitung und einfachen Entscheidungsvorgängen. Damit neuronale Netze in der vernetzten Fabrik in der Lage sind, Anomalien im Produktionsprozess aufzudecken, die in der Folge zu Qualitätsproblemen führen können, ist es notwendig, dass sie „lernen“. Der Lernprozess gleicht dabei dem des menschlichen Gehirns. Deshalb spricht man hier auch von maschinellem Lernen (Machine Learning) oder maschineller Intelligenz (Deep Learning).
Im Fall der Glasbearbeitung bedeutete dies: Für die Fertigung wurden Schwellwerte initial definiert, bei deren Überschreiten ein Alarm ausgelöst wird – weil die Wahrscheinlichkeit eines Fehlers dann hoch ist. Da aber nicht jede Anomalie zu einem echten Fehlerbild führt (False Positive), „lernt“ das System im Laufe der Zeit, die Leitplanken für diese Schwellwerte enger zu setzen oder aufgrund aktueller Produktion anzupassen. Auch neue Signale aus der Fertigung können in diesem Regelzyklus verarbeitet werden.
Der Vorteil gegenüber einer deterministischen Analyse mit einem festen Berechnungsmodell: Es kommt zu deutlich weniger falschen Alarmen, weil das neuronale Netz in der Lage ist, den Gesamtzustand des Systems zu bewerten und aus gesammelter Erfahrung genauer einzuschätzen. Dadurch entsteht auch nicht der Effekt, dass häufig auftauchende falsche Fehlermeldungen von den Verantwortlichen auf Dauer ignoriert werden. Auch beim Produktionsstart neuer Produkte ist ein solches System im Vorteil, weil es imstande ist, flexibel zu lernen und damit auch bei der Erstproduktion neuer Spezifikationen oder bei Fertigungsänderungen zeitnah bei Anomalien und Ausschuss zu unterstützen. ■

Der Autor
Guido Arndt
Lead Consultant Digitalisierung & Industrie 4.0
Hewlett Packard Enterprise (HPE)
Anzeige

Newsletter

Jetzt unseren Newsletter abonnieren

Videos Control 2019

Die besten Videos von der Messe

Quality Engineering

Titelbild QUALITY ENGINEERING pq3
Ausgabe
pq3.2019
LESEN
ABO

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS

Anzeige
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de