Startseite » Top-News »

Predictive Quality: In den Daten liegt die Zukunft

Vorausschauende Qualitätssicherung
Predictive Quality: In den Daten liegt die Zukunft

Qualitätsprobleme lassen sich vorhersehen – so lautet das Credo von Predictive Quality. Mit Hilfe von künstlicher Intelligenz analysieren entsprechende Systeme die Produktionsdaten und zeigen nicht nur, welche Einflussgrößen für Fehler verantwortlich sind – sondern auch, wie diese verändert werden sollten.

» Markus Strehlitz

Die Anwendung systematischer Ansätze der Datenanalyse ist bereits heute in vielen Unternehmen ein beliebtes Mittel, um organisatorische und produktionstechnische Fragestellungen zu adressieren und um Qualitätsprobleme zu lösen“, schreibt Max Ellerich in einem Blog-Beitrag für die Deutsche Gesellschaft für Qualität (DGQ). Prognosen im Rahmen solcher Datenanalysen dienten immer häufiger als Entscheidungsgrundlage, so Ellerich, Oberingenieur am Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement des Werkzeugmaschinenlabors (WZL) der RWTH Aachen.

Daten erlauben also einen Blick in die – zumindest nahe – Zukunft. Damit sind sie auch für die Qualitätssicherung von großem Wert. Ihre Auswertung mit Hilfe von Methoden der künstlichen Intelligenz (KI) kann die QS ein stückweit vorausschauend machen. Preditive Quality lautet der Begriff, den Experten aus der Branche dafür verwenden. „Predictive Quality ist die Befähigung eines Unternehmens zur Optimierung seiner produkt- und prozessbezogenen Qualität“, erklärt Ellerich. Dabei gehe es nicht nur um Handlungsmaßnahmen, die durch den Anwender selbst abgeleitet werden, sondern auch Handlungsempfehlungen, die durch ein lernendes Data-Analytics-Modell bereitgestellt werden.

Im besten Fall erkennt der Nutzer eines entsprechenden Systems nicht nur, dass etwas schief läuft, sondern erfährt auch, wie sich das ändern lässt. „Der Wert von Predictive Quality liegt also nicht in den Daten selbst, sondern in dem generierten Wissen, da dieses unmittelbar in die Entscheidung miteinfließt“, so Ellerich.

System korreliert eine Vielzahl
unterschiedlicher Daten

Wie Predictive Quality konkret umgesetzt wird, erklärt Dr. Markus Ohlenforst, Geschäftsführer von Iconpro. Sein Unternehmen hat unter dem Namen Ares eine entsprechende Lösung entwickelt. Diese verarbeitet eine Vielzahl unterschiedlicher Daten. Dazu zählen Materialdaten, Fertigungsdaten von den Maschinen wie etwa Vorschubgeschwindigkeit oder Spindeldrehzahl sowie Umgebungsinformationen aus der Produktion wie Temperatur oder Luftfeuchtigkeit. „Diese korreliert das System dann, um die Qualität für ein spezifisches Bauteil vorherzusagen“, erläutert Ohlenforst.

Die Prognose für eine bestimmte Fertigungseinheit sei das, was man klassischerweise als Predictive Quality bezeichne, so der Experte. Darüber hinaus gibt es auch Methoden, um einen Trend für die Qualität eines Produkts über einen längeren Zeitraum – zum Beispiel für eine Woche – hinweg zu erkennen. Auch diese können interessante Erkenntnisse liefern, allerdings mit etwas mehr Unsicherheiten. „Das ist eher mit einer Wettervorhersage zu vergleichen“, so Ohlenforst.

Um zu erklären, welchen Wert eine Predictive-Quality-Lösung wie Ares bietet, nennt er beispielhaft einen Anwendungsfall. Bei diesem geht es darum, ein bestimmtes Fehlerbild — konkret einen k-förmigen Kratzer – auf der Oberfläche eines metallischen Bauteiles hervorzusagen. Das System ist nicht nur dazu in der Lage. Es identifiziert zusätzlich auch die wichtigsten Einflussgrößen. Der Nutzer erhält also auch die Information, welche Parameter er ändern muss, um die anvisierte Qualität zu erhalten. „Man gewinnt auf Basis der Daten Prozesserkenntnisse, die man dann wieder einfließen lässt, sagt Ohlenforst.

Wenn die Prozessexperten im Unternehmen sehen, dass diese Erkenntnisse mit den eigenen Erfahrungen übereinstimmen, gewinne man schon mal deren Vertrauen in die Predictive-Quality-Software, berichtet der Iconpro-Geschäftsführer. Das System könne aber noch mehr. Auf Basis des Modells, das man erhalten hat, lässt sich nun ein weiteres trainieren. „Das System hat ja jetzt gelernt, welche Einstellungen zu welchem Ergebnis führen“, so Ohlenforst. „Das neue Optimierungsmodell kann dann auch erkennen, wie diese geändert werden müssen.“ Ares gibt dem Anwender also Empfehlungen, wie seine Prozessparameter aussehen sollten, um die Qualität zu verbessern.

Mit seiner Technologie ist Iconpro auch am Projekt Irlequm beteiligt, das 2021 vom WZL gestartet wurde. Dabei geht es darum, mit Hilfe von KI-Methoden wie Reinforcement Learning und Transfer Learning Qualitätsregelkreise in der Massivumformung zu entwickeln. Dort führen Instabilitäten durch externe Einflussgrößen sowie unbekannte Wirkzusammenhänge zwischen Prozessparametern oder Qualitätsmerkmalen von Produkten trotz vorhandener Prozessregelungen häufig zu Ausschuss.

Den Ausschuss einer Fertigung zu reduzieren, sieht Ohlenforst auch als den größten Nutzen, den man durch Predictive Quality erzielen kann. Das betreffe sowohl die Serienproduktion als auch die Ramp-up-Phase. Daneben sorgen Predictive-Quality-Lösungen dafür, Prüfaufwände zu reduzieren. Außerdem bieten entsprechende Systeme bei Produkten mit einer hohen Wertschöpfungstiefe einen besonderen Vorteil. „Wenn auf dem Weg bis zum fertigen Produkt dank Predictive Quality klar wird, dass man Probleme mit der Qualität bekommt, lässt sich die weitere Wertschöpfung stoppen.“

Erfolg der KI hängt von
der Datenmenge ab

Seinen Nutzen entfaltet Predictive Quality vor allem in Fertigungsprozessen mit großen Losgrößen. Denn wie immer beim Einsatz von künstlicher Intelligenz ist der Erfolg davon abhängig, wie viele Daten zur Verfügung stehen. „Man braucht schon eine gewisse Grundmenge an Daten. Und die sollten möglichst konsistent sein“, so Ohlenforst. Schließlich sei eine Prognose nicht möglich, wenn die Teile, um die es geht, immer wieder verschieden sind. Wie groß die Datenmenge sein muss, hänge aber immer vom individuellen Fall ab.

Das Potenzial von Predictive Quality will auch Gemineers nutzen. Das Startup ist eine Ausgründung des Fraunhofer Instituts für Produktionstechnologie (IPT). Dort wurden auch die ersten Entwicklungen für die Software durchgeführt, die das Unternehmen nun anbietet.

Digitaler Zwilling deckt
Abweichungen auf

Das System, dessen Einsatzfeld die zerspanende Industrie ist, arbeitet mit einem digitalen Zwilling, um die Bauteilqualität noch während der Fertigung vorherzusagen. Der digitale Zwilling des gefertigten Bauteils kann mit dem vorab erstellten CAD-Modell abgeglichen werden, sodass sich Abweichungen zwischen Modell und Bauteil schnell erkennen lassen. Gleichzeitig erleichtert die Software auch die herkömmliche Qualitätssicherung, da der Blick zielgerichtet auf kritische Bauteilbereiche gelenkt werden kann.

Den digitalen Zwilling des Bauteils erstellt die Software auf Basis der internen Daten der Produktionsmaschinen und – auf Wunsch – zusätzlicher Sensoren. Anhand dessen lassen sich dann verwertbare Informationen zur Qualität des Bauteils ableiten. Ein laut Gemineers Alleinstellungsmerkmal der Software liegt in den entwickelten Modellen. Diese bilden die Wechselwirkungen im Zerspanprozess ab – wie beispielsweise Positionsabweichungen der Maschine, Prozesskräfte, den Werkzeugverschleiß und die Bauteil-und Werkzeugabdrängung. Die aufbereiteten Informationen werden direkt in der Maschinensteuerung, auf einem Tablet oder anderen Geräten anhand des digitalen Zwillings dargestellt.

Der Mensch trifft immer
noch die Entscheidungen

Mit dem Werkzeugbau der Firma Gedia Gebrüder Dingerkus habe Gemineers gerade einen Demonstrator gefertigt, berichtet Marcel Wilms, Mitgründer und Head of Business Development. „Unseren erstellten Digitalen Zwilling für die Nutzung von Predictive Quality haben wir mit einer klassischen optischen Messung verglichen. Der Kunde war sehr begeistert von den Ergebnissen und will weiter mit uns zusammenarbeiten.“

Iconpro-Chef Ohlenforst berichtet von einer wachsenden Nachfrage nach Predictive Quality. Der Nutzen der entsprechenden Lösungen sei sehr deutlich zu sehen, ein Business Case lasse sich einfach berechnen.

Die Prozessexperten müssten auch keine Bedenken haben, die Kontrolle an die Software abzugeben. Er betont, dass trotz KI der Mensch immer die Entscheidungen trifft. Ohlenforst: „Das System schlägt die Prozesskorrektur nur vor. Deren Durchführung muss der dafür Verantwortliche freigeben.“


Webhinweis

Am Stand von Quality Engineering auf der Control 2022 hat Markus Ohlenforst im Interview über Voraussetzungen und Nutzen von Predictive Quality gesprochen und erklärt, wie sich künstliche Intelligenz sinnvoll einsetzen lässt.

Unsere Webinar-Empfehlung


Hier finden Sie mehr über:
Newsletter

Jetzt unseren Newsletter abonnieren

Quality Engineering
Titelbild QUALITY ENGINEERING Control Express 1
Ausgabe
Control Express 1.2024
LESEN
ABO
Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de