Startseite » Allgemein »

Algorithmen suchen nach dem Datenschatz

Big Data stellt klassische QS-Ansätze vor Herausforderungen
Mit Algorithmen auf der Suche nach dem Datenschatz

Anzeige
Je mehr Daten verfügbar sind, um so größer ist das Potenzial, daraus Erkenntnisse für die Qualitätssicherung zu gewinnen. So lautet die Theorie. Doch in der Praxis fehlt es noch an Methoden, mit der extremen Komplexität der Daten fertig zu werden, wie Kai Gansel von Additive auf einem Webinar der QE erklärt hat. Doch sein Unternehmen arbeitet bereits an Lösungen.

„Im Zuge der fortschreitenden Digitalisierung ist die Erhebung, Speicherung und Verwaltung von Daten jeglicher Art einfacher, schneller, umfangreicher, effizienter und selbstverständlicher geworden“, sagt Kai Gansel, der bei Additive als Berater für Kunden aus Lehre, Forschung und Industrie zuständig ist. In sämtlichen Bereichen werden Daten in immer größeren Mengen, aber auch mit immer größerer Komplexität gesammelt. Das gilt auch für die Qualitätssicherung und das Qualitätsmanagement.

Diesen Bereichen eröffnet es die Möglichkeit, neue Erkenntnisse zu gewinnen. „Big Data geht über einfache Sensordaten hinaus“, erklärte Gansel im Rahmen eines Webinars von Quality Engineering. „Es gibt sehr viele Daten, die parallel erhoben werden, die zueinander gehören und die ein größeres Bild ergeben.“

Wenn bisher von Merkmalen die Rede war, ging es dabei um die Daten eines Sensors oder um einen Aspekt. „Diese Perspektive ist auch weiterhin nötig, um gewisse Prozesse zu überwachen“, so Gansel. Aber im Zusammenhang mit Big Data sei ein Merkmal etwas anderes – nämlich ein Kombination von Dingen.

Gansel verdeutlicht das an dem Beispiel einer Fertigungsstraße für LKW-Achsen, die aus vielen Stationen beziehungsweise Arbeitsschritten besteht. Und diese beziehungsweise das Teil, das dort bearbeitet wird, werden jeweils mithilfe von Sensoren überwacht. Für jeden Schritt gibt es einen Grenzwert. Wird dieser überschritten, dann wird das Teil aussortiert.

„Dennoch kann es passieren, dass ein Teil die Fertigungsstraße verlässt, das dann im praktischen Betrieb ausfällt – obwohl es alle Tests durchlaufen hat“, sagt Gansel. Alle einzelnen Grenzwerte wurden eingehalten, doch die Kombination der Grenzwerte hat einen Fehler verursacht. Welche Faktoren genau das Problem sind, ist aber weitgehend unklar. „Das ist seit Jahrzehnten ein Problem, das in der Produktion diskutiert wird“, berichtet Gansel.

Auch für Predictive Maintenance – also eine vorausschauende Wartung – ist die Kombination verschiedener Merkmale der Schlüssel. Wenn man die Zusammenhänge verschiedener Faktoren wie zum Beispiel Maschinendaten und historische Informationen versteht, ließe sich der Ausfall einer Maschine vorhersagen, bevor er tatsächlich passiert.

Belastung für die Infrastruktur – Computer Cluster statt Workstations

Big Data bietet damit laut Gansel ungekannte Möglichkeiten. In den Daten liege quasi ein Schatz verborgen. „Sie bieten die Chance, Dinge neu anzuschauen und auszuwerten.“ Doch diesen Schatz zu heben, ist schwierig. So gaben 35 % der Webinar-Teilnehmer in einer Umfrage an, das sie die wachsende Datenmenge in der Qualitätssicherung als eine große Herausforderung sehen. 65 % halten sie für eine Herausforderung, die immerhin beherrschbar ist. Zum einen stellt die reine Menge an Daten eine Belastung für die Infrastruktur dar. „Alles was noch mit einer Workstation funktioniert, ist aus meiner Sicht kein Big Data“, so Gansel. Für Big Data müsse man schon Computer-Cluster nutzen. Noch fordernder sei aber die Komplexität der Daten. Um mit dieser zurechtzukommen, seien neue Methoden gefragt.

Machine Learning ist ein verlässliches Werkzeug – selbst wenn die Daten Messfehler aufweisen

Um dies zu erklären, zeigt Gansel zunächst, wie bisher mit Qualitätsdaten gearbeitet wird. „Bisher basiert die Qualitätssicherung auf normalen statistischen Kenngrößen wie etwa Prozessfähigkeitsanalysen und Regelkarten. Die können aber angesichts der Komplexität von Big Data höchstens als Heuristika oder Daumenregel gelten.“

Mit normaler Statistik bewege man sich eher im Bereich von nicht-dimensionalen – also weniger komplexen – Daten. Wenn es um hoch-dimensionale und umfangreiche Daten geht, sind allerdings intelligentere Methoden gefragt. Das ist die Domäne des Machine Learning. Dieses könne außerdem seine Stärken ausspielen, wenn Daten nicht exakt sind. Will heißen: wenn diese viele Messfehler aufweisen oder lückenhaft sind.

Ziel solcher Methoden ist es, eine Vorhersage treffen zu können. Also zum Beispiel, ob ein produziertes Bauteil später im Betrieb ausfallen wird und daher aus der Produktion genommen werden muss. Dafür seien Systeme, die mit Machine Learning arbeiten nach Einschätzung von Gansel verlässliche Werkzeuge. Für Unternehmen, die solche Tools nutzen wollen, stellen Unternehmen wie Additive mittlerweile ein großes Angebot an Lösungen bereit. Dazu zählt etwa Salford Predictive Modeler (SPM) – eine Plattform zum Entwickeln von prädiktiven, deskriptiven und analytischen Modellen für Maschinelles Lernen, Predictive Analytics und Predictive Maintenance. SPM kann laut Additive mit Datensätzen jeder Größe, Komplexität oder Struktur zusammenarbeiten, und besitzt dafür Schnittstellen zu nahezu allen Datenbanksystemen.

Machine Learning hilft nicht
bei der Suche nach Zusammenhängen

„Machine-Learning-Verfahren sind sehr leistungsfähige Methoden, die auch angewandt werden sollten“, sagt Gansel. „Man muss sich nur im Klaren sein, dass es sich dabei um ein Werkzeug handelt, das im besten Fall genau das tut, was es tun soll. Nämlich einen Fehler aufdecken.“

Solche Systeme seien aber nicht geeignet dazu, um Daten wirklich zu verstehen. „Wenn man ein Merkmal gefunden hat, dann möchte man auch verstehen, wo es herkommt. Warum sieht es so aus, wie es aussieht?“ Oder um auf die Fertigungsstraße von LKW-Achsen zurückzukommen: Welche Kombination von Merkmalen hat dazu geführt, dass das Produkt fehlerhaft ist?

Man könne sich dem zwar mit Erfahrungswerten nähern, aber es bleibe ein grundsätzliches Problem. Um Daten verstehen zu können, brauche man statistische Tests und Data Mining.

Ziel ist laut Gansel, sogenannte multifaktorielle Korrelationen aufzudecken. Die Zusammenhänge zwischen einzelnen Faktoren sollen offengelegt werden. Dazu brauche es aber eine riesige Anzahl von Tests. Denn Big Data stelle eine „kombinatorische Explosion“ dar. Je mehr Sensoren eingesetzt werden, desto größer ist die Menge an Daten und um so mehr Tests seien notwendig. „In einem Muster, das zum Beispiel gerade mal 20 Elemente enthält, müsste man über eine Million Tests machen, um multifaktorielle Korrelationen zu erkennen“, erklärt Gansel.

Was das in der Praxis bedeuten würde, verdeutlicht Gansel am Beispiel Windkraftanlagen. In diesen würden über 200 Sensoren verbaut, in der Hoffnung, damit einmal Predictive Maintenance umsetzen zu können. „Doch allein bei 100 Sensoren sprechen wir von einer Zahl an Tests, die an die Zahl der im Universum existierenden Atome herankommt, so Gansel. „Das ist also praktisch nicht mehr beherrschbar.“

15 Jahre Forschungsarbeit
für die richtigen Algorithmen

Bisher gibt es laut dem Experten kein fertiges Software-Produkt, das mit dieser Herausforderung umgehen kann. „Es ist ein schwieriges Problem und man versucht heutzutage, über Umwege zum Ziel zu kommen.“ Doch er macht Hoffnung. Additive entwickle bereits Algorithmen, um das Problem zu lösen. Diese gehen laut Gansel auf 15 Jahre Forschungsarbeit zurück. „Wir sind schon relativ weit, um in annehmbarer Zeit und mit Daten, die heute vorliegen, zu Ergebnissen zu kommen – das heißt, die Merkmale in den Daten zu finden, die wirklich Informationen tragen“, sagt Gansel. „Diese werden uns dann hoffentlich in die Lage versetzen, aus Big Data auch Nutzen zu ziehen.“ Dann würde die Qualitätssicherung wichtige Schritte noch vorne machen.

Bis es soweit ist, lässt sich also noch nicht das volle Potenzial aus Big Data schöpfen. Trotzdem rät Gansel Unternehmen dazu, alle derzeit verfügbaren Daten aufzubewahren.

Das verursache zwar Kosten – in einem nicht unerheblichen Maße. Aber: „Auch wenn man heute noch nicht weiß, wie man die Daten anschauen soll, lohnt es sich, diese zu speichern – und zwar aus zwei Gründen.“ Zum einen werde die Leistungsfähigkeit der Computer zunehmen. „Das heißt, wir werden künftig in kürzerer Zeit Analysen machen können als heute.“

Zum anderen könnte sich herausstellen, dass man für manche Analysen eine sehr große Menge an Daten braucht und gleichzeitig bestimmte Prozesse gar nicht so viele davon abwerfen. „Dann ärgert man sich vielleicht in fünf Jahren, weil man nicht früher damit begonnen hat, die Daten zu sammeln.“

Wenn irgendwann mal klar sei, welche Merkmale entscheidend sind, dann könne man sich darauf konzentrieren, nur die relevanten Daten zu erheben und auszuwerten. ■

Additive Soft- und Hardware für Technik und Wissenschaft GmbH
Max-Planck-Str. 22b
61381 Friedrichsdorf
Tel. +49617259050
www.additive-net.de


Der Autor

Markus Strehlitz

Redaktion

Quality Engineering


Das Webinar im Video

Das Webinar mit dem Vortrag von Kai Gansel ist auf der Website der QE verfügbar. Das Video enthält auch die weiteren Vorträge von iqs, IMS und Carl Zeiss Industrielle Messtechnik. Zu sehen nach kurzer Registrierung unter
http://hier.pro/ssxDx



Hier finden Sie mehr über:
Anzeige
Newsletter

Jetzt unseren Newsletter abonnieren

Quality Engineering
Titelbild QUALITY ENGINEERING 3
Ausgabe
3.2021
LESEN
ABO
Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS

Anzeige
Anzeige

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de