Startseite » Allgemein »

Große Datenmengen, kleine Qualitätsprobleme

Predictive Analytics und Big Data – Hype oder Chance?
Große Datenmengen, kleine Qualitätsprobleme

Big Data ist in aller Munde: Die intelligente Nutzung extrem großer Datenbestände im Zusammenspiel mit Predictive Analytics birgt auch für das Qualitätswesen hohes Potenzial. Beispielsweise lassen sich auf Basis historischer Daten Prognosemodelle erstellen, die lernen, unter welchen Bedingungen Qualitätsprobleme mit hoher Wahrscheinlichkeit auftreten.

Wie bei neuen Konzepten üblich, gibt es auch für Big Data kein einheitliches Verständnis, was sich genau hinter diesem Begriff verbirgt. Nur so viel ist klar: Es geht stets um die Organisation und Nutzung extrem großer Datenbestände. Im engen Zusammenhang mit Big Data steht der Begriff Predictive Analytics: die auf Vorhersagen ausgerichtete Datenanalyse. Das Sammeln von Daten kann kein Selbstzweck sein und wird erst durch die Analyse sinnvoll. Anders als beim klassischen beschreibenden Business-Intelligence-Reporting untersucht Predictive Analytics Zusammenhänge, um Prognosen zukünftigen Verhaltens von Menschen oder Maschinen abzuleiten oder automatische Zuordnungen vornehmen zu können. Erst durch das Zusammenspiel von Big Data und Predictive Analytics kann das Wissenspotenzial, das in Unternehmensdaten steckt, für qualifizierte zukunftsorientierte Entscheidungen optimal genutzt werden.

Welche Bedeutung hat der Hype für das Qualitätswesen? Große Datenmengen werden schließlich schon seit Jahrzehnten gespeichert, und komplexe Algorithmen zur Datenanalysen sind auch schon lange fester Bestandteil von Normen und Methoden, die für Qualitätsverbesserungen und die Prozessoptimierung zugrunde gelegt werden. Für die neue Aufmerksamkeit und Bedeutung von Big Data und Predictive Analytics sind verschiedene, miteinander in Beziehung stehende Entwicklungen verantwortlich:
Dank des technischen Fortschritts steigen die Kapazitäten von elektronischen Speichermedien und Prozessoren unaufhaltsam an. Nach dem so genannten Mooreschen Gesetz verdoppelt sich die Komplexität integrierter Schaltkreise alle 12 bis 24 Monate. Die Folge: die Menge gespeicherter Daten steigt dramatisch: Technische Prozessdaten, Transaktionsdaten, Bildinformationen, E-Mails und Informationen aus Sozialen Medien als sogenannte unstrukturierte Daten – all dies sind Datenquellen, die für Auswertungen grundsätzlich zur Verfügung stehen. Nach einer Schätzung der Marktforscher von IDC wächst die Menge gespeicherter Daten jährlich um 60 %, andere Schätzungen liegen sogar noch höher.
Damit einhergehend wurden neue In-Memory- und verteilte Datenbanklösungen entwickelt, die besser als traditionelle relationale Datenbankkonzepte in der Lage sind, extrem große Datenbestände verfügbar zu halten.
Hersteller von Analysesoftware haben Ihre Lösungen für die leistungsfähige Analyse großer Datenbestände durch optimierte Algorithmen und die Unterstützung schneller Hardware fit gemacht.
Die Einsatzszenarien für Predictive Analytics sind so vielfältig wie die Unternehmensdaten, auf die sie angewendet werden können. Im Handel werden schon lange Predictive-Analytics-Methoden eingesetzt, um Kunden für zielgenaue Marketingmaßnahmen zu klassifizieren, die Kundenbindung zu erhöhen und Preise optimal zu gestalten – um nur einige Anwendungsfelder zu nennen. Auch in der Finanzbranche ist Predictive Analytics für Risikomanagement, Kredit-Scoring und Betrugserkennung ein wichtiges Werkzeug. Doch auch in der Produktionsindustrie gibt es Einsatzgebiete für Predictive Analytics, die Unternehmen einen echten Wettbewerbsvorteil bedeuten können. Unterschiedliche Systeme in Unternehmen (PPS, CRM, MES oder ERP) liefern große Datenmengen, die unterschiedliche Aspekte des Herstellungsprozesses beschreiben. Mögliche Einsatzszenarien sind:
  • Herstellungsprozesse optimieren: Besonders in hochautomatisierten Herstellungsprozessen fallen sehr große Mengen an Daten an, die den Prozess und die Produktqualität beschreiben. Setzt man die gemessenen Parameter mit Hilfe geeigneter prädiktiver Modelle miteinander in Beziehung, lassen sich Parameter für die Steuerung des Prozesses ableiten, die zu einer besseren Produktqualität und einem optimalen Einsatz von Ressourcen führen können.
  • Qualitätsprobleme in der Herstellung vorhersehen: Viele Unternehmen überwachen bereits kritische Prozess- und Qualitätsparameter automatisch in regelmäßigen Abständen, um Probleme in der Herstellung zu erkennen. Mit Hilfe von Predictive Analytics lässt sich diese Überwachung dahingehend erweitern, dass Qualitätsprobleme bereits vor ihrem tatsächlichen Auftreten antizipiert werden. Damit ergibt sich die Möglichkeit, ihr Eintreten zu verhindern. Mit Predictive Analytics lassen sich auf Basis historischer Daten Prognosemodelle erstellen, die lernen, unter welchen Bedingungen – zum Beispiel Kombinationen von Parametereinstellungen oder Umweltbedingungen – Qualitätsprobleme mit hoher Wahrscheinlichkeit auftreten. Beim Monitoring der Parameter überwacht man dann zeitgleich auch die aktuellen Ergebnisse dieser Prognosemodelle.
  • Predictive Maintenance: Hier geht es um die Verhinderung von ungeplanten Maschinenausfällen. Die Herangehensweise ist im Prinzip die gleiche wie bei der Prognose von Qualitätsproblemen. Man sammelt und analysiert historische Daten über den Zustand einer Maschine sowie von Umgebungsmerkmalen, mit dem Ziel, ein zuverlässiges Modell zu erstellen, das Störungen und Ausfälle vorhersagen kann. Dieses Modell wird automatisch in Echtzeit oder zumindest in angemessenen Zeitabständen jeweils mit aktuellen Daten berechnet und löst eine Alarmmeldung aus, wenn ein Ausfall droht.
  • Analyse von Textinformationen: Hierbei geht es anders als bei den vorher beschriebenen Szenarien um die Analyse sogenannter unstrukturierter Daten, mit dem Ziel, Ursachen für Qualitätsprobleme zu ermitteln. Aus elektronisch gespeicherten textlichen Beschreibungen zum Beispiel von Garantiefällen lassen sich mit geeigneten Algorithmen Inhalte extrahieren, um Fälle zu klassifizieren, Trends zu ermitteln und in darauf aufbauenden Analysen Ursachen für Qualitätsprobleme zu erkennen.
Was ist bei der Einführung von Predictive Analytics für Big Data zu bedenken? Man kann hier grob zwei Aufgabenbereiche unterscheiden: Die Datenbereitstellung und die Datenauswertung. In den meisten Fällen wird die Datenbereitstellung den weitaus größten Aufwand für ein Unternehmen bedeuten: Alle im Unternehmen existierenden Datenbestände zu identifizieren und in eine passende IT-Infrastruktur zu integrieren, ist sicher eine Daueraufgabe.
Wichtiger ist indes die Datenauswertung: Wird sie nämlich vernachlässigt, indem nur unzureichende Werkzeuge und Ressourcen für die Analyse bereitgestellt werden, drohen Predictive-Analytics-Projekte zu scheitern. Folgende Anforderungen sind daher an entsprechende Tools zu stellen:
Funktionsumfang: So vielfältig wie die Einsatzszenarien von Predictive Analytics sind auch die Methoden und Algorithmen. Es gibt nicht den einen optimalen Algorithmus für alle Fragestellungen. Das Werkzeug sollte also eine umfassende Palette an Algorithmen bieten, so dass sich alle Fragestellungen auch mit einem einzigen Werkzeug bearbeiten lassen.
Integrierbarkeit in bestehende Systemumgebungen: Wichtige Aspekte sind hier interaktive Werkzeuge für Datenbankabfragen und Datenvorbereitungen, um zum einen Daten in die Analysesoftware zu übernehmen, zum anderen aber auch Verarbeitungsschritte und Analyseergebnisse an andere Systeme zu übergeben.
Benutzerfreundlichkeit und Automatisierbarkeit: Eine Analysesoftware für Predictive Analytics muss eine intuitive Benutzeroberfläche bieten, um Daten abzufragen, zu bearbeiten und Modelle zu berechnen und einzurichten. In der Produktion müssen die fertigen Modelle dann aber automatisch ablaufen und vordefinierte Aktionen anstoßen, ohne dass ein Benutzereingriff erforderlich wäre. Die Software sollte rollenbasiertes Arbeiten erlauben, um Nutzern die für sie relevanten Funktionen bereitzustellen.
Performance: Modelle werden in der Regel nicht auf Basis des gesamten Datenbestands berechnet, sondern auf wohl definierten Stichproben. Dennoch müssen Analysesysteme Parallelverarbeitung auf Multiprozessorsystemen erlauben und für große Datenmengen optimierte Algorithmen verwenden, um die Vielzahl denkbarer und komplexer Modelle in vertretbaren Zeiträumen einerseits zu erstellen und andererseits in zeitkritischen Anwendungen einzusetzen.
Nicht zu vergessen ist, dass immer noch der Mensch für den Erfolg auch von Predictive Analytics wichtig ist: Die Technologie ist keine Black Box, die ohne gewisse Kenntnisse der Daten und Methoden zu sinnvollen Ergebnissen führt. Daher müssen auch die entsprechenden personellen Ressourcen bereitgestellt werden. ■
Newsletter

Jetzt unseren Newsletter abonnieren

Quality Engineering
Titelbild QUALITY ENGINEERING 1
Ausgabe
1.2024
LESEN
ABO
Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de