Startseite » Allgemein »

Data Warehousing optimiert Qualitätsmanagement

Datenanalysen spüren Schwachstellen auf und unterstützen Logistik und Service in Echtzeit
Data Warehousing optimiert Qualitätsmanagement

Qualitätsprobleme sind ein Kostentreiber und schaden langfristig dem Image eines Produktes und damit den Unternehmen. Je schneller sie erkannt werden, desto besser lassen sich Nacharbeits- und Gewährleistungskosten reduzieren. Dabei ist die Ursache von Mängeln nicht immer unmittelbar erkennbar. Hat der Anwender das Produkt manipuliert oder lief bei der Planung und der Herstellung etwas schief? Datenanalysen können hier die richtige Fährte aufspüren, gerade wenn die genauen Zusammenhänge zunächst unklar sind. Voraussetzung ist ein umfassendes Verständnis von Qualitätsmanagement, das den gesamten Produktlebenszyklus einbezieht – und an jeder Stelle neue Handlungsoptionen eröffnet.

Dr.-Ing. Michael Benz, Senior Business Consultant, Teradata GmbH

Mehr und mehr setzt sich in der Fertigungsindustrie die Erkenntnis durch: Daten sind ein strategisches Gut, aus dem sich reale Werte schöpfen lassen. So setzt die Automobilbranche Data Warehousing bereits im großen Stil für die Analyse und sogar Steuerung der Wertschöpfungskette ein. Beispielsweise General Motors: Der Automobilkonzern betreibt ein weltumspannendes Netz aus Zulieferern, Lagern, Fertigungsstätten und Vertriebseinheiten. Die laufenden Prozesse dieses hochkomplexen Gefüges werden mit Hilfe eines echtzeitfähigen Active Data Warehouse von Teradata optimiert. Aufgrund der hohen Fertigungskosten bedeuten dabei selbst prozentual geringe Effizienzsteigerungen, wie sie durch kurzfristige Entscheidungen erzielt werden können, unterm Strich erhebliche Einsparungen. In die Qualitätssicherung ist die systematische Datenauswertung spätestens mit Initiativen wie Six Sigma eingezogen. Dabei ist es das Ziel, möglichst frühzeitig Mängel zu erkennen, weiteren Schaden zu verhindern oder diesem wenn möglich im Vorfeld vorzubeugen. Dies erfordert die vollständige Übersicht über sämtliche Prozesse von der Entwicklung bis hin zum After Sales. Auch die Daten der Liefer- und Fertigungsketten sowie der nachgelagerten Serviceorganisationen müssen hierfür verfügbar gemacht werden. Angesichts eines derart umfangreichen Volumens ist dies nur mit Hilfe eines leistungsfähigen Datenmanagements möglich.
Datenanalysen jenseits von Insellösungen
Daten an sich sind keine Informationen, sondern deren Rohstoff. Erst durch den Veredelungsprozess der Datenanalyse lassen sich aus ihnen Aussagen gewinnen, die zielgerichtet sind und neue Handlungsfähigkeit herstellen. Der erste Schritt ist hierfür stets der Aufbau einer möglichst umfassenden Datenbasis, die sämtliche Produkte und Prozesse vollständig abbildet. Hierfür werden die Daten aus den unterschiedlichen operativen Quellsystemen extrahiert, an zentraler Stelle in einem Data Warehouse gesammelt und mit Hilfe eines speziell für den Automobilbau erstellten logischen Datenmodells organisiert. Das logische Datenmodell ist eine abstrakte Kopie der realen Welt und stellt sicher, dass Daten einheitlich und nicht redundant (konsistent) für die Analysen zur Verfügung stehen. Hinsichtlich des Veredelungsprozesses von Daten sind allerdings zwei Voraussetzungen entscheidend: Erstens müssen wirklich alle relevanten Datenquellen aus den unterschiedlichen Unternehmensbereichen im Data Warehouse schrittweise integriert werden. Zweitens müssen die Daten in voller Detailtiefe, auf granularer Ebene für die Analysen zur Verfügung stehen. Denn erst dann ist wirklich die vollständige Transparenz hergestellt, auf deren Grundlage sich übergreifende Zusammenhänge erkennen lassen. Darüber hinaus können durch die hohe Detailtiefe Entscheidungen auf allen Ebenen unterstützt bzw. Ursachenanalysen durchgeführt werden.
Im Qualitätsmanagement eignen sich Datenanalysen gerade für komplexe, langlebige Produkte gut, weil hier eine besonders umfassende Datenbasis besteht. Bei einer Fahrzeugbaureihe beispielsweise vergehen von der Konzeption und Entwicklung bis zur Marktreife Jahre. Bereits in den Anfangsstadien lassen sich gezielt Daten über die einzelnen Entwicklungsschritte, die verwendeten Bauteile samt ihrer Funktion, Umgebung und Belastung erheben sowie eine Historie der Testergebnisse anlegen. Die Konstrukteure können Auffälligkeiten jeder Art registrieren und im weiteren Verlauf mittels Data Mining untersuchen, ob sich bei deren Auftreten Muster, die zum Auftreten eines Schadens führen, erkennen lassen. Beispielsweise könnte ein bestimmter Mangel mit der Verwendung zweier Bauteile korrelieren, die an sich in keinem unmittelbaren Zusammenhang stehen, aber zwischen denen sich unerwünschte Wechselwirkungen einstellen.
In den fortgeschrittenen Projektstadien, von der Konstruktion eines fahrbaren Prototyps über die 0-Serie bis hin zu Serienproduktion und Markteinführung, fallen immer weitere Daten an, die in die Analysen mit einfließen. So wird die vollständige Produktionshistorie neben den registrierten Garantiefällen, Werkstattberichten und den Erfahrungen des Kundenmanagements verfügbar gemacht.
Data Warehouses ein selbst lernendes System
Durch ein leistungsstarkes Data Warehousing, etwa mit den praktisch unbegrenzt skalierbaren Lösungen von Teradata, lassen sich auch in komplexen Zusammenhängen diejenigen Merkmale identifizieren, die bei einem bestimmten Mangel stets gegeben sind. Dabei kann es sich zum Beispiel um veränderte Prozess-Schritte, verbaute Komponenten oder nur einzelne Chargen handeln. Oder die Spur führt zu einem bestimmten Zulieferer, dessen Bauteile unregelmäßig verwendet werden. Spätestens wenn das Modell auf den Straßen rollt, lassen sich die Analysen auf externe Faktoren ausweiten: Ergeben sich aus der Kundenhistorie Anhaltspunkte für ein bestimmtes Fahrverhalten, das der Lenkung zu schaffen macht? Bilden sich regionale Cluster – und sind diese auf geografische Besonderheiten wie das Klima, die Topografie oder dergleichen rückführbar? Oder schlägt einfach der Verschleiß schon bei einem zu geringen Kilometerstand zu?
Der frühe Vogel fängt den Wurm
Je früher ein Mangel identifiziert wird, desto geringer der Schaden – dies gilt sowohl für die Entwicklungs- als auch für die Produktionsphasen. Die einmal gewonnenen Erkenntnisse über Auffälligkeiten und Fehlerursachen lassen sich auch später noch für die Qualitätskontrolle nutzen. Trendanalysen und mathematisch formulierte Regeln unterstützen die Überwachung der laufenden Prozesse – und können gegebenenfalls frühzeitig Alarm schlagen. Aktuelle Fallanalysen lassen sich mit den vorhandenen Fehlerprofilen beschleunigen oder wenn nötig vor dem Hintergrund der ständig verfügbaren Historien in aller Tiefe analysieren. Darüber hinaus schafft Data Warehousing die Grundlage für eine nachhaltige Lieferanten- und Werkstattbewertung im laufenden Betrieb. Sind mögliche Schwachstellen erst einmal ausgemacht, können hier Service-Level-Agreements vereinbart werden, die auf Basis objektiver Kennzahlen eine jederzeit nachvollziehbare Kontrolle der Liefer- und Produktionsqualität möglich machen. Im günstigsten Fall können Felddaten aktuell über Telediagnostik gesammelt und zeitnah ausgewertet werden. Unternehmensweit in einem zentralen Data Warehouse wie etwa von Marktführer Teradata integrierte Daten lassen sich auch abteilungsübergreifend nutzen: Während Details der Lieferprozesse in die Qualitätsanalysen einfließen, kann die Finanzabteilung aufgrund der Bewertungen des Qualitätsmanagements bereits besser unterjährig entscheiden, in welcher Höhe sie Rückstellungen für Garantiefälle vornehmen sollte. Die Qualitätssicherung kann mit Hilfe der verfügbaren Werkstattdaten und entsprechender Business Rules nicht nur die Notwendigkeit einer Rückrufaktion schneller erkennen – diese lässt sich anhand der integrierten CRM-Daten auch mit deutlich geringerem Aufwand durchführen. Darüber hinaus kann sogar der Ersatzteilbedarf besser eingeplant bzw. prognostiziert werden. Der Einsatz von Data Warehousing für das Qualitätsmanagement bezieht im Idealfall also nicht nur alle Stadien und Stationen des Produktlebenszyklus mit ein, sondern eröffnet auch anderen Unternehmensbereichen neue Möglichkeiten, effektiver und effizienter zu handeln.
Teradata, Augsburg
QE 503
Newsletter

Jetzt unseren Newsletter abonnieren

Quality Engineering
Titelbild QUALITY ENGINEERING Control Express 1
Ausgabe
Control Express 1.2024
LESEN
ABO
Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de