„Die Qualitätssicherung ist in einer sehr glücklichen Lage, sagt Wolfgang Schultz, Director Training und Consulting beim Software-Anbieter Q-DAS. „Daten werden dort schon mehr oder weniger gut strukturiert erhoben und gespeichert.“ In vielen Fällen sei die Ursache-Wirkungsbeziehung bekannt. Man wisse meistens, welche Einflussgrößen in einem Prozess auf das Ergebnis einwirken. „Wo wir es nicht wissen, können wir Messsystemanalysen durchführen“, so Schultz weiter, dessen Unternehmen auf die Auswertung von Qualitätsdaten spezialisiert ist.
Damit bietet die Qualitätssicherung seiner Meinung nach beste Voraussetzungen, um Daten zu analysieren und aus diesen Wissen zu generieren. Denn Strukturen seien das A und O für Big Data in der Qualitätskontrolle. Schultz vergleicht dabei die vorhandene Datenmenge mit einem Rohdiamant, der erst durch die Strukturierung zum Brillanten wird.
Auf dem Metav-Presseforum schilderte Schultz zwei Ansätze, wie man dabei vorgehen kann. Entweder man arbeite mit einer beliebigen Menge an Daten und strukturiere sie erst, nachdem man sie gesammelt hat. Das sei die reaktive Methode.
Beim zweiten Weg geht man proaktiv vor. Die Daten werden in diesem Fall schon systematisch und strukturiert erhoben. Es wird also schon vorher geklärt, was mit den Daten erreicht werden soll und welche man dafür benötigt. „Das ist der Ansatz, der uns in der Qualitätssicherung am weitesten bringt“, sagt Schultz.
Wenn die Strukturen in den Qualitätsdaten geschaffen sind, ließen sich diese mit den gleichen Methoden analysieren, wie sie auch in anderen Bereichen zum Einsatz kommen, so der Experte.
Seiner Meinung nach kann man in der Qualitätskontrolle bisher allerdings noch gar nicht von Big Data sprechen. „Wir befinden hier noch im Giga- und Terabyte-Bereich.“ Erst bei noch größeren Informationsmengen sei der Begriff Big Data gerechtfertigt. „Wir haben in der Qualitätssicherung noch jede Menge Möglichkeiten, die Daten zu strukturieren und zu komprimieren, bevor wir gezwungen sind, Big-Data-Methoden anzuwenden“, erklärt Schultz.
So lassen sich laut dem Experten zum Beispiel unterschiedliche Merkmale zu einer Merkmalsfamilie in einer Regelkarte zusammenfassen. Dann müsse man nur noch einen kleinen Teil der Merkmale messen. „Das Potenzial für die strukturierte Erfassung und Bearbeitung von Messwerten in der Qualitätssicherung ist noch lange nicht ausgeschöpft.“
Wie sich dieses Potenzial heben lässt, wird auch eines der Themen in der Quality Area sein, die im Rahmen der Messe Metav vom 20. bis 24. Februar in Düsseldorf stattfindet. Dort wird es außerdem um die neuesten Anwendungen klassischer Mess- und Prüftechnik, aktuelle Lösungen im Qualitätsmanagement sowie die Qualitätskontrolle in der Industrie 4.0 gehen. Das Ausstellungsprogramm der Quality Area wird durch ein Forum mit Fachvorträgen und Seminaren ergänzt. ■
Der Autor
Markus Strehlitz
Redaktion
Quality Engineering