Startseite » Top-News »

„Machine Learning kann ein mächtiges Tool sein“

Im Interview: Professor Michael Heizmann vom KIT
„Machine Learning kann ein mächtiges Tool sein“

„Machine Learning kann ein mächtiges Tool sein“
Professor Michael Heizmann leitet das Institut für Industrielle Informationstechnik am KIT und ist Vorsitzender des Fachbereichs Optische Technologien der VDI/VDE-GMA Bild: Privat
Professor Michael Heizmann vom KIT hat den Statusreport des VDI zu Künstlicher Intelligenz in optischen Mess- und Prüfsystemen initiiert. Im Interview erklärt er die Möglichkeiten von Machine Learning in der Bildverarbeitung und warum Unternehmen ihre Bilddaten nicht löschen sollten.

Warum ist die Nutzung von Machine Learning – also ML – gerade in der Bildverarbeitung so weit fortgeschritten?

Heizmann: Das hat mehrere Gründe. Dazu gehört, dass sich viele Aufgaben in der Bildverarbeitung schwer formalisieren lassen – wenn man zum Beispiel an die Vielfalt der Defekte in der Oberflächeninspektion denkt. Wenn diese Aufgaben von einem klassischen Bildverarbeitungssystem erledigt werden sollen, braucht man einen Experten. Und die gibt es eigentlich nur bei den Herstellern solcher Systeme. Bei einem selbstlernenden System wird ein solcher Experte dagegen nicht unbedingt benötigt. Man zeigt dem System lediglich eine bestimmte Anzahl von geeigneten Bildern und es lernt dann selbst, wie ein Defekt aussieht, so dass diese erkannt werden.

Gibt es einen weiteren Grund?

Heizmann: Die faltenden neuronalen Netze – also Convolutional Neural Networks, kurz

CNN – arbeiten mit Operationen, die man sehr gut auf zweidimensionale Daten anwenden kann. Und das sind Bilder. Solche Verfahren sind geradezu prädestiniert für Bilder.

Aber ML-Systeme benötigen eine sehr große Menge an Daten, um lernen zu können.

Heizmann: Das ist richtig. Das hängt damit zusammen, dass es bei neuronalen Netzen relativ viele Parameter gibt, die eingestellt – also gelernt – werden müssen. Und diese lassen sich nur dann bestimmen, wenn man entsprechend viele Eingabedaten hat.

Die nötige Datenmenge bereit zu stellen, kann in der Qualitätskontrolle eine Herausforderung sein, wenn es nicht viele defekte Teile gibt.

Heizmann: Das stimmt. Daher geht man dazu über, teil-synthetische Daten hinzuzufügen. Das heißt, man schneidet zum Beispiel einen Defekt aus dem Bild eines fehlerhaften Teils aus und fügt ihn in ein Bild mit einem Gutteil ein. Dadurch erhält man viel mehr Daten von defekten Teilen als tatsächlich existierende Bauteile.

Gibt es weitere Ansätze?

Heizmann: Eine andere Lösung sind vortrainierte Netze. Der Trick dabei ist, dass Bildverarbeitungsanbieter Netze mit generalisierten Parametern zur Verfügung stellen, die also für eine ganze Klasse von Aufgaben geeignet sind. Das Netz muss dann die konkrete Aufgabenstellung des Anwenders nur noch nachlernen.

Können Sie ein Beispiel nennen?

Heizmann: Man kann sich etwa ein Netz vorstellen, das für die Detektion von Oberflächenfehlern geeignet ist. Was genau das für Oberflächenfehler sind, muss der Anwender dann mit Beispielbildern spezifizieren. Aber dafür benötigt er eben keine Tausende von Bildern mehr.

Lassen sich durch teil-synthetische Daten die fehlenden Daten komplett ersetzen?

Heizmann: Man kann natürlich nur solche Defekte simulieren, die man auch schon mal im Bild festgehalten hat. Doch es gibt noch einen weiteren Ansatz – die Anomalie-Detektion. Dabei wird ein Netz darauf trainiert, bekannte Muster zu lernen und Alarm zu schlagen, wenn es Dinge erkennt, die es vorher noch nicht gesehen hat. Aber grundsätzlich muss in den Unternehmen ein Umdenken bezüglich der Bilddaten stattfinden.

Was meinen Sie damit?

Heizmann: Bildverarbeitungssysteme werden ja jetzt schon sehr häufig in der Produktion eingesetzt. Es wären also eigentlich schon viele und vor allem genau die benötigten anwendungsrelevanten Daten vorhanden. Diese Bilddaten werden aber fast immer sofort gelöscht, wenn die Bilder inspiziert wurden. Aus meiner Sicht ist das falsch. Man müsste stattdessen diesen Bilddatenschatz speichern. Das kostet zwar ein paar Festplatten, hätte aber einen gewaltigen Nutzen. Es gäbe daneben auch die Möglichkeit, dass sich mehrere Firmen zusammentun, und solche Daten sammeln.

Das heißt?

Heizmann: Es gibt ja bereits Initiativen wie International Data Spaces. In dieser haben sich Unternehmen zusammengeschlossen, um einen gemeinsamen Datenraum zu schaffen und Daten für Unternehmen verfügbar zu machen. In diesem Zusammenhang könnte man auch gemeinsam Bilddaten speichern. So könnte man Bilder aus unterschiedlichen Unternehmen zusammenführen, so dass ein umfassender Datenschatz entstünde, der für alle beteiligten Unternehmen in der Zeit von maschinellem Lernen einen unschätzbaren Wert darstellen würde. Ich weiß aber, dass dies momentan eher ein Wunschdenken ist, da hier noch große Unsicherheit bei den Unternehmen besteht. Das ist vielleicht eine Vision für die kommenden zehn Jahre.

Gibt es weitere Herausforderungen, wenn man Bildverarbeitung auf Basis von Machine Learning einsetzt?

Heizmann: Im Machine Learning gibt es ein Phänomen, das auch als Single Pixel Attack bezeichnet wird. Wenn bei einem Bild ganz wenig, zum Beispiel ein Pixelwert, verändert wird, spuckt das neuronale Netz ein völlig anderes Ergebnis aus. Das ist natürlich katastrophal. Doch auch dafür gibt es Lösungsansätze – etwa dass man mehrere neuronale Netze verwendet und diese abstimmen lässt.

Inwieweit ist die Black-Box-Eigenschaft von ML-Systemen ein Hinderungsgrund für deren Einsatz im industriellen Umfeld?

Heizmann: Es stimmt zwar, dass bei ML-Systemen nicht nachvollziehbar ist, wie deren Ergebnisse zustande kommen. Aber es gibt ja bereits Verfahren, mit denen sich klassische Bildverarbeitungssysteme qualifizieren lassen, auch wenn man deren inneren Aufbau nicht kennt – wie etwa in der VDI/VDE/VDMA 2632 beschrieben. Diese lassen sich mit ein paar Anpassungen auch auf ML-Systeme übertragen. Grundsätzlich halte ich das aber für eine Phantomdiskussion. Auch bei der klassischen Bildverarbeitung schaut man in der Regel nicht in das System hinein. Dieses bewertet man ja auch nur anhand seines Ergebnisses. Und das sollte man den ML-Verfahren im Prinzip auch zugestehen.

Verstärkt eigentlich der Trend zu kleineren Losgrößen und einer größeren Variantenvielfalt den Bedarf an Machine Learning in der Bildverarbeitung?

Heizmann: Auf jeden Fall. Bei kleinen Losgrößen müsste ein klassisches Bildverarbeitungssystem ganz individuell parametriert werden – und zwar jedes Mal von einem Experten. Das ist gar nicht machbar. Daher können ML-Verfahren durch ihre automatische Anpassungsfähigkeit in diesen Fällen eine ganz wichtige Rolle spielen.

Welche Entwicklungen können wir denn beim Thema ML in den kommenden zwei bis drei Jahren erwarten?

Heizmann: Man beschäftigt sich derzeit in der anwendungsorientierten Forschung damit, ML-Verfahren einfacher einsetzen zu können – zum Beispiel mithilfe von Software-Bibliotheken oder vortrainierten Netzen, die ich bereits erwähnt habe. Auch an der Robustheit wird gearbeitet, um zum Beispiel Single Pixel Attacks zu eliminieren. Außerdem werden ML-Verfahren an unterschiedliche Hardware-Plattformen adaptiert, so dass sich zum Beispiel auch FPGAs komfortabel einsetzen lassen. Ein weiterer wichtiger Punkt ist die Standardisierung bei der Qualitätsbewertung von ML-Systemen.

Das heißt, Machine Learning hat einen festen Platz in der Bildverarbeitung.

Heizmann: Ja, es ist sinnvoll, ML-Verfahren neben oder zusammen mit klassischen Verfahren zu verwenden. Machine Learning ist ein Tool wie jedes andere auch. Und wenn man die speziellen Herausforderungen kennt, dann kann es ein sehr mächtiges Tool sein. ■


Der Autor

Markus Strehlitz

Redaktion

Quality Engineering

Newsletter

Jetzt unseren Newsletter abonnieren

Quality Engineering
Titelbild QUALITY ENGINEERING Control Express 1
Ausgabe
Control Express 1.2024
LESEN
ABO
Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Whitepaper zum Thema QS


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de