Ruhe bewahren – das ist die erste Pflicht des Anwenders, wenn er sich auf die Suche nach der Fehlerursache in seiner Bildverarbeitungsapplikation macht. Diesen Rat gibt Lothar Burzan, der bei Stemmer Imaging in der Entwicklung tätig ist. „Man erreicht dadurch einen Perspektivwechsel und kommt so eventuell schneller zu einer Lösung.“
Die Tipps, die er parat hat, sind einfach. Doch in der Vereinfachung liegt seiner Meinung nach der Schlüssel, um ein Problem in der Bildverarbeitung zu beheben. Denn die Faktoren, die Einfluss auf die Leistung eines Vision-Systems haben, sind vielfältig. Und ein solches System ist typischerweise komplex. Es besteht aus mehreren Komponenten, die für einen Fehler verantwortlich sein können – unter anderem Kamera, Objektiv, Beleuchtung und PC mit Software.
Auch einfachste Lösungen kommen infrage
Um die Ursache für ein Problem zu finden, sollte man sich die Bestandteile des Systems einzeln vornehmen und nacheinander ausschließen. „Wenn man zum Beispiel ein Test Pattern aktiviert ist und dieses angezeigt wird, kann es schon mal nicht an der Software und dem Interface liegen“, so Burzan. Dann blieben eigentlich nur noch die Kamera, die Beleuchtung und die Optik übrig.
Aber auch einfachste Lösungen sollten nicht ausgeschlossen werden. Wenn zum Beispiel nur ein schwarzes Bild zu sehen sei, könnte dafür die Kappe auf dem Objekt verantwortlich sein, die nicht abgenommen wurde, so Burzan. Auch wenn sich das sehr simpel anhöre.
Welche Probleme die einzelnen Komponenten verursachen können, erläutert Lars Fermum. Er ist Schulungsleiter bei Stemmer Imaging. Eine mögliche Fehlerquelle können laut Fermum zum Beispiel die Wahl und Konfiguration der Kamera sein. „Einfachster und doch häufigster Fehler in der Bildverarbeitung ist das Überbelichten von Bildern.“ Dies führe zu einer Sensorübersättigung und Überstrahlungseffekten. „Ein präzises Messen ist unter diesen Voraussetzungen dann nicht mehr möglich und führt die Subpixeling-Methoden der Bildverarbeitungsalgorithmen zur Bestimmung einer Nachkommastellengenauigkeit ad absurdum“, so Fermum.
Ein weiterer Faktor ist die Beleuchtung. Auch sie kann die Ursache für ein Problem in einer Bildverarbeitungsapplikation darstellen. So zeigen LED-Beleuchtungen laut Fermum ein Einschaltverhalten, das zu kurzfristigen Lichtverlusten innerhalb der ersten 30 Minuten um bis zu 15 % führt. Des Weiteren ist eine langzeitige Alterung über die Jahre hinweg zu beobachten, die ebenfalls zu Helligkeitsabfällen, aber eventuell auch zu einer Verschiebung des Wellenlängenspektrums führt. „Eine einfache Maßnahme zur Behebung dieser Probleme stellt die Verwendung eines LED-Blitzcontrollers zum präzisen Regeln und Takten der Beleuchtung dar“, erklärt der Schulungsleiter.
Zu den Komponenten eines Vision-Systems zählt zudem das Objektiv. Hier gibt es kein Patentrezept für die richtige Wahl. Prinzipiell sei kein Objektiv ideal, sondern zeige optische Abbildungsfehler. Wichtig sei eine Abstimmung auf die Applikation und den gewählten Kamerasensor.
„Häufigstes Abbildungsprinzip sind entozentrische Objektive mit Festbrennweiten“, berichtet Vision-Experte Fermum. „Je nach Arbeitsabstand werden Objekte jedoch unterschiedlich groß abgebildet. Da ein extrem genaues Positionieren oftmals nicht möglich ist und auch Bauteile zulässige Höhentoleranzen aufweisen können, kommt es hier zu sichtbaren Messfehlern.“ Eine Lösungsoption für Aufgabenstellungen dieser Art seien telezentrische Objekte mit einem objektseitig parallelen Strahlengang.
Software hat Einfluss auf die Ergebnisse
Neben der Hardware kann aber auch die Software Probleme bereiten. So haben die implementierten Software-Algorithmen und deren Subpixel-Methoden laut Fermum großen Einfluss auf die Genauigkeit und Wiederholbarkeit der Ergebnisse. „Hochwertige Bibliotheken und Produkte bieten oftmals zuverlässigere und präzisere Software-Tools zur Positionierung und Bauteilinspektion als günstigere Alternativen.“
Neben den genannten Komponenten des System gibt es noch weitere Einflussfaktoren. „Auch das Bauteilhandling und die unterschiedliche mechanische Zuführung – wie zum Beispiel eine Bauteilverkippung oder Offsets in X-, Y- und Z-Richtung – erzeugen variable Bildperspektiven und damit verschiedene Prüfergebnisse“, erklärt Fermum. Bei längerer Belichtungszeit sollten die Prüfobjekte nicht bewegt werden, um Bewegungsunschärfe im Kamerabild zu vermeiden. Anlagen-Vibrationen könnten ebenfalls zu unscharfen Bildern führen.
Letztlich ist aber nicht immer nur die Technik schuld, wenn das Ergebnis einer Bildverarbeitungsanwendung nicht befriedigend ist. Auch der Mensch spielt ein entscheidende Rolle. Und dessen Einfluss könne sehr komplex sein, meint Fermum. Das zeige sich zum Beispiel im Betrieb des Systems. „Unterschiedlich gut geschultes Personal parametrisiert und pflegt die Systeme im Alltag schließlich unterschiedlich gut.“ ■
Der Autor
Markus Strehlitz
Redaktion
Quality Engineering
Hier finden Sie mehr über: