Das Team der Hochschule für Technik, Wirtschaft und Kultur (HTWK) Leipzig ging in der ersten Halbzeit mit einem kurzen Schuss quer durch die Bremer Verteidigung in Führung. B-Human gelang erst fünf Minuten vor dem Schlusspfiff der Ausgleichstreffer. Vorangegangen war ein Foul der Leipziger in der Bremer Hälfte. Den darauf folgenden Freistoß spielte B-Human tief in die gegnerische Hälfte, genau vor die Füße des dort wartenden Stürmers, der den Ball im Tor platzieren konnte. Nur eine Minute später folgte einer von B-Humans gefürchteten Fernschüssen, der zum 2:1 Siegtor führte.
Der Spielbericht klingt wie der eines „echten“ Fußballspiels mit Menschen. Doch kicken beim Robocup Roboter. Und die haben mit speziellen Herausforderungen zu kämpfen: So gehörte in Sidney zu den besonderen Herausforderungen das Spielen neben großen Fenstern mit sich änderndem Lichteinfall, der sowohl helle Flächen als auch dunkle Schatten auf dem Spielfeld hervorrufen kann. Diesen für maschinelle Bildverarbeitung äußerst schwierigen Bedingungen begegnete B-Human unter anderem mit Methoden des Deep Learning. Nachdem in den vergangenen Jahren bereits die Ballerkennung von einem neuronalen Netz unterstützt wurde, kam diesmal ein sogenanntes Convolutional Neural Network für die Robotererkennung zum Einsatz. Dieses ermittelt aus einem vom Roboter aufgenommenen Kamerabild die Positionen sowie die Entfernungen aller darin enthaltenen humanoiden Roboter namens NAO, die von Softbank Robotics stammen und seit vielen Jahren als einheitliche Plattform bei der Fußball-WM der Roboter eingesetzt werden. Dabei punktet das Convolutional Neural Network nicht nur mit einer hohen Erkennungsrate, sondern auch mit einer enorm hohen Ausführungsgeschwindigkeit: Für die Analyse eines vom Roboter aufgenommen Bilds braucht es nur wenige Millisekunden.
Die wissenschaftlichen Arbeiten hierzu stellte das Bremer Team beim Robocup Symposium nach der WM vor, nämlich JET-Net (Just Enough Time). Dabei handelt es sich um einen Modellrahmen für eine effiziente Objekterkennung auf Basis von Convolutional Neural Networks. „In den meisten Anwendungen für autonome Roboter ist die Erkennung von Objekten in ihrer Umgebung von entscheidender Bedeutung. Da viele Roboter mit Kameras ausgestattet sind, wird diese Aufgabe oft durch Bildverarbeitungstechniken gelöst. Aufgrund der begrenzten Rechenressourcen auf mobilen Systemen ist es jedoch üblich, spezielle Algorithmen zu verwenden, die stark an das jeweilige Szenario angepasst sind. Hochentwickelte Ansätze wie Deep Neural Networks, die in jüngster Zeit bei vielen Aufgaben der Objekterkennung eine hohe Leistungsfähigkeit bewiesen haben, sind oft schwer anwendbar“, heißt es im Vortrag von Bernd Poppinga und Tim Laue.
JET-Net sei hingegen in der Lage, die Robotererkennung in Echtzeit an einem NAO V5 Roboter in einer Roboterfußballumgebung durchzuführen. „Experimente zeigen, dass das System in der Lage ist, andere Roboter in verschiedenen Situationen zuverlässig zu erkennen.“ Darüber hinaus haben die Forscher eine Technik vorgestellt, die die erlernten Funktionen wiederverwendet, um mehr Informationen über die erfassten Objekte zu erhalten. Da die Zusatzinformationen vollständig aus Simulationsdaten gelernt werden können, sprechen sie von Simulation Transfer Learning. ■
Die Autorin
Sabine Koll
Redaktion
Quality Engineering
Webhinweis
Das Endspiel des Robocup-Wettbewerbs 2019 zwischen B-Human und dem Nao-Team HTWK aus Leipzig sehen Sie in diesem Video:
http://hier.pro/4sxaq