Robust Sense Test
Unabhängig von äußeren Bedingungen konnten die RobustSENSE-Algorithmen in vielen Wetter- und Verkehrssituationen in einem Vehicle-In-The-Loop-Prüfstand überprüft werden. Fraunhofer FOKUS

Hochautomatisiertes Sehen auf dem Prüfstand 

News vom 16. Mai 2018

Pressemitteilung – Für das hochautomatisierte Fahren ist die zuverlässige Wahrnehmung der Umgebung entscheidend. Im europäischen Projekt RobustSENSE haben die Forscher von Fraunhofer FOKUS mit 14 Partnern, darunter die Daimler AG und die Robert Bosch GmbH, in den vergangenen zwei Jahren eine Softwareplattform entwickelt, auf der verschiedene Sensordaten von Kamera, Laser, Radar und weitere Informationen zum Beispiel von anderen Autos kombiniert werden. Ziel ist eine robuste und zuverlässige Wahrnehmung der Straßensituation. Dass dies auch bei starkem Schnee und Regen gelingt, demonstrierten die Fraunhofer-Forscher heute bei der Abschlussveranstaltung des Projekts in Ulm in einer Liveschaltung zu ihrem Forschungsfahrzeug im Prüfstand des Fachgebiets Kraftfahrzeuge an der TU Berlin.

Die robuste Wahrnehmung wurde in den vergangenen Monaten von den Forschern des Geschäftsbereichs Smart Mobility am Fraunhofer FOKUS in Kooperation mit dem Fachgebiet Kraftfahrzeuge der TU Berlin und dem Daimler Center for Automotive IT Innovations (DCAITI) noch einmal auf Herz und Nieren geprüft. Dafür wurde ein reales Forschungsfahrzeug in einen Vehicle-in-the-Loop-Prüfstand mit der virtuellen Simulationsumgebung VSimRTI und den RobustSENSE-Algorithmen eingebunden. Der Vorteil: Unabhängig von äußeren Bedingungen konnten die RobustSENSE-Algorithmen in vielen Wetter- und Verkehrssituationen überprüft werden.

Dr. Ilja Radusch, Leiter des Geschäftsbereichs Smart Mobility am Fraunhofer FOKUS resümiert: »Es ist für einen Computer noch sehr anspruchsvoll, zwischen einem Gegenstand und einem Menschen zu unterscheiden. Bei schlechten Witterungsbedingungen, wie starkem Schneefall, hat das Fahrzeug durch die Sensorkombination aber den besseren Durchblick. RobustSENSE hat gezeigt, wie wichtig die virtuelle Erprobung ist. In den virtuellen Tests konnten wir verschiedene Wetter- und Straßenbedingungen kontrolliert und wiederholbar mit unseren intelligenten Algorithmen einspielen. Damit haben wir einen wichtigen Baustein für das automatisierte und vernetzte Fahren im Digitalen Testfeld Berlin validiert.«

Um die Umgebung robust erfassen zu können, benötigen Assistenzsysteme und Fahrzeuge neben hochgenauen HD-Karten vor allem optische Sensor-Komponenten, die bereits in verschiedenen Formen zum Einsatz kommen. Kameras unterstützen in Assistenzsystemen das automatische Halten der Spur bei einer Fahrt auf der Autobahn, erfassen selbst kleine Hindernisse und leiten bei hochautomatisierten Fahrzeugen, wenn nötig, den Bremsvorgang ein. Doch besonders die Kameras sind bei der Objekterfassung und -erkennung störanfällig: Bereits das starke Gegenlicht der Sonne oder Witterungsbedingungen wie Regen und Schneefall können dazu führen, dass Hindernisse, andere Fahrzeuge oder Personen zu spät oder gar nicht von den Systemen erfasst werden. Um diese Nachteile auszugleichen, kombinieren die Forscher die Sensordaten der Kamera mit der Positionsbestimmung von Laser- und Radarsystemen. Die Laserstrahlen und Radarwellen erfassen Hindernisse oder Verkehrsteilnehmer genauer als die Berechnung auf der Grundlage von Kamerabildern, können also Objekte erkennen. Allerdings können sie nicht bestimmen, um was für ein Objekt es sich handelt. Die Fraunhofer-Forscher nutzen daher Sensordaten aus verschiedenen Quellen, um eine robuste und zuverlässige Wahrnehmung sowie den Witterungsbedingungen angepasste Fahrmanöver zu gewährleisten.

Das Projekt RobustSENSE wird von der EU im 7. Forschungsrahmenprogramm und dem Bundesforschungsministerium mit 10,5 Millionen Euro gefördert. Weitere Partner sind Daimler AG, AVL GmbH, Robert Bosch GmbH, Centro Ricerche Fiat, Centro Tecnológico de Automoción de Galicia, European Center for Information and Communication Technologies – EICT GmbH, Ficomirrors S.A., FZI Forschungszentrum Informatik, Modulight, Inc., Oplatek Group Oy, SICK AG, Universität Ulm, VTT Technical Research Centre of Finland.