Fahrzeugfernsteuerung
Fraunhofer FOKUS

Fernsteuerung für hochautomatisierte Fahrzeuge

News vom 10. Okt. 2018

Pressemitteilung – Auf der GPU Technology Conference (GTC) von NVIDIA demonstrieren die FOKUS-Forscher vom 9. bis 11. Oktober 2018 in München, wie sie ein Fahrzeug auf dem Messe-Außengelände mit minimaler Verzögerung teleoperiert steuern. Dies unterstützt den Übergang von der Steuerung durch den Menschen hin zum autonomen Fahren. Darüber hinaus stellen sie für das Künstliche Intelligenz (KI)-Training der schlauen Autos ihr halbautomatisiertes Werkzeug zur Aufbereitung von Bilddaten von Lidar-Laserscannern und Kameras vor. 

Es wird auch in Zukunft Situationen geben, in denen hochautomatisierte und autonome Fahrzeuge von einem Menschen gesteuert werden: Zum Beispiel ein LKW, der auf einem Firmengelände nicht mehr eigenständig zur Laderampe fahren kann, da er keinen Zugriff auf digitale Karten des Privatgeländes hat. Oder ein autonomes Auto, das um eine unvorhergesehene Baustelle navigiert werden muss. Die FOKUS-Forscher vom Geschäftsbereich Smart Mobility zeigen zusammen mit dem Daimler Center for Automotive IT Innovations (DCAITI) der TU Berlin auf der GTC Europe von NVIDIA, wie teleoperiertes Fahren mit geringer Latenz gelingt, um den Weg zum autonomen Fahren zu ebnen.

Der Operator, in dem Fall die Person, die die Demo durchführt, ist mittels kabelloser und verschlüsselter Datenübertragung – über WLAN und perspektivisch über 5G-Mobilfunk – mit dem hochautomatisierten Fahrzeug verbunden. Die Steuerung erfolgt hocheffizient mit Hilfe des komprimierten fahrzeugeigenen Umfeldmodells. Dieses wertet Bilddaten von bis zu acht Kameras in Kombination mit Lidar-Laserscannern aus. Die DRIVE-Plattform von NVIDIA bietet die benötigte Rechenpower, um die vielfältigen und redundanten Algorithmen und Anwendungen auszuführen, die für ein sicheres hochautomatisiertes Fahren notwendig sind. Die wesentlich geringeren Meta-Daten werden dann zum Operator übertragen. Das spart Bandbreite und sorgt für ein Bild der aktuellen Lage in nahezu Echtzeit.

Der Operator kann das Fahrzeug realitätsnah mit einem Lenkrad und Gas- bzw. Bremspedal steuern. Er sieht auf einem zweiten Monitor eine Karte mit der aktuellen Route. Entscheidend für eine sichere Teleoperation ist, dass die Datenübertragung sowohl der Umfelddaten als auch der Steuersignale zu einem möglichst geringen Zeitverzug führen.

Werkzeug zur halbautomatischen Annotation von Bilddaten

KI ist für die Wahrnehmung der näheren Umgebung durch das Fahrzeug von großer Bedeutung. Fährt ein hochautomatisiertes Fahrzeug auf der Straße, nimmt eine Vielzahl von Kameras und weiteren Sensoren, wie einem Lidar, Informationen aus der Umgebung auf. Diese müssen in Echtzeit analysiert und Fußgänger, Fahrradfahrer, Fahrzeuge und andere Objekte in der Umgebung verlässlich erkannt werden.

Mit neuen Verfahren der Künstlichen Intelligenz, insbesondere dem Deep Learning-Verfahren, lernt der Computer anhand einer riesigen Menge von Daten zum Beispiel wie ein Mensch oder Baum aussieht. Je besser die Lerndaten sind, desto realitätsnaher lernt das Auto »Sehen«. Bislang war es sehr aufwändig, in den Lerndaten zu markieren, was ein Baum, ein Mensch oder ein Auto ist. Die Smart Mobility-Forscher stellen auf der GTC Europe ihr Label-Werkzeug für Bilddaten von Kameras und Lidar-Lasercannern vor. Die Rechenkapazität bietet die DGX-1 Supercomputer Rechenzentrumslösung von NVIDIA. Mit dem Werkzeug können die Annotationen vorgelabelt und in kürzester Zeit überprüft und korrigiert werden. Labeling-Experten benötigen dadurch im Mittel nur noch 10 Prozent der Zeit, um hochqualitative Lerndaten zu generieren.

Mit Hilfe der innovativen KI-Algorithmen von FOKUS werden Bilddaten von Kameras und Laserscannern in Objektklassen wie Fahrbahn, Fahrzeug, Fußgänger unterteilt und einzelne Elemente der Objekte voneinander getrennt. So können sogar Fußgänger in einer Menschenmenge auseinander gehalten werden. Zu jedem Objekt berechnen die Algorithmen weiterhin die korrekte Position und Drehung im 3D-Raum.

Das Mobilitätsdaten-Backend von FOKUS verwaltet die Sensordaten hunderter Fahrzeuge und ermöglicht es, Labeling-Experten und Entwicklern weltweit die Daten im gewöhnlichen Webbrowser zu sichten und zu korrigieren. So entsteht ein immer größerer Pool qualitativ hochwertiger Lerndaten für KI-Algorithmen im Fahrzeug.

Weitere Informationen

Session auf der GTC: 11. Oktober 2018, 11:00 Uhr bis 11:50 Uhr, Raum 14c:

»Deep Learning software applications for Autonomous Vehicles« mit dem Leiter des Geschäftsbereichs Smart Mobility Dr. Ilja Radusch