direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Fernsteuerung für hochautomatisierte Fahrzeuge

Mittwoch, 10. Oktober 2018

Medieninformation Nr. 204/2018

Forscher des Fraunhofer FOKUS und der TU Berlin gehen weiteren Schritt zum autonomen Fahren – Demonstration am 10. und 11.10.2018 in München

Lupe

Auf der GPU Technology Conference (GTC) von NVIDIA demonstrieren die Forscher von Fraunhofer FOKUS und TU Berlin vom 9. bis 11. Oktober 2018 in München, wie sie ein Fahrzeug auf dem Messe-Außengelände mit minimaler Verzögerung teleoperiert steuern. Dies unterstützt den Übergang von der Steuerung durch den Menschen hin zum autonomen Fahren. Darüber hinaus stellen sie für das Künstliche Intelligenz-Training (KI) der schlauen Autos ihr halbautomatisiertes Werkzeug zur Aufbereitung von Bilddaten von Lidar-Laserscannern und Kameras vor.

Es wird auch in Zukunft Situationen geben, in denen hochautomatisierte und autonome Fahrzeuge von einem Menschen gesteuert werden: Zum Beispiel ein LKW, der auf einem Firmengelände nicht mehr eigenständig zur Laderampe fahren kann, da er keinen Zugriff auf digitale Karten des Privatgeländes hat. Oder ein autonomes Auto, das um eine unvorhergesehene Baustelle navigiert werden muss. Die FOKUS-Forscher vom Geschäftsbereich Smart Mobility zeigen zusammen mit dem Daimler Center for Automotive IT Innovations (DCAITI), einem An-Institut der TU Berlin, auf der GTC Europe von NVIDIA, wie teleoperiertes Fahren mit geringer Latenz gelingt, um den Weg zum autonomen Fahren zu ebnen.

Der Operator, in dem Fall die Person, die die Demo durchführt, ist mittels kabelloser und verschlüsselter Datenübertragung – über WLAN und perspektivisch über 5G-Mobilfunk – mit dem hochautomatisierten Fahrzeug verbunden. Die Steuerung erfolgt hocheffizient mit Hilfe des komprimierten fahrzeugeigenen Umfeldmodells. Dieses wertet Bilddaten von bis zu acht Kameras in Kombination mit Lidar-Laserscannern aus. Die DRIVE-Plattform von NVIDIA bietet die benötigte Rechenpower, um die vielfältigen und redundanten Algorithmen und Anwendungen auszuführen, die für ein sicheres hochautomatisiertes Fahren notwendig sind. Die wesentlich geringeren Meta-Daten werden dann zum Operator übertragen. Das spart Bandbreite und sorgt für ein Bild der aktuellen Lage in nahezu Echtzeit.

Der Operator kann das Fahrzeug realitätsnah mit einem Lenkrad und Gas- bzw. Bremspedal steuern. Er sieht auf einem zweiten Monitor eine Karte mit der aktuellen Route. Entscheidend für eine sichere Teleoperation ist, dass die Datenübertragung sowohl der Umfelddaten als auch der Steuersignale zu einem möglichst geringen Zeitverzug führen.

Mit Künstlicher Intelligenz (KI) lernt das Auto „Sehen“ –  Das Werkzeug zur halbautomatischen Annotation von Bilddaten

KI ist für die Wahrnehmung der näheren Umgebung durch das Fahrzeug von großer Bedeutung. Fährt ein hochautomatisiertes Fahrzeug auf der Straße, nimmt eine Vielzahl von Kameras und weiteren Sensoren, wie einem Lidar, Informationen aus der Umgebung auf. Diese müssen in Echtzeit analysiert und Fußgänger, Fahrradfahrer, Fahrzeuge und andere Objekte in der Umgebung verlässlich erkannt werden.

Mit neuen Verfahren der Künstlichen Intelligenz, insbesondere dem Deep Learning-Verfahren, lernt der Computer anhand einer riesigen Menge von Daten zum Beispiel wie ein Mensch oder Baum aussieht. Je besser die Lerndaten sind, desto realitätsnaher lernt das Auto „Sehen“. Bislang war es sehr aufwändig, in den Lerndaten zu markieren, was ein Baum, ein Mensch oder ein Auto ist. Die Smart Mobility-Forscher stellen auf der GTC Europe ihr Label-Werkzeug für Bilddaten von Kameras und Lidar-Lasercannern vor. Die Rechenkapazität bietet DGX-1 Supercomputer Rechenzentrumslösung von NVIDIA. Mit dem Werkzeug können die Annotationen vorgelabelt und in kürzester Zeit überprüft und korrigiert werden. Labeling-Experten benötigen dadurch im Mittel nur noch 10 Prozent der Zeit, um hochqualitative Lerndaten zu generieren.

Mit Hilfe der innovativen KI-Algorithmen von FOKUS werden Bilddaten von Kameras und Laserscannern in Objektklassen wie Fahrbahn, Fahrzeug, Fußgänger unterteilt und einzelne Elemente der Objekte voneinander getrennt. So können sogar Fußgänger in einer Menschenmenge auseinandergehalten werden. Zu jedem Objekt berechnen die Algorithmen weiterhin die korrekte Position und Drehung im 3D-Raum.

Das Mobilitätsdaten-Backend von FOKUS verwaltet die Sensordaten hunderter Fahrzeuge und ermöglicht es, Labeling-Experten und Entwicklern weltweit die Daten im gewöhnlichen Webbrowser zu sichten und zu korrigieren. So entsteht ein immer größerer Pool qualitativ hochwertiger Lerndaten für KI-Algorithmen im Fahrzeug.

Zur GTC-Session:

11. Oktober 2018, 11:00 Uhr bis 11:50 Uhr, Raum 14c: Deep Learning software applications for Autonomous Vehicles mit dem Leiter des Geschäftsbereichs "Smart Mobility" Dr. Ilja Radusch

https://2018gtceurope.smarteventscloud.com/connect/search.ww#loadSearch-searchPhrase=Radusch&searchType=session&tc=0&sortBy=dayTime&p

Über die GPU Technology Conference: https://www.nvidia.com/en-eu/gtc/

pp

Weitere Informationen erteilen Ihnen gern:

Dr.-Ing. Ilja Radusch
Leiter des Geschäftsbereichs Smart Mobility im Fraunhofer FOKUS
Leiter des DCAITI (Daimler Center for Automotive Information Technology Innovations) an der TU Berlin
Tel.: (030) 914 26 36-474

www.dcaiti.tu-berlin.de/people/radusch/
www.fokus.fraunhofer.de
Mitra Motakef-Tratar
Corporate Communications Fraunhofer FOKUS
Tel. (030) 3463-7517

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.