Sensorkombination für Fahren bei schlechter Sicht

Projekt RobustSense geht in den Praxistest

Schlechte Sichtverhältnisse bei Regen oder Schneefall sind für Menschen sowie für hochautomatisierte Fahrzeuge eine Herausforderung. Im europäischen Projekt RobustSense haben die Forscher von Fraunhofer Fokus mit 14 Partnern in den vergangenen zwei Jahren eine Softwareplattform entwickelt, auf der verschiedene Sensordaten von Kamera, Laser, Radar und weitere Informationen wie Wetterdaten kombiniert werden. Ziel ist, eine robuste und zuverlässige Wahrnehmung der Straßensituation unabhängig von der Komplexität und der Sichtverhältnisse zu gewährleisten. Nach der virtuellen Erprobung des Systems erfolgt nun der Praxistest, unter anderem auf dem Berliner Testfeld für hochautomatisiertes Fahren.

Quelle: Fraunhofer FOKUS/ Ilja Radusch

Die Forscher des Geschäftsbereichs Smart Mobility am Fraunhofer F beschäftigen sich seit vielen Jahren mit dem hochautomatisierten und vernetzten Fahren und sind seit einigen Monaten auf den Testfeldern im Berliner Stadtverkehr auf Erprobungsfahrten unterwegs. Sie haben nun im europäischen Projekt RobustSense mit 14 weiteren Partnern eine Softwareplattform entwickelt und virtuell erprobt, mit der hochautomatisierte Autos unabhängig vom Wetter und der Komplexität der Verkehrssituation zuverlässig die Umgebung wahrnehmen und entsprechend reagieren können.  Beispielsweise können die Fahrmanöver bei verschneiter Straße so angepasst werden, dass das Fahrzeug nicht mehr auf der markierten Spur aus der internen hochgenauen HD-Karte fährt, sondern im Bereich der Straße, der vom Schnee geräumt ist.

Um die Umgebung robust erfassen zu können, benötigen Assistenzsysteme und Fahrzeuge neben hochgenauen HD-Karten vor allem optische Sensor-Komponenten, die bereits in verschiedenen Formen zum Einsatz kommen. Kameras unterstützen in Assistenzsystemen das automatische Halten der Spur bei einer Fahrt auf der Autobahn, erfassen selbst kleine Hindernisse und leiten bei hochautomatisierten Fahrzeugen, wenn nötig, den Bremsvorgang ein. Doch besonders die Kameras sind bei der Objekterfassung und -erkennung störanfällig: bereits das starke Gegenlicht der Sonne oder Witterungsbedingungen wie Regen und Schneefall können dazu führen, dass Hindernisse, andere Fahrzeuge oder Personen zu spät oder gar nicht von den Systemen erfasst werden. Um diese Nachteile auszugleichen, kombinieren die Forscher die Sensordaten der Kamera mit der Positionsbestimmung von Laser- und Radarsystemen. Die Laserstrahlen und Radarwellen erfassen Hindernisse oder Verkehrsteilnehmer genauer als die Berechnung auf der Grundlage von Kamerabildern. Um was für ein Objekt es sich handelt, können sie allerdings nicht bestimmen. Die Fraunhofer-Forscher nutzen daher Sensordaten aus verschiedenen Quellen, um eine robuste und zuverlässige Wahrnehmung sowie den Witterungsbedingungen angepasste Fahrmanöver zu gewährleisten. Für die virtuelle Erprobung wurde die Simulationsumgebung VSimRTI von Fraunhofer Fokus genutzt. Das System wird nun im Herbst und Winter in Praxistests in verschiedenen europäischen Städten und auf Autobahnen getestet, unter anderem mitten in Berlin.  


Das Projekt RobustSENSE endet im Mai 2018 und wird von der EU im 7. Forschungsrahmenprogramm und dem Bundesforschungsministerium mit 10,5 Millionen Euro gefördert. Weitere Partner sind Daimler AG, AVL GmbH, Robert Bosch GmbH, Centro Ricerche Fiat, Centro Tecnológico de Automoción de Galicia, European Center for Information and Communication Technologies, Ficomirrors S.A., FZI Forschungszentrum Informatik, Modulight, Inc., Oplatek Group Oy, SICK AG, Universität Ulm, VTT Technical Research Centre of Finland.

www.robustsense.eu