22. April 2021

SAL entwickelt Sinnesorgan für das sichere Fahren der Zukunft

Auto­ma­ti­sierte Mobi­li­täts­sys­teme bewegen sich derzeit in Rich­tung komple­xerer Stadt­ver­kehrs­sze­na­rien. Das iLID­S4SAM-Projekt wird diesen Übergang ermög­li­chen, indem leis­tungs­starke, kosten­güns­tige LiDAR-Sensoren mit vergrö­ßertem Sicht­feld und größerer Auflö­sung entwi­ckelt werden.

Aktu­elle Fahre­ras­sis­tenz­sys­teme fokus­sieren auf vergleichs­weise einfache Szena­rien in denen sich Objekte vorher­sagbar verhalten, wie Auto­bahn­ver­kehr oder Park­assis­tenz ohne Fuß­gänger, Radfahrer oder Quer­ver­kehr. Es besteht somit ein drin­gender Bedarf, die Einsatz­ge­biete auf den städ­ti­schen Verkehr zu erwei­tern. Der Akti­ons­plan “Auto­ma­ti­siert-vernetzt-mobil” des bmvit defi­niert sieben Use Cases, davon drei mit Vorrang, welche Szena­rien im Stadt­ver­kehr mit einschließen und 360° Rund­um­blick und voraus­schau­ende Gefah­ren­er­ken­nung verlangen. Auch Euro NCAP defi­niert Test­fälle mit Vulnerable Road Users (VRUs) wie erwach­senen Fußgän­gern, Kindern und Fahrrad­fahrern im Stadt­ver­kehr.

iLID­S4SAM wird dies durch die Entwick­lung neuar­tiger LiDAR-basierter Systeme für die voraus­schau­ende Gefah­ren­be­wer­tung mit VRUs im städ­ti­schen Bereich adres­sieren. Die dazu nötige signi­fi­kante Verbes­se­rung von Gesichts­feld und Auflö­sung erfor­dert Inno­va­tionen aller Kompo­nenten eines LiDAR-Sensors: eine hybride Laser­quelle für kürzere und inten­si­vere Pulse bei höherer Wieder­hol­rate, ein neues Spiegel- und Package-Design mit größerer Fläche bei größeren Auslenk­win­keln, ein Empfänger mit größerem Detek­tor­feld und eine effi­zi­en­tere und gleich­zeitig genauere Puls­de­tek­tion und Zeit­mes­sung.

Die resul­tie­renden Punkt­wolken gehen in die 3D-Objekt­de­tek­tion und –klas­si­fi­ka­tion ein. Die Objekte werden in einem sicheren, subsi­diären Daten­aus­wer­te­pro­zess segmen­tiert, mit Hilfe von Deep Learning-Algo­rithmen iden­ti­fi­ziert und in Fahr­zeuge, Fußgänger, Rad­fahrer, statio­näre Objekte usw. klas­si­fi­ziert. Diese LiDAR-Daten werden in Folge mittels Sensor Fusion mit Radar- und Kame­ra­daten kombi­niert. Die Hard­ware für Daten­auswer­tung und Sensor Fusion beinhaltet einen Rechner mit stan­dar­di­sierten Sensor­schnitt­stellen für LiDAR, Radar und Ultra­schall­sen­soren sowie Kameras und die Netz­werk­konnek­ti­vität. Dies erlaubt eine umfas­sende Daten­samm­lung von allen Sensoren während Test­fahrten. Die Daten werden anno­tiert und für Trai­ning, Test und Evalua­tion der Objekt­klas­si­fi­ka­toren und Algo­rithmen verwendet. Es ist geplant, resul­tie­rende Daten­sätze öffent­lich zur Verfü­gung zu stellen, um weitere Forschung zu unter­stützen; ein Data Manage­ment Plan wird die Details für den Zugriff beschreiben. Des Weiteren soll die Sensor­fu­sions-Hard­ware als Entwick­lungs­platt­form für zukünf­tige Forschungs­pro­jekte nutzbar sein. Neben einem geplanten Beitrag zu einem neuen ISO Stan­dard in ISO TC22/​SC31 „Road vehi­cles – data communi­ca­tion“ soll das Open Simu­la­tion Inter­face genutzt werden um die fusio­nierten Objekte, Frei­flä­chen­infor­ma­tion usw. den Algo­rithmen zum Szenen­ver­ständnis weiter­zu­rei­chen, wo die Objekte verfolgt und ihr Verhalten im Sinn einer prädik­tiven Gefah­ren­be­wer­tung voraus­ge­sagt werden.

Für die hoch­re­le­vante Simu­la­tion und Vali­die­rung von Fahre­ras­sis­tenz- und auto­nomen Systemen im urbanen Umfeld werden neue Test- und Refe­renz­sys­teme auf Basis des hoch­auf­lö­senden LiDAR-Sensors entwi­ckelt. Schließ­lich werden verschie­dene ausge­wählte Use Cases, u.a. für Straßen- und Schie­nen­fahr­zeuge im städ­ti­schen Bereich sowie land­wirt­schaft­liche Anwen­dungen, umge­setzt, um die Rele­vanz und Leis­tungs­fä­hig­keit des Ansatzes prak­tisch zu demons­trieren.

(c) iStock (metamorworks)