Heim > Technologie-Peripheriegeräte > KI > Experimentelle Studie zur Radar-Kamera-Fusion über Datensätze hinweg unter BEV

Experimentelle Studie zur Radar-Kamera-Fusion über Datensätze hinweg unter BEV

PHPz
Freigeben: 2023-10-05 18:45:05
nach vorne
758 Leute haben es durchsucht

Originaltitel: Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye View
Link zum Papier: https://arxiv.org/pdf/2309.15465.pdf
Autorenzugehörigkeit: Opel Automobile GmbH Rheinland-Pfalzische Technische Universität Kaiserslautern- Deutsches Forschungszentrum für Künstliche Intelligenz Landau

BEV下的Radar-Camera 融合跨数据集实验研究

Thesisidee:

Durch die Nutzung komplementärer Sensorinformationen haben Millimeterwellenradar- und Kamerafusionssysteme das Potenzial, hochrobuste und autonome Fahrfunktionen für fortschrittliche Fahrerassistenzsysteme bereitzustellen Autonome Fahrfunktionen. Zuverlässiges Sensorsystem. Jüngste Fortschritte bei der kamerabasierten Objekterkennung bieten neue Möglichkeiten für die Fusion von Millimeterwellenradar und Kameras, die Feature-Maps aus der Vogelperspektive für die Fusion nutzen können. Diese Studie schlägt ein neuartiges und flexibles Fusionsnetzwerk vor und bewertet seine Leistung anhand von zwei Datensätzen (nuScenes und View-of-Delft). Experimentelle Ergebnisse zeigen, dass der Kamerazweig zwar große und vielfältige Trainingsdaten erfordert, der Millimeterwellenradarzweig jedoch stärker von Hochleistungs-Millimeterwellenradar profitiert. Durch Transferlernen verbessert diese Studie die Kameraleistung bei kleineren Datensätzen. Die Forschungsergebnisse zeigen außerdem, dass die Fusionsmethode von Millimeterwellenradar und Kamera deutlich besser ist als die Basismethode, bei der nur Kamera oder nur Millimeterwellenradar verwendet werden die Merkmale von Bildern Konvertieren in eine gängige Vogelperspektive (BEV)-Darstellung. Diese Darstellung bietet eine flexible Fusionsarchitektur, die zwischen mehreren Kameras oder mithilfe von Entfernungssensoren fusioniert werden kann. In dieser Arbeit erweitern wir die BEVFusion-Methode, die ursprünglich für die Laserkamerafusion verwendet wurde, für die Millimeterwellen-Radarkamerafusion. Wir haben unsere vorgeschlagene Fusionsmethode anhand eines ausgewählten Millimeterwellenradardatensatzes trainiert und bewertet. In mehreren Experimenten diskutieren wir die Vor- und Nachteile jedes Datensatzes. Abschließend wenden wir Transferlernen an, um weitere Verbesserungen zu erzielen

Hier ist, was neu geschrieben werden muss: Abbildung 1 zeigt das BEV-Millimeterwellen-Radar-Kamera-Fusionsflussdiagramm basierend auf BEVFusion. In das generierte Kamerabild beziehen wir die Erkennungsergebnisse des projizierten Millimeterwellenradars und des realen Begrenzungsrahmens ein

Dieser Artikel folgt der Fusionsarchitektur von BEVFusion. Abbildung 1 zeigt die Netzwerkübersicht der Millimeterwellen-Radar-Kamera-Fusion im BEV in diesem Artikel. Beachten Sie, dass die Fusion erfolgt, wenn die Kamera- und Millimeterwellenradarsignaturen am BEV verbunden werden. Nachfolgend finden Sie in diesem Artikel weitere Details zu jedem Block.

BEV下的Radar-Camera 融合跨数据集实验研究Der Inhalt, der neu geschrieben werden muss, ist: A. Kamera-Encoder und Kamera-zu-BEV-Ansichtstransformation

Der Kamera-Encoder und die Ansichtstransformation übernehmen die Idee von [15], einem flexiblen Framework, das beliebige externe Kameras extrahieren kann und Bild-BEV-Funktionen interner Parameter. Zunächst werden mithilfe eines Tiny-Swin-Transformer-Netzwerks Merkmale aus jedem Bild extrahiert. Als nächstes verwendet dieser Artikel die Lift- und Splat-Schritte von [14], um die Merkmale des Bildes in die BEV-Ebene umzuwandeln. Zu diesem Zweck folgt auf die dichte Tiefenvorhersage ein regelbasierter Block, in dem Merkmale in Pseudopunktwolken umgewandelt, gerastert und in einem BEV-Gitter akkumuliert werden.

Radar Column Feature Encoder

Der Zweck dieses Blocks besteht darin, die Millimeterwellen-Radarpunktwolke in BEV-Features im gleichen Raster wie die Bild-BEV-Features zu codieren. Zu diesem Zweck nutzt dieser Artikel die Pillar-Feature-Encoding-Technologie von [16], um die Punktwolke in unendlich hohe Voxel, die sogenannte Säule, zu rastern.

Der Inhalt, der neu geschrieben werden muss, ist: C. BEV-Encoder

Ähnlich wie [5] werden die BEV-Funktionen von Millimeterwellenradar und -kameras durch Kaskadenfusion erreicht. Die fusionierten Merkmale werden von einem gemeinsamen Faltungs-BEV-Encoder verarbeitet, sodass das Netzwerk räumliche Fehlausrichtungen berücksichtigen und die Synergie zwischen verschiedenen Modalitäten nutzen kann Karte. Weitere Regressionsköpfe sagen die Größe, Rotation und Höhe von Objekten sowie die Geschwindigkeits- und Klasseneigenschaften von nuScenes voraus. Die Wärmekarte wird mithilfe des Gaußschen Fokusverlusts trainiert, und die übrigen Erkennungsköpfe werden mithilfe des L1-Verlusts trainiert. Experimentelle Ergebnisse:

Zitat:

Stäcker, L., Heidenreich, P., Rambach, J., & Stricker, D. (2023). „Eine datensatzübergreifende experimentelle Studie der Radar-Kamera-Fusion aus der Vogelperspektive“ . ArXiv. / abs/2309.15465

BEV下的Radar-Camera 融合跨数据集实验研究

Der Inhalt, der neu geschrieben werden muss, ist: https://mp.weixin.qq.com/s/5mA5up5a4KJO2PBwUcuIdQ

Das obige ist der detaillierte Inhalt vonExperimentelle Studie zur Radar-Kamera-Fusion über Datensätze hinweg unter BEV. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage