BEV 하의 데이터 세트 전반에 걸친 레이더-카메라 융합에 대한 실험적 연구

PHPz
풀어 주다: 2023-10-05 18:45:05
앞으로
724명이 탐색했습니다.

원제: 조감도에서 레이더-카메라 융합에 대한 데이터 세트 간 실험 연구
논문 링크: https://arxiv.org/pdf/2309.15465.pdf
저자 소속: Opel Automobile GmbH Rheinland-Pfalzische Technische Universitat Kaiserslautern- Landau 독일 인공 지능 연구 센터

BEV下的Radar-Camera 融合跨数据集实验研究

제목 아이디어:

보완적인 센서 정보를 활용함으로써 밀리미터파 레이더 및 카메라 융합 시스템은 첨단 운전자 지원 시스템 및 자율 주행 기능.신뢰할 수 있는 감지 시스템. 카메라 기반 객체 감지의 최근 발전은 밀리미터파 레이더와 카메라의 융합을 위한 새로운 가능성을 제공하며, 융합을 위해 조감도 기능 맵을 활용할 수 있습니다. 본 연구에서는 새롭고 유연한 융합 네트워크를 제안하고 두 가지 데이터 세트(nuScenes 및 View-of-Delft)에 대한 성능을 평가합니다. 실험 결과에 따르면 카메라 계통에는 크고 다양한 훈련 데이터가 필요하지만 밀리미터파 레이더 계통은 고성능 밀리미터파 레이더의 이점을 더 많이 얻습니다. 전이 학습을 통해 이 연구는 소규모 데이터 세트에서 카메라 성능을 향상시킵니다. 연구 결과는 밀리미터파 레이더와 카메라의 융합 방식이 카메라만 사용하거나 밀리미터파 레이더만 사용하는 기본 방식보다 훨씬 우수하다는 것을 보여줍니다.

네트워크 설계:

최근 3D 타겟 탐지의 추세는 통합하는 것입니다. 이미지의 특징 일반적인 조감도(BEV) 표현으로 변환합니다. 이 표현은 여러 카메라 사이에 융합되거나 거리 측정 센서를 사용하여 융합될 수 있는 유연한 융합 아키텍처를 제공합니다. 본 연구에서는 원래 레이저 카메라 융합에 사용되었던 BEVFusion 방법을 밀리미터파 레이더 카메라 융합을 위해 확장합니다. 우리는 선택된 밀리미터파 레이더 데이터 세트를 사용하여 제안된 융합 방법을 훈련하고 평가했습니다. 여러 실험에서 각 데이터 세트의 장점과 단점을 논의합니다. 마지막으로, 추가적인 개선을 위해 전이 학습을 적용합니다

BEV下的Radar-Camera 融合跨数据集实验研究

다음은 다시 작성해야 할 내용입니다. 그림 1은 BEVFusion을 기반으로 한 BEV 밀리미터파 레이더-카메라 융합 흐름도를 보여줍니다. 생성된 카메라 이미지에는 투영된 밀리미터파 레이더와 실제 경계 상자의 탐지 결과가 포함됩니다.

이 기사는 BEVFusion의 융합 아키텍처를 따릅니다. 그림 1은 이 기사에서 BEV의 밀리미터파 레이더-카메라 융합의 네트워크 개요를 보여줍니다. 카메라와 밀리미터파 레이더 신호가 BEV에 연결되면 융합이 발생합니다. 아래에서 이 문서에서는 각 블록에 대한 자세한 내용을 제공합니다.

다시 작성해야 하는 내용은 다음과 같습니다. A. 카메라 인코더 및 카메라를 BEV 뷰 변환으로

카메라 인코더 및 뷰 변환은 [15]의 아이디어를 채택합니다. 이는 임의의 카메라 외부를 추출할 수 있는 유연한 프레임워크입니다. 내부 매개변수의 이미지 BEV 기능. 먼저, Tiny-Swin Transformer 네트워크를 사용하여 각 이미지에서 특징을 추출합니다. 다음으로 본 논문에서는 [14]의 Lift 및 Splat 단계를 사용하여 이미지의 특징을 BEV 평면으로 변환합니다. 이를 위해 조밀한 깊이 예측에는 특징이 의사 포인트 클라우드로 변환되고 래스터화되어 BEV 그리드에 누적되는 규칙 기반 블록이 뒤따릅니다.

레이더 열 기능 인코더

이 블록의 목적은 밀리미터파 레이더 포인트 클라우드를 이미지 BEV 기능과 동일한 그리드의 BEV 기능으로 인코딩하는 것입니다. 이를 위해 본 논문에서는 [16]의 Pillar Feature Encoding 기술을 사용하여 포인트 클라우드를 소위 Pillar라고 불리는 무한히 높은 복셀로 래스터화합니다.

다시 작성해야 하는 내용은 다음과 같습니다. C. BEV 인코더

[5]와 유사하게 밀리미터파 레이더 및 카메라의 BEV 기능은 캐스케이드 융합을 통해 구현됩니다. 융합된 특징은 네트워크가 공간적 오정렬을 고려하고 서로 다른 양식 간의 시너지 효과를 활용할 수 있도록 조인트 콘볼루셔널 BEV 인코더로 처리됩니다.

D. 감지 헤드

이 문서에서는 CenterPoint 감지 헤드를 사용하여 각 클래스 열의 객체 중심을 예측합니다. 지도. 추가 회귀 헤드는 객체의 크기, 회전 및 높이뿐만 아니라 nuScene의 속도 및 클래스 속성도 예측합니다. 히트맵은 가우스 포커스 손실을 사용하여 훈련하고 나머지 감지 헤드는 L1 손실을 사용하여 훈련했습니다.

인용:

Stäcker, L., Heidenreich, P., Rambach, J., & Stricker, D. (2023) "조감도에서 본 레이더-카메라 융합에 대한 교차 데이터 세트 실험 연구" .ArXiv. /abs/2309.15465

BEV下的Radar-Camera 融合跨数据集实验研究

다시 작성해야 하는 내용은 다음과 같습니다. 원본 링크: https://mp.weixin.qq.com/s/5mA5up5a4KJO2PBwUcuIdQ

위 내용은 BEV 하의 데이터 세트 전반에 걸친 레이더-카메라 융합에 대한 실험적 연구의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿