카메라, 레이더(RADAR) 센서 융합 딥러닝 기술
라이다에 비해 저렴한 가격으로 2단계 자율주행에서 자주 사용됨. 현재와 미래의 자율주행 기술에서 중요함.
카메라 영상 정보 + 레이더 거리 측정 정보 = 신뢰성 높은 물체 검출
카메라 센서 중심의 융합 방법
카메라(메인) + 레이더 (보조)
카메라 영상으로 딥러닝 적용으로 2차원 물체 검출 결과 생성 -> 레이더 센서 정보 데이터로 정밀한 거리 정보 제공
:카메라 센서의 물체 검출 정확도가 높아야함.
레이더 센서 중심의 융합 방법
레이더(메인) + 카메라(보조, 결과 필터링, 오류 수정)
레이더 센서 이용 조감도 영역 물체 검출 -> 클러터로 인한 검출 오류 발생 -> 카멜 정보를 활용하여 수정
특징값 중심의 융합 방법
카메라 특징값 + 레이더 특징값 (고해상도 레이더에 주로 적용)
레이더로부터 추출한 특징값과 카메라로 도출된 CNN 특징값을 융합하여 물체 검출
카메라, 라이다 센서융합 전략과 유사함
레이더 해상도가 높으면 검출 성능도 상승함
카메라, 레이더 센서 융합사례
카메라, 라이다 센서융합 딥러닝 기술
3단계 이상의 고난도 자율주행 기술에서 인지를 위한 핵심 센서
ex) 프러스텀 포인트넷(CVPR18) 딥러닝 기법
카메라 영상에 2D CNN 물체 검출 기법 -> 2차원 박스 추출 -> 3차원 영역 프러스텀 -> 프러스텀 안의 포인트에 3차원 영역 분할 수행(포인트넷 사용)해 물체와 물체가 아닌 배경을 분할/분류함
3D-CVF
