본문 바로가기
Automated Vehicle

자율주행 차량 센서(RADAR,LiDAR,Camera) 장단점

by 드로니뚜벅이 2022. 12. 19.

자율주행 차량의 자율주행과 ADAS(Advanced Driving Assistance System)를 위해 GNSS/IMU 뿐만 아니라 레이다(RADAR), 라이다(LiDAR) 및 카메라(Camea) 등 다양한 센서들을 탑재하고 있습니다.

RADAR (Radio Detection And Rangeing)

레이다는 다른 센서 보다 가벼우며, 거의 모든 외부 환경 조건에서 물체와의 거리와 물체의 속도를 정확하게 측정해 냅니다. 하지만 도로 주변의 교통 표지판을 식별하거나 신호등 점등 상태를 감지할 수 없다는 단점이 존재합니다.

레이다 센서는 작동거리 범위에 따라 분류할 수 있습니다.

  • 단거리 레이더(SRR) : 0.2 ~ 30m
  • 중거리 레이더(MRR) : 30 ~ 80m
  • 장거리 레이더(LRR) : 80 ~ 200m 이상

장거리 레이더가 ACC(Adaptive Cruise Control), AEBS(Advanced Emergency Braking System)을 위해 주로 사용됩니다.

하지만, 장거리 레이더만을 사용하는 시스템은 차량 전방 시야에 한계가 존재하고 차선에서 비틀거리는 오토바이와 같은 얇은 물체를 잘 감지하지 못합니다. 또한 도로의 굴곡으로 인항 물체와의 거리를 잘못 측정하는 등 특정 조건에 올바르게 반응하지 않을 수 있습니다.

 

LiDAR (Light Detection And Rangeing)

라이다 센서는 빛의 펄스가 물체로 이동하고 센서로 돌아오는 데 걸리는 시간을 계산하여 물체까지의 거리를 측정합니다. 특히, 차량 위에 배치된 라이다 센서는 차량이 피해야 할 장애물을 360도 3D로 볼 수 있다는 장점이 있습니다.

라이다는 물체를 정확하게 감지할 수 있지만, 카메라나 레이다 센서에 비해 가격이 매우 비쌉니다. 2007년 다르파(DARPA) 자율주행 챌린지를 기점으로 라이다 센서가 크기와 비용의 절감을 상당부분 이루었지만, 많이 사용되고 있는 모델 중 일부는 여전히 레이더나 카메라 센서보다 훨씬 더 비싸고, 심지어 장착되는 차량보다도 더 비싼 제품도 있습니다.

차량에 장착되는 라이다는 일반적으로 제한된 시야각(FOV, Field Of View)에서 최대 200미터의 범위를 제공할 수 있는 905nm 파장을 사용합니다. 일부 회사는 현재 1550nm 파장을 이용하여 더 긴 범위와 더 높은 정확도로 제공하는 고해상도 LiDAR를 판매하고 있습니다.

라이다 센서는 주변 빛에 대한 민감도를 제거하고, 다른 라이다 센서에 의해 방해받지 않기 위해 광학 필더(Optical Filter)를 필요로 합니다. 또한 레이저 기술은 눈에 안전해야 한다는 점에도 주의해야 합니다.

최근에는 기계적 스캐닝 라이다 센서를 솔리드-스테이트 라이다(SSL)로 대체하고 있습니다. 레이다와 수신기 등을 물리적으로 회전시키지 않는 SSL을 통해 자동차 환경에서 장기간 신뢰성을 확보할 수 있습니다. 또한 SSL은 더 낮은 시야각을 가지고 있지만 가격이 더 싸기 때문에 더 넓은 영역을 커버하기 위해 여러 개를 동시에 차량에 탑재할 수 있는 기회를 제공합니다.

 

Camera

자율주행 차량에 탑재된 카메라 센서 기술과 해상도는 표지판을 읽거나 보행자, 자전거, 혹은 다른 차량과 같은 물체를 분류하는 임무를 매우 잘 수행합니다. 하지만 카메라는 먼지, 태양, 비, 눈 혹은 어둠 등 외부 환경에 취약합니다.

그러나 카메라는 질감, 색상, 대비 정보를 포착할 수 있는 유일한 센서이며 다른 센서와 대비하여 높은 수준의 디테일을 가집니다. 계속 증가하는 픽셀 해상도와 저렴한 가격으로 인하여 카메라 센서는 점점 더 그 중요성이 증가하고 있습니다.

 

카메라 센서가 지원하는 대표적인 ADAS 어플리케이션은 아래와 같습니다.

  • ACC(Apdaptive Cruise Control)
  • AHBC(Automatic High Beam Control)
  • TSR(Traffic Sign Recognition)
  • LKS(Lane Keep Systems)

 

센서 퓨전 (Sensor Fusion)

센서 퓨전은 레이더, 라이다, 카메라와 같은 여러 센서들의 입력을 통합하여 차량 주변 환경의 단일 모델 혹은 이미지를 형성하는 기술입니다. 서로 다른 센서들의 장점들을 이용하여 결과 모델은 더 정확해집니다. 센서 퓨전을 통해 차량 내 전기전자 시스템은 제공된 정보를 사용하여 보다 지능적인 작업을 수행할 수 있게 됩니다.

센서 퓨전은 소프트웨어 알고리즘을 사용하여 이러한 센서들의 데이터를 한 곳에 모아, 차량 내 전기전자 시스템에게 가능한 가장 포괄적(Comprehensive)이고 정확한(Accurate) 환경 모델을 제공합니다.

차량은 센서 퓨전을 사용하여 여러 개의 다양한 센서들로부터 얻은 정보를 융합할 수 있습니다. 센서들이 얻은 정보는 필연적으로 중복된 시야를 가지고 있습니다. 센서 퓨전은 이렇게 중복된 시야를 활용해 외부 환경에 대한 차량 시스템의 인(Preception)을 개선합니다.

차량에 센서가 많을수록 융합해야할 정보가 많아지므로 센서 퓨전이 어려워지지만, 그만큼 성능을 개선할 수 있는 기회도 많아집니다. 여러 개의 센서로부터 얻은 정보는 차량 주변 물체를 정확히 탐지하는 확률을 높이고, 인식된 환경을 보다 정확하게 신뢰할 수 있게 도와줍니다.

위 그래프를 통해 알 수 있듯이 각 센서는 장단점이 뚜렷하기 때문에 센서 융합을 통해 약점을 보완할 수 있습니다.

  RADAR LiDAR CAMERA FUSION
Object detection + + O +
Predestrian detection - O + +
Weather conditions + O - +
Lighting conditions + + - +
Dirt + O - +
Velocity + O O +
Distance - accuracy + + O +
Distance - range + O O +
Data density - O + +
Classification - O + +
Packaging + - O +

단순히 표만으로 살펴보면, RADAR + CAMERA 혹은 LiDAR + CAMERA 조합으로도 자율주행에 필요한 정보를 획득할 수 있어 보입니다. 테슬라가 자율주행에 카메라만을 고집하더니 최근에 RADAR도 검토한다고 하는 기사가 나름 이해는 되는 부분이기도 합니다.

 

참고사이트

 

'Automated Vehicle' 카테고리의 다른 글

AGV vs. AMR  (0) 2023.09.15
OBD (On Board Diagnostics)  (0) 2022.12.08
SLAM  (0) 2022.04.11