비가 오거나 눈이 오는 상황에서 운전을 한다고 해보자. 앞도 잘 안보이고, 도로는 미끄럽고 정신이 없다. 이런 상황에서 전방 100m 앞에 차가 한 대 고장으로 멈춰있다면, 대형 사고가 날 수 있다. 실제로 올해 1월 미국 미시간 주에서는 

극심한 눈으로 전방 시야가 가린 상황에서 총 123대의 차가 충돌하는 대형 사고가 있었다. 아래 동영상이 바로 이 사건을 찍은 동영상이다. 엄청나다.. 




이러한 상황에서 상대적으로 다가오고 있는 차 혹은 장애물에 대한 정보를 누군가 알려준다면 큰 도움이 될 것이다. (이런 시스템을 advanced driver assistance system, 줄여서 ADAS라고 부른다.) 하지만 컴퓨터 비젼 기술은 아직까진 이 상황에 사용되기가 힘들다. 물론 최근 유행하는 딥러닝을 사용한다면... 그래도 위와 같은 상황에선 아직 힘들다고 생각한다. 


그렇다면 우리에게 남은 희망은 레이져와 같은 상대적으로 저런 상황에 강인 센서일 것이다. 혹시나 우리에게 라이다 센서가 있다면 이 정보를 사용해보는 것이 좋을 것이다. 문젠 라이다 역시 만능이 아니기에 눈과 같은 반사도(reflectivity)가 높은 물체엔 취약하기 때문에 우리가 얻을 수 있는 것은 80년대 티비 화면과 같은 자글자글한 노이즈가 낀 결과일 것이다. (사실 이 부분이 궁금하긴 하다. 혹시 눈이나 비가 오는 환경에서 LiDAR를 써보신 분 있으신가요?)

내가 지금 하고 있는 연구는, 바로 이 상황에서 노이즈를 효과적으로 걸러내면서 움직이는 물체를 찾아내는 연구를 하고 있다. 즉 다음과 같이 노이즈가 심하게 있는 상황에서도 움직이는 물체를 잘 검출하고, 다음에 어디로 움직일지를 예측하는 연구이다. 


아래 동영상에서 왼쪽에 있는 것이 주어진 입력이고, 오른쪽이 입력을 통해 예측한 움직이는 물체이다. 각 이미지 모두에 노란색 점선으로 원이 그려져 있는 부분이 실제 물체의 위치이고, 이 정보는 물론 알고리즘에는 주어지지 않는다. 각 색에는 방향 정보가 포함되어 있고, 이는 다음과 같다. 


아래는 실험 동영상이다. 유투브에 occupancy flow라고 치면 다른 동영상들도 나온다. 




물론 에러가 없는 상황에서야 잘되는 알고리즘이 많겠지만, 저 정도로 에러가 있는 상황에서 잘 되는 알고리즘은 쉽게 구현하기 힘들다. 게다가 이 알고리즘의 큰 장점은 연산 시간이다. 100*100의 이미지가 들어왔을 때, 이를 연산하는데 걸리는 시간은 고작 50ms에 불과하다. 


조금 더 자세히 설명을 하자면, 이는 다음과 같은 특수한 구조의 recurrent network를 사용해서 위와 같은 결과를 얻었다. 네트워크 구조는 연산 시간이 빠르다는 장점이 있는데, 바로 이 장점으로 인해 한번 연산에 고작 50ms 정도가 걸리게 된다. 




신고

'Enginius > Robotics' 카테고리의 다른 글

Theoretical Analysis of Behavior Cloning  (0) 2015.10.10
Robotics paper list  (0) 2015.10.06
눈이 올 때, 교통 사고를 줄여보자!  (0) 2015.08.21
ICRA Learning-related paper survery  (0) 2015.07.31
Robotics in Germany  (0) 2015.06.16
Dynamic Occupancy Recurrent Nwork (DORN)  (0) 2015.05.16
« PREV : 1 : ··· : 81 : 82 : 83 : 84 : 85 : 86 : 87 : 88 : 89 : ··· : 572 : NEXT »

티스토리 툴바