Abstract

사람 검출의 성능은 카메라의 위치 및 각도 등에 큰 영향을 받는다. 이로 인해 획득한 2D 영상에서 사람은 위치에 따라 각기 다른 크기를 갖는 형태로 나타난다. 이렇게 다양한 크기를 갖는 사람들을 모두 검출하는 것은 실시간 시스템의 구현을 어렵게 만드는 요인이 된다. 그러나 만일 영상의 특정 위치의 사람의 크기를 예측할 수 있다면, 해당 위치의 사람 검출을 위한 연산량이 크게 감소될 수 있을 것이다. 본 논문에서는 실내 공간의 구조를 깊이맵으로 구성하고, 실내 공간에 존재하는 사람의 영상을 3D 공간에 재구성함으로써 크기를 예측하는 기법을 제안한다. 3D 공간에서는 어느 위치에서든지 사람의 크기가 일관되므로 이를 2D 영상으로 투영하게 되면 2D 영상의 좌표에 따른 정확한 사람의 크기를 추정할 수 있다. 실험 결과로부터 제안 방법이 효과적으로 사람의 크기를 예측할 수 있고, 기존이 기계학습 기반 사람 검출 방법들의 처리속도가 감소됨을 증명하였다. The performance of human detection system is affected by camera location and view angle. In 2D image acquired from such camera settings, humans are displayed in different sizes. Detecting all the humans with diverse sizes poses a difficulty in realizing a real-time system. However, if the size of a human in an image can be predicted, the processing time of human detection would be greatly reduced. In this paper, we propose a method that estimates human size by constructing an indoor scene in 3D space. Since the human has constant size everywhere in 3D space, it is possible to estimate accurate human size in 2D image by projecting 3D human into the image space. Experimental results validate that a human size can be predicted from the proposed method and that machine-learning based detection methods can yield the reduction of the processing time.

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call