Abstract

최근 모바일 산업이 발달하고 성능이 향상되어 생활 속에서 모바일 기기의 사용량이 늘고 있다. 현재 모바일 기기에는 고성능 카메라를 장착하고 있어 데스크톱에서 수행하던 영상 정합을 모바일 기기에서 수행할 수 있다. 그러나 모바일 기기는 제한된 하드웨어 자원을 가지고 있어 영상 정합을 수행하기에 연산량이 많다. 따라서 본 논문에서는 모바일 환경에서 효율적인 영상 정합을 위한 향상된 특징점 기술자 추출 및 정합 기법 제안한다. 특징점 기술자 생성시 방향 윈도우 확장 및 기술자의 차원을 줄여 정확도를 높이면서 연산량을 감소시킨다. 또한 정합점 분류 기법을 통하여 영상 정합의 연산량을 감소시킨다. 실험결과 기존의 방법보다 영상 정합 속도가 향상되어 모바일 환경에 적합하면서도 자연스러운 영상을 생성할 수 있었다. Recently, the mobile industries grow up rapidly and their performances are improved. So the usage of mobile devices is increasing in our life. Also mobile devices equipped with a high-performance camera, so the image stitching can carry out on the mobile devices instead of the desktop. However the mobile devices have limited hardware to perform the image stitching which has a lot of computational complexity. In this paper, we have proposed improved feature descriptor extraction and matching method for efficient image stitching on mobile environment. Our method can reduce computational complexity using extension of orientation window and reduction of dimension feature descriptor when feature descriptor is generated. In addition, the computational complexity of image stitching is reduced through the classification of matching points. In our results, our method makes to improve the computational time of image stitching than the previous method. Therefore our method is suitable for the mobile environment and also that method can make natural-looking stitched image.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.