Abstract

SURF(Speeded Up Robust Features)는 다양한 상태 변화에 강인한 기술자 추출 방법으로 객체 인식과 같은 분야에서 유용하게 사용되는 알고리즘이다. 이 알고리즘은 대표적인 특징점 추출 알고리즘인 SIFT(Scale Invariant Feature Transform)와 비슷한 성능을 보이면서도 수행 시간이 훨씬 빠르다는 장점이 있다. 하지만 이러한 기술자들은 회전 불변한 특징 보장을 위해서, 추출한 특징점 간의 위치 정보를 고려하지 않는다. 또한, 원본 영상을 흑백 영상으로 변환하여 사용하기 때문에, 원본 이미지의 색상 정보도 이용하지 않는다. 본 논문에서는 특징점들 간의 상대적인 위치 정보 및 색상 정보를 이용하여 SURF 기술자의 정합 성능을 개선하는 방안을 제안한다. 상대적인 위치 정보는 특징점들의 중심을 연결하는 선분과 특징점 중심에서부터 생성되는 orientation 선분 사이의 각을 기반으로 한다. 색상 정보의 경우 각 특징점이 포함하고 있는 영역에 대해 color histogram을 생성하여 사용한다. 실험을 통하여 제안된 기법의 성능 개선을 보인다. SURF is a robust local invariant feature descriptor and has been used in many applications such as object recognition. Even though this algorithm has similar matching accuracy compared to the SIFT, which is another popular feature extraction algorithm, it has advantage in matching time. However, these descriptors do not consider relative location information of extracted interesting points to guarantee rotation invariance. Also, since they use gray image of original color image, they do not use the color information of images, either. In this paper, we propose a method for improving matching performance of SURF descriptor using the color and relative location information of interest points. The location information is built from the angles between the line connecting the centers of interest points and the orientation line constructed for the center of each interest points. For the color information, color histogram is constructed for the region of each interest point. We show the performance of our scheme through experiments.

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call