Abstract

움직임 추정과 움직임 보상기법은 연속한 비디오 프레임간의 시간적 중복성을 이용하여 동영상내에 존재하는 중복된 데이터를 제거하기 때문에 비디오 영상 압축에서 중요한 역할을 하지만 많은 계산량으로 인하여 실시간 응용 및 고해상도 응용에 많은 어려움을 가지고 있다. 만일 움직임 추정을 하기 전에 블록의 움직임을 예측할 수 있다면 이를 바탕으로 탐색영역에서 초기 탐색점 위치와 탐색 패턴을 결정할 수 있을 것이다. 본 논문에서는 움직임의 높은 시간적 상관성을 이용하여 초기 탐색점 위치와 탐색 패턴을 결정함으로써 적응적으로 움직임을 추정하는 새로운 기법을 제안한다. 실험을 통하여 제안된 알고리즘을 다이아몬드 탐색 기법과 비교하였을 경우, 제안된 알고리즘은 움직임 보상 예측된 화질에 있어서 약 0.1∼0.5(dB)정도 성능을 향상시켰으며 움직임 벡터 추정의 속도에 있어서 약 50% 이상 높은 성능 향상을 보였다. Since motion estimation and motion compensation methods remove the redundant data to employ the temporal redundancy in images, it plays an important role in digital video compression. Because of its high computational complexity, however, it is difficult to apply to high-resolution applications in real time environments. If we have information about the motion of an image block before the motion estimation, the location of a better starting point for the search of an exact motion vector can be determined to expedite the searching process. In this paper, we present an adaptive motion estimation approach bated on temporal correlations of consecutive image frames that defines the search pattern and determines the location of the initial search point adaptively. Through experiments, compared with DS(Diamond Search) algorithm, the proposed algorithm is about 0.1∼0.5(dB) better than DS in terms of PSNR(Peak Signal to Noise Ratio) and improves as high as 50% compared with DS in terms of average number of search point per motion vector estimation.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.