Abstract

디인터레이싱이란 두 개의 필드(짝수 필드 및 홀수 필드)로 구성된 인터레이스 영상을 프로그레시브 영상으로 변환하는 기술이다. 이는 크게 공간영역에서의 디인터레이싱과 시간영역에서의 디인터레이싱 기술로 나뉠 수 있다. 공간영역에서의 기법은 하나의 독립적인 필드만을 사용하여 디인터레이싱을 수행하는 것으로 하드웨어의 구성은 용이하지만 디인터레이싱 대상 화소의 정보가 해당 필드에 존재하지 않는 경우 화질 열화가 발생할 수 있다. 반면 시간영역에서의 기법은 메모리 사용량이 높고 하드웨어의 구성이 어렵지만 보다 높은 객관적 화질을 얻을 수 있다. 하지만 움직임 추정이 잘못된 경우 현저한 화질열화가 발생한다. 제안하는 방법은 공간영역에서의 디인터레이싱 기법으로 대상화소 주변의 통계적 특성에 따라 서로 다른 기법을 사용하여 디인터레이싱을 수행한다. 이 과정에서 최적의 디인터레이싱 방법의 선택을 위해 엔트로피 기반의 대표적인 분류 알고리즘인 C4.5 알고리즘을 적용한다. 실험결과 제안하는 알고리즘은 이전의 여러 방법들과 비교하여 높은 객관적 화질을 가지는 것을 볼 수 있었으며, 주관적 화질 또한 상대적으로 유사하거나 높은 것을 볼 수 있었다. Deinterlacing is a method to convert interlaced video, including two fields (even and odd), to progressive video. It can be divided into spatial and temporal methods. The deinterlacing method in the spatial domain can easily be hardware-implemented, but yields image degradation if information about the deinterlaced pixel does not exist in the same field. On the other hand, the method in the temporal domain yields a deinterlaced image with higher quality but uses more memory, and hardware implementation is more difficult. Furthermore, the deinterlacing method in the temporal domain degrades image quality when motion is not estimated properly. The proposed method is for deinterlacing in the spatial domain. It uses several deinterlacing methods according to statistical characteristics in neighboring pixel locations. In this procedure, the proposed method uses the C4.5 algorithm, a typical classification algorithm based on entropy for choosing optimal methods from among the candidates. The simulation results show that the proposed algorithm outperforms previous deinterlacing methods in terms of objective and subjective image quality.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.