Abstract

본 연구는 위상천이 영사식 모아레 측정기의 기준 위상 측정단계에서 기준 위상의 검출 정확도를 높이기 위한 방안으로, 일반적인 N-bucket 방법이 아닌, 줄무늬 패턴 투사 영상의 직접적인 영상처리를 기반으로, 노이즈가 포함된 영상으로부터 기준 위상을 자동으로 검출하고 보정하는 방법을 다룬다. 일반적으로 기준위상을 정확히 구하기 위해서는 상대적으로 노이즈가 원천적으로 적은 고정밀도의 교정 시편과 이에 맞는 세분화된 교정방법이 필요하다. 하지만, 고가의 시편 제작비용 절감과 고정도 교정을 위한 교정시간의 단축을 위해, 상대적으로 일반 정밀도등급의 제작된 시편으로부터 획득된 영상을 이용하여, 효율적인 기준위상 교정 방법을 제안한다. 투사된 평행 라인 띠가 시편에서 반사되어 카메라로 입력되는 영상으로부터, 영상처리 라인마스크를 이용하여 격자 라인들의 중심점을 정밀하게 추출하고, 각 라인들에서 추출된 샘플링점 기반의 최소자승법을 이용하여, 라인 특징치인 기울기와 절편을 추출함으로써 실제 관측되는 격자 라인의 중심선을 획득하였으며, 획득된 중심선들을 이용하여 N-bucket 알고리즘에 적용할 수 있도록 위상을 추출한 후, 기준위상을 자동으로 생성하였다. 본 연구를 통하여 고가의 시편 제작 없이 빠르게 자동으로 기준위상을 추출할 수 있었다. This paper presents the automatic vision algorithm to generate and calibrate reference phase plane to improve the accuracy of 3D measuring machine of using phase shifting projection moire method, which is not traditional N-bucket method, but is based on direct image processing method to the pattern projection image. Generally, to acquire accurate reference phase plane, the calibration specimen with well treated surface is needed, and detailed calibration method should be performed. For the cost reduction of specimen manufacturing and the calibration time reduction, on the specimen, not specially designed, with general accuracy level, an efficient calibration procedure for the reference phase generation is proposed. The proposed vision algorithm is developed to extract the line center points of the projected line pattern from acquired images, derive the line feature information consisting of its slope and intercept by using sampled feature points, and finally generate the related reference phase between line pairs. Experimental results show that the proposed method make reference phase plane with a good accuracy under noisy environment and the proposed algorithm can reduce the total cost to make high accurate calibration specimen, also increase the accuracy of reference phase plane, and reduce the complex calibration procedure to move grid via N-bucket algorithm precisely.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.