Abstract

본 논문에서는 패턴 인식 알고리즘을 기반으로 인간 형태를 가진 휴머노이드 로봇의 보행 동작을 제어하는 경로 인식 시스템을 개발하였다. 휴머노이드 로봇이 효과적인 작업 수행을 할 수 있도록 행동 프리미티브를 정의 하였으며, Canny 에지 검출 알고리즘을 적용한 보도 블록의 패턴 및 색상 추출, 이를 기반으로 한 이동 방향을 인식하는 알고리즘 제안하고, 리눅스 운영체제와 영상 카메라가 장착된 소형 휴머노이드 임베디드 시스템에 구현하였다. 제안 알고리즘의 성능 실험을 휴머노이드 로봇의 동작 속도 및 인식율에 관점에서 수행하였으며, 다양한 현실 환경을 반영하기 위해 경사도 및 조도 변화를 적용하였다. 실험 결과 제안 알고리즘은 다양한 환경에서 시각 장애인의 길안내 도우미 로봇으로서 적절한 수준에서 반응함을 확인하였다. In this paper, we develop a pattern recognition algorithm applied to a humanoid robot which is exploited as a guide for visually handicapped persons to find a desired path to their destinations. Behavior primitives of a humanoid robot are defined, and Canny's edge detection algorithm is employed to extract the pattern and color of the paving blocks that especially devised for visually handicapped persons. Based on these, an efficient path finding algorithm is developed and implemented on a humanoid robot, running on an embedded linux operating system equipped with a video camera. The performance of our algorithm is experimentally examined in terms of the response time and the pattern recognition ratio. In order to validate our algorithm in various realistic environments, the experiments are repeatedly performed by changing the tilt of paving blocks and the brightness in surrounding area. The results show that our algorithm performs sufficiently well to be exploited as a path finding system for visually handicapped persons.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.