Abstract
스마트 홈(smart home)은 인간과 홈의 컨텍스트(context) 정보를 이용하여 인간에게 자동적인 홈 서비스(Home service)를 제공해줄 수 있는 미래의 환경이다. 인간의 위치와 모션은 스마트 홈에서 굉장히 중요한 컨텍스트이다. 본 논문은 스마트 홈에서 인간의 위치와 모션을 예측할 수 있는 실시간 휴먼 트랙커(tracker)를 연구하였다. 실시간 휴먼 트랙커를 위해 4개의 네트워크 카메라를 사용하였다. 본 논문에서는 실시간 휴먼 트랙커의 구조를 설명하고, 인간의 위치와 모션을 자동적으로 예측 및 판단하는 알고리즘을 제안하였다. 인간 위치를 위해서 3개의 배경 이미지를 이용하였다(이미지1: 빈 방 이미지, 이미지2: 거주자가 제외 된 가구 및 가전 이미지, 이미지3: 전체 이미지). 실시간 휴먼 트랙커는 3개의 이미지를 비교하여 각 이미지로부터 추출되는 특징 값을 결정하고, 이들 특징 값을 SVM(Support Vector Machine)을 이용하여 각각의 모션을 예측하였다. 3개의 배경 이미지를 이용한 인간 위치 인식실험은 평균 0.037 초가 소요 되었다. SVM을 이용한 모션 인식 요소에서, 각 동작에 대하여 1000번씩 측정했고, 모든 모션의 정확도 평균은 86.5% 의 정확도를 보였다. The ubiquitous smart home is the home of the future that takes advantage of context information from the human and the home environment and provides an automatic home service for the human. Human location and motion are the most important contexts in the ubiquitous smart home. We present a real-time human tracker that predicts human location and motion for the ubiquitous smart home. We used four network cameras for real-time human tracking. This paper explains the real-time human tracker's architecture, and presents an algorithm with the details of two functions (prediction of human location and motion) in the real-time human tracker. The human location uses three kinds of background images (IMAGE1: empty room image, IMAGE2: image with furniture and home appliances in the home, IMAGE3: image with IMAGE2 and the human). The real-time human tracker decides whether the human is included with which furniture (or home appliance) through an analysis of three images, and predicts human motion using a support vector machine. A performance experiment of the human's location, which uses three images, took an average of 0.037 seconds. The SVM's feature of human's motion recognition is decided from pixel number by array line of the moving object. We evaluated each motion 1000 times. The average accuracy of all the motions was found to be 86.5%.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.