Abstract
최근 혈압, 체온 및 혈당 같은 개인 건강 정보를 알려주는 센서-기반의 유-헬스 앱에 대한 연구가 활발히 진행되고 있다. 그러나 센서들을 통해 얻어진 정보는 그 정확성에 문제가 있을 수 있으므로 가공되지 않은 상태로 사용하기 어려운 경우가 많다. 본 논문은 스마트폰과 연동하는 생체 센서들을 통해 얻어진 측정값들의 정확성을 향상시키기 위한 센서 추상화 계층을 제안한다. 이 계층은 연결된 센서의 종류를 인식하고 읽어온 센서 값들을 ISO/IEEE 11073 신체 건강 표준에 따라 변환하며, 필요한 경우 측정값들 중에서 이상치(outlier)를 제거하는 필터링(filtering) 기법과 구해진 값들을 보다 적합한 형태로 변환해주는 요약(summarization) 기법을 적용한다. 제안된 센서 추상화 계층의 평가를 위해 안드로이드 기반의 개발보드를 사용한다. 체온 센서와 심박 센서를 통해 얻어진 값들에 대해 필터링 및 요약 기법을 적용한 경우의 결과가 그렇지 않은 경우에 비해 향상된 정확성을 보인다. Recently, researches on sensor-based U-health applications that provide personal health information such as blood pressure, body temperature, and glucose, have actively been studied. The health information obtained via sensors, however, may have accuracy problems so that they can not be used unprocessed. This paper proposes a sensor abstraction layer for enhancing the accuracy of sensor readings from biomedical sensors that interact with smart phones. This layer recognizes sensor types and converts sensor readings into a form as specified in ISO/IEEE 11073 Personal Health Standard. When necessary, not only a filtering method that eliminates outlier values from sensor readings but also a summarization method that transforms them into more suitable forms, can also be applied. An android-based development board is used for the evaluation of proposed sensor abstraction layer. The results obtained by applying filtering and summarization show improved accuracy over unprocessed sensor readings of the body temperature and heartbeat sensors.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.