Abstract

본 논문은 인간이 인지할 수 있는 감각들 중 인체의 회전, 방향 변화 및 움직임의 정도를 알 수 있는 근감각에서 시각 및 청각 요소로의 변환 알고리즘을 이용하여 ARM Cortex-M4에 기반한 실시간 임베디드시스템으로 구현한 방법에 초점을 맞추었다. 근감각의 입력 방식으로는 자세측정장치(AHRS : Attitude Heading Reference System)를 이용해 롤(Roll), 피치(Pitch) 및 요(Yaw) 값을 실시간 획득하고, 이들 각각의 색을 표현하는 HSI 컬러 모델의 명도(Intensity), 색상(Hue) 및 채도(Saturation)에 대응하여 변환하였다. 최종 컬러신호는 HSI 에서 RGB 컬러모델로 변환하여 획득하였다. 또한, 근감각의 세 가지 입력 값들을 음을 표현하는 요소인 옥타브(Octave), 음계(Scale) 및 음의 세기(Velocity)에 대응하여 변환한 값을 MIDI(Musical Instrument Digital Interface)를 이용해 사운드를 합성하여 출력하였다. 출력 컬러신호 및 사운드를 분석한 결과, 근감각 입력 신호가 제안한 변환 방식에 따라 실시간으로 정확하게 색과 음으로 변환, 출력됨을 확인하였다. This paper focuses on a real-time hardware processing by implementing the ARM Cortex-M4 based embedded system, using a conversion algorithm from a muscular sense to both visual and auditory elements, which recognizes rotations of a human body, directional changes and motion amounts out of human senses. As an input method of muscular sense, AHRS(Attitude Heading Reference System) was used to acquire roll, pitch and yaw values in real time. These three input values were converted into three elements of HSI color model such as intensity, hue and saturation, respectively. Final color signals were acquired by converting HSI into RGB color model. In addition, Three input values of muscular sense were converted into three elements of sound such as octave, scale and velocity, which were synthesized to give an output sound using MIDI(Musical Instrument Digital Interface). The analysis results of both output color and sound signals revealed that input signals of muscular sense were correctly converted into both color and sound in real time by the proposed conversion method.

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call