Research Abstract |
自然な対話を可能にするためには,相手の意図を汲み取り,かつ相手にわかりやすく伝えることが重要である.身体表現が可能なロボットにとっては,人が理解しやすいような身振り手振りを踏まえたインタラクションが必要である.自然なインタラクションに加え,変化する環境に合わせ,状況を考慮し人とインタラクションしながらサービスを提供することが,これまでエンターテイメントの分野でのみ一般家庭に受け入れられたロボットが,役に立つものとして一般的に受け入れられる基盤となる. 本年度は無線通信可能な加速度センサを用いることによって,離床や歩行,転倒といった行動を認識することを可能にした.さらに,昨年度までに開発を行ったジェスチャ認識と音声認識を組み合わせたマルチモーダルインタラクションシステムを用いて,見守りロボットへ適用し,運動履歴提示,食事履歴提示,および家電使用履歴提示を可能にした.加速度センサから得られた行動を収集し,マイニングすることによって,ユーザモデルを構築し,それぞれのユーザに合わせた運動支援可能となった.またロボットの身振り手振りに加え,表情を追加することによって,ユーザの指示が認識されているのかどうか,例えば音声認識が正しく行われているのかどうか,といった内部の情報を提示することが可能となり,より自然なインタラクションが可能となった.以上のように見守りロボットへシステムを導入することにより,行動認識および音声・ジェスチャ・表情によるインタラクションシステムの有用性を示した. 以上の成果に基づき,国際会議において4件発表するとともに,、雑誌論文として1件採択された.さらに,特許を1件申請した.
|