研究概要 |
身体の不自由な人が頼んだものを取ってきてくれるような福祉用ロボットなどを想定し、その実現のために必要なヒューマンインタフェースについて研究を進めている。このようなロボットでは音声による対話が自然で使いやすいと考えられるが、音声認識だけでは人間の意図を理解し,指示を実行することはできない.人間は視覚により相手の行動や周囲状況について情報を得ており,相手もその情報を共有していると考えれば発話でそのことを省略したり,前に言及されていないものに対してでも「あれ」や「これ」という指示詞を用いる.また,アイコンタクトやジェスチャなどの非言語的行動を効果的に利用して意図を伝える.今年度は,前者に関しては発話中の顔の向きを各種の発話パターンの場合について観察し,発話の中で省略したり直示詞で示した物体の方向に顔(視線)を向けることが多いことを確認した.また,「これ」「それ」「あれ」などを直示詞として用いる場合,どの場所にある物体を指すときにどの言葉を使うことが多いかを実験的に調べた.人間がこれらの言葉で指示したときに,その実験結果にしたがって対象が存在しそうな場所から調べることにより効率的に物体を検出できるシステムを実現した.非言語行動に関しては,ロボットから人間に対してアイコンタクトでコミュニケーションを開始するために,ロボットの視線を人間に意識させる方法について検討した.その結果,ロボットの身体の存在と,それを対象の方に動かす行動が特定の人間を見つめているということを伝達するのに有効なことがわかった.
|