研究概要 |
生活環境内で動作するサービスロボットのヒューマンインタフェースとしては,音声対話によるものが有望である.しかし,自然で人間に負担のない音声対話システムを実現するためには,音声理解の技術だけでは十分ではない.人間同士の自然な対話では,双方の眼前にあるものについては,それに関することを言葉の上では簡略化することが多い.互いに視覚で情報を得ていることが確かな場合,それを簡略化して発話するのが自然である.また,それが許されないようでは,使いやすいインタフェースにはならない.簡略化が行われるのは,会話の当事者が行動により関わっており,明確に言わなくても分かると判断したからと考えられる.そこで,ものの近くにいる,ものを見ている,ものを指差している,ものを手で扱っているという行動を考え,その対象となるものを視覚情報処理で求め,それにより簡略化された発話を理解する方法を検討した.そして,実際にロボットシステムを開発し,有効性を確認した.また,人間とロボットがコミュニケーションを始める合図としてアイコンタクトに注目し,人間とロボットがどのようにしたら確実に合いコンタクトできるか検討した.アイコンタクトの成立には,双方が相手を見ていることと,双方が相手に見られていることに気が付くことが必要と心理学では言われている.そこで,ロボットの方を見ている人間を視覚情報処理で検出したら,ロボットの身体とロボットの顔(ロボット上に液晶ディスプレイで顔を表示)をその人の方に向け,それに対し,人間がロボットの顔の方を見続けるなら,ロボットの顔に表情変化を与えることにより,先に述べた2条件が満足され,人間がアイコンタクトしたと感じられることを実証した.
|