研究概要 |
身体の不自由な人が頼んだものを取ってきてくれるような福祉用ロボットなどを想定し、その実現のために必要なヒューマンインタフェースについて研究を行った。このようなロボットでは音声による対話が自然で使いやすいと考えられる。しかし、音声認識だけでは人間の意図を理解し、指示を実行することはできない。人間は視覚により相手の行動や周囲状況について情報を得ており、相手もその情報を共有していると考えれば、発話でそのことの詳細を省略し簡略な表現ですませる。また、アイコンタクトやジェスチャなどの非言語的行動を効果的に利用して意図を伝える。このようにコミュニケーションには視覚情報が重要な役割を果たす。この研究課題では、簡略化発話の理解に関しては、話し手あるいは聞き手の行動に関わる物体については物体名などの詳細を省略すると考え、ものの近くにいる、ものを見ている、ものを指差している、ものを手で扱っているという行動を考え、その対象となるものを視覚情報処理で求め、それにより簡略化された発話を理解する方法を提案した.そして,実際にロボットシステムを開発し,有効性を確認した.また,非言語的行動としては、人間とロボットがコミュニケーションを始める合図としてアイコンタクトに注目した。そして、視覚情報処理によりロボットを見ている人間を発見し、その人間とアイコンタクトできるロボットを開発した。このように、視覚情報は重要だが、その取得が難しい場合もある。福祉ロボットが頼まれたものを取ってくるには、人間が指示した物体を認識する必要がある。しかし、物体認識に失敗する場合もある。そこで、そのような場合には、人間と会話することにより物体認識に必要な情報を得て、認識を成功に導く対話物体認識の方法を考案した。
|