Budget Amount *help |
¥5,100,000 (Direct Cost: ¥5,100,000)
Fiscal Year 2003: ¥5,100,000 (Direct Cost: ¥5,100,000)
|
Research Abstract |
生活環境内で動作するサービスロボットのヒューマンインタフェースとしては,音声対話によるものが有望である.しかし,自然で人間に負担のない音声対話システムを実現するためには,音声理解の技術だけでは十分ではない.人間同士の自然な対話では,双方の眼前にあるものについては,それに関することを言葉の上では簡略化することが多い.互いに視覚で情報を得ているごとが確かな場合,それを簡略化して発話するのが自然である.また,それが許されないようでは,使いやすいインタフェースにはならない.簡略化が行われるのは,会話の当事者が行動により関わっており,明確に言わなくても分かると判断したからと考えられる.そこで,ものの近くにいる,ものを見ている,ものを指差している,ものを手で扱っているという行動を考え,その対象となるものを視覚情報処理で求め,それにより簡略化された発話を理解する方法を検討した.そして,実際にロボットシステムを開発し,有効性を確認した.また,周囲環境と人間の行動を見て,人間と協調した行動をとれる車椅子について検討した.今年度は,車椅子に付き添う介護者と環境情報から,介護者の行動の意図を認識し,それに応じた行動をとる方法を開発した.例えば,進行方向にドアがあって,それを開けてその向こうに行きたいときには,車椅子の横や後ろにいた介護者は前に出て,ドアをあける.車椅子は介護者が前に出るときは停止し,ドアがあいたら前に進む.このような行動が自動的にできる方法を開発し実験で有効性を確認した.
|