研究分担者 |
島田 信敬 大阪大学, 大学院・工学研究科, 助手 (10294034)
三浦 純 大阪大学, 大学院・工学研究科, 助教授 (90219585)
白井 良明 大阪大学, 大学院・工学研究科, 教授 (50206273)
塩原 守人 富士通研究所, マルチメディアシステム研究所, 主任研究員
|
研究概要 |
人間同士のコミュニケーションでは音声言語の他に視線やジェスチャなどの非言語的行動も重要な役割を果たしている.従って,人間と機械の間でも非言語的行動によるコミュニケーションが可能になれば,人に優しい使いやすいヒューマンインタフェースが実現できると考えられる.そこで,ビデオカメラの画像からジェスチャなどの非言語的行動を認識してヒューマンインタフェースに利用しようという研究が活発になってきている.しかし,これまでのものでは,使用に際して使いやすいとは言えない制限があった.それに,ジェスチャなどの認識の失敗も多く,また一度失敗するとそれが回復できないものが多かった.本研究では,人間と機械の間で実時間に密なインタラクションを行うことにより,これらの問題を解決する方法を検討した.まず,カメラが人間を追跡することにより,使用する位置の制限を緩和した.また,手のジェスチャ認識を行うときに他の非言語的行動(ここでは顔の向き)を観察することにより,手を自由に動かしても,その中から機械操作のために意識的に動かしたものだけを認識できるようにした.また,認識が確かでないときに機械が自分の現在の状況を人間に音声や行動(機械にとっての非言語的行動)で示し,それに対する人間の反応を観察することにより,あらかじめ定められた以外のジェスチャを認識したり,認識に失敗した場合でも最終的に成功する枠組みを検討した.さらに,これまでは非言語的行動は計算機内部の仮想世界の操作に用いられることが多かったが,実世界への応用として,顔の向きで操作できる車椅子を検討した.以上について,実際にシステムを試作し,有効性を確認した.
|