研究分担者 |
島田 伸敬 大阪大学, 大学院・工学研究科, 助手 (10294034)
三浦 純 大阪大学, 大学院・工学研究科, 助教授 (90219585)
白井 良明 大阪大学, 大学院・工学研究科, 教授 (50206273)
塩原 守人 富士通研究所, マルチメディアシステム研究所, 主任研究員
|
研究概要 |
人間と機械のコミュニケーションの手段として,人間同士の場合と同様にジェスチャが注目されている.しかし,従来のジェスチャ認識を利用したヒューマンインタフェースの研究では,ユーザが手を動かすのは機械に指示を送るときだけで,行うジェスチャもあらかじめ登録してある少数の特定のものと仮定していた.従って,ユーザが指示を意図しないで手を動かすと,それを指示と誤認識するおそれがあった.また,登録されていないジェスチャが認識できないばかりでなく,登録されたジェスチャでも環境条件等の違いで機械に見え方が異なると認識できないという問題があった.昨年度までに,前者については他の非言語的行動の使用が,後者については行動呈示と観察のインタラクションが有望であることが分かった.今年度は,これを実際のヒューマンインタフェースシステムに実装し,使用実験をとおして有効性を実証した. まず,視線の代りに顔の向きを用い,顔がディスプレーの方を向いているときだけ操作を意図したジェスチャとして認識する仮想世界の操作システムを開発した.次に,行きたい方向に顔を向ければそちらに動く知的車椅子を開発した.後者では,顔をそちらに行きたくて向けたかどうかを,顔の動きと周囲環境の観察結果から判断する方法を考案した.また,車椅子が、ら降りているときに,ジェスチャで呼び寄せるなどの操作をできるようにした.ここに,行動提示と観察のインタラクションを組み込み,ジェスチャが確実に認識できないときでも,人間とのインタラクションにより,最終的には人間の思うように動かせることを確認した.
|