研究概要 |
人間を中心に考えた人間に使いやすいヒューマンインターフェースの実現を目指して,テレビカメラの画像から人間の空間的な指示のジェスチャを認識して利用することに関して研究を行った.手で指し示す等のジェスチャを認識する基本になるのは,手の3次元空間における位置を求める技術である. これに関しては,従来研究ではステレオ視が主として利用されてきた.ステレオ視では3次元位置を求めるために,事前にカメラキャリブレーションを行う必要がある.これは手間がかかる上,使用中にカメラの位置等が変動すると狂ってしまい,手軽に使えるものではない.また,これにより得られる運動の認識結果はカメラに固定された座標系についてのものなので,人間が動くと,同じ手の動きでも違ったジェスチャと認識してしまうことがある.このような問題を解決するものとして,複数視点からの不変量を用いる方法を検討した. 昨年度までの研究で,基本方式が確定したので,今年度はヒューマンインターフェースの実験システムを完成させ,方式の評価を行った.計算機制御で動くカメラで,ユーザを常に追跡しながら,ユーザの手の動きを認識し,手の動きに応じて3次元コンピュータグラフィックス像,あるいは移動ロボットを動かすことのできるシステムを完成した. このシステムでは,カメラキャリブレーションが不要で,システムの方が人間を発見して追跡してくれるので,人間の方は自分がカメラ視野に入っているかどうか気にかける必要がない.また,状況に応じて従来方式のカメラ固定の座標からユーザ中心座標系での解釈に自動的に切り替わる.実際の運用実験の結果,ロボットやコンピュータグラフィックス像がユーザの意図どおりに容易に動かせることが確認され,方式の有効性が実証された.
|