研究概要 |
人間に使いやすい,人間を中心に考えたヒューマンインタフェースとして,テレビカメラの画像から人間の空間的な指示のジェスチャを認識して利用することに関して研究を行った.手で指し示す等のジェスチャを認識する基本になるのは,手の3次元空間における位置を求める技術である.これに関しては,従来研究ではステレオ視が主として利用されてきた.ステレオ視では3次元位置を求めるために,事前にカメラキャリブレーションを行う必要がある.これは手間がかかる上,使用中にカメラの位置等が変動すると狂ってしまい,手軽に使えるものではない.また,これにより得られる運動の認識結果はカメラに固定された座標系についてのものなので,人間が動くと,同じ手の動きでも違ったジェスチャと認識してしまうことがある.今年度は,このような問題を解決するものとして,複数視点からの不変量を用いる方法を検討した.その結果,カメラキャリブレーションが不要で,カメラ系固定だけでなく人間を中心とした座標系でもジェスチャを認識できる視覚情報処理の方式を確立した. そして,これを購入したワークステーション等を利用した実験システム上に実装し,ヒューマンインタフェースの実験システムを実現した.今年度の実験では,画像処理を確実に行うために,ユーザは特徴点のついた手袋をはめ,座標系を構成する基準点にも特定のマークを用いた.このシステムにより,手の動きに応じて3次元コンピュータグラフィックス像を動かすことができることを確認した.また、コンピュータグラフィックス像だけでなく,移動ロボットを動かす実験も行った.これらの実験により,本方式のヒューマンインタフェースとしての基本的な部分についての有効性が確認できた.
|