Research Abstract |
本研究では,ユーザが手にし,それを持ち変えて観測している物体を装着型視覚センサでとらえ,その物体の3次元形状,及び,表面情報を復元する手法の確立を目指している.最終年度にあたる本年度は,これまでに開発した手法の安定化や高度化に主眼をおいて研究を推進し,以下の成果を得た. 1.装着型視覚センサを用いた視線検出の安定化:平成14年度に開発した視線検出手法では,検出データが人間の視覚特性を反映していることを考慮していなかったため,その検出精度には自ずと限界があった.本研究では,この問題を克服するために,注視時の固視微動を考慮して視線の動きを捉えることにより,視線検出の安定化をはかった.そして,被験者を用いた実験によって,統計的に有意に視線検出精度が向上したことを示した. 2.装着型能動視覚センサを用いた自己運動推定の安定化:平成15年度に開発した装着者の頭部運動推定手法における蓄積誤差を軽減する手法を開発した.具体的には,局所時間内に得られた推定結果にバンドル調整を適用することで,時々刻々に推定された運動がそれまでの入力画像系列と幾何学的に整合するようにそのつど推定結果を修正する手法を考案した.そして,この修正によって,長い運動に対しても安定に運動推定を実現することができることを示した. 3.把持物体の全形状復元のための距離画像張り合わせの高度化:平成15年度に開発した,物体表面の局所構造を保持する距離画像の張り合わせ手法の前処理として,距離画像のおおまかな張り合わせ手法を考案した.ここでは,距離画像間で共有している領域の復元点を抽出し,それらの画像間での対応を見つける問題を組合せ最適化問題として定式化し,最も整合する復元点の対応組を大域的に見つけている.これにより,前処理や視点の位置関係に関する知識をまったく必要とすることなく,大域的に最適な,距離画像のおおまかな張り合わせを実現することができる.
|