研究概要 |
シルエット動画像から手指の形状モデルと姿勢の推定において,確率を用いてモデルパラメータの範囲を計算する手法は,単眼視画像列を用いた場合には確率分布の近似計算に由来する誤差が蓄積されるため,画像特徴の抽出精度が粗い場合に形状と姿勢が正しく推定されないことがあることがわかった.今年度はこれを解決するため,確率分布の代わりにありうるパラメータの範囲を楕円体と直方体の組み合わせで近似表現する手法を新たに考案した.この手法では画像特徴の抽出精度がよくない場合でも正しくパラメータ範囲を推定できることを,CGによるシミュレーションによって確かめた.しかし現実の画像には事前に予想した画像特徴の精度よりも大きな誤差を含む特徴が突発的に入力されることがあり,その場合にはこの手法は弱く,誤った推定値が得られてしまうことがわかった.この場合時系列の観測データを比較して突発的な誤差を含んだデータを除去する手法を開発する必要がある. また複雑な背景下で人物領域を抽出しながら姿勢推定をする手法について研究した.シルエットだけでは姿勢推定のための情報が不足する場合があるので,画像からえられる動き情報(オプティカルフロー)やステレオ画像からえられる距離情報を使って,人物の領域と姿勢パラメータを確率的に推定する手法を検討した.今年度購入したパソコンと既存のステレオカメラシステムを用いて実験システムを構築し,歩行する人物領域の抽出と姿勢をオフラインで推定することができた.
|