研究概要 |
CGベースの仮想衣服の生成方法としては,布の特性値を考慮したシミュレーションや,ゴム板などの弾性体をシミュレーションした結果を利用するものなどさまざまな手法が提案されている.しかし,従来のCGベースの衣服では複雑な形状の衣服の作成や,複雑なしわの生成が難しく,合成結果が不自然に見えるという問題があった.そこで,本研究では,動作推定ソフトウェアから得られた人物動作の推定結果と実写映像とを用いて,実写ベースの仮想衣服を生成・合成する手法を提案した. 実写ベースの仮想衣服を生成・合成するために,仮想衣服用の映像と,利用者の映像をあらかじめ用意し,利用者の姿勢に類似する姿勢の衣服画像を,衣服映像の中から選択し,合成する.そのため,利用者の姿勢・動作とまったく異なった姿勢・動作の衣服映像から利用者の姿勢・動作にあった衣服画像を得ることは難しい.そこで,入力映像中の人物の動作を歩く,回転するという基本的な動作のみに限定した.また,衣服映像は,仮想衣服としたい衣服を着用している人物に入力映像の人物に近い姿勢・動作をさせたものとした. 更に,CGベースのヘアスタイルの生成方法としては,頭部の3次元モデルに短冊状に細い髪を貼り付けて,髪の模様をテクスチャマッピングするなどの手法がある.しかし,CGベースの仮想衣服同様,複雑な形状のヘアスタイルの作成や,複雑な髪のシミュレーションが難しく,合成結果が不自然に見えるという問題があった.そこで,本研究では,頭部の3次元姿勢の推定結果と実写映像とを用いて,実写ベースのヘアスタイルを生成・合成する手法を提案した.
|