本研究は、3次元CG化されたキャラクタに対し、それぞれの個性を反映可能な表情アニメーション作成技術の開発を通じて、ヒトの表情表出のダイナミクスを解明することを目的とする。さらに、デジタルアニメーション作品に登場するキャラクタの表情アニメーション作成に応用することで、アニメーションクリエイタの負担を減らしデジタルコンテンツ作成の高効率化の実現を目指すものである。 従来、キャラクタ表情アニメーションの作成には、物理現象に即した表情筋ベースの手法や、ブレンドシェイプに代表されるジオメトリベースの手法が一般的である。本年度は、従来から使用されている表情筋ベースの手法に対して、シミュレーションにおける微少時間を動的にコントロールすることでより安定した物理シミュレーションを実現した。さらに、多くの映像制作現場で使用されている3次元モデリングソフトウェアであるMayaのプラグインとして、開発した物理シミュレータを実装した。これにより、実際の制作現場で本手法の導入が可能となった。 また、モーションキャプチャを用いて被験者の顔表面に貼付されたマーカの動作遷移を計測することで、被験者の顔表情の動作遷移を獲得した。次に、表情筋シミュレーションによる制約モデルを用いることで、表情筋の収縮強度を推定する。このとき、推定されたパラメータは表情筋シミュレーションの非線形性により、非常に不安定になりがちであった。そこで、表情の表出が完了し安定して推定できる表情筋収縮パラメータのみを使用することで、表情筋モデルの動力学的な過渡特性によってリアルな表情合成を可能とし、さらに、求められた表情筋収縮パラメータを被験者とは別人のCGキャラクタに適用することで、被験者と同じ表情をリアルに付加する技術を実現した。
|