研究概要 |
映画やCMなどの映像製作の分野においては,CG(Computer Graphics)を用いた映像製作が盛んに行われるようになってきた.人工物などはリアルに表現することは容易であるが,自然物体をリアルに表現することは困難である.また,動きを伴う場合には,リアルな動きを表現することは非常に困難な課題となっている.特に,人間の動きや表情を表現することは莫大な作業を要し困難な課題であるが,CG製作や遠距離通信等を実現するための重要な要素である. 本研究では顔の表情データの入力方法としてモーション・キャプチャ技術を用い,現在最もリアルに表情が生成できると思われる筋肉モデルを用いて表情を生成し,そのためのデータベースを確立することを目的とした. 心理学の研究によると,人間の感情を表す顔の表情は,怒り,悲しみ,恐怖,嫌悪,驚き,喜びの6種類であり,それらは万国共通である。本研究では,これらの6種類の表情につてデータを取り,CGアニメーションで表現を行った。モーションキャプチャシステムを用いて,顔の任意の点の動きを測定することができるが,採取したデータからワイヤーフレームで作成したCGモデルをどの様に動かすかが問題になる.そこで,人間の顔の表情は,表情筋の収縮によって表現されるという解剖学的知見を用いる.つまり,顔にある17個の表情筋の動きをモーションキャプチャシステムで採取するために顔面上に13個の特徴点を定め計測する.その特徴点の動きを表情筋の収縮率に変換し,CGモデルを動かす.CGモデルでは,ワイヤーフレームモデル上に筋肉モデルを定義し,ワイヤーフレームモデルを動かし表情を表現した. 今後,採取したデータを解析し,人種,性別,年齢などの違いによる表情の差を定量的に解析することで,表情データベースの作成を行う予定である.
|