本研究は、コンピュータグラフィックス(CG)を応用し、聴覚障がい児の発音練習のための口唇動作学習システムにおける口唇動作CGアニメーション教材の自動作成を目指した。従来、口唇動作CGアニメーション教材は個々の学習者毎に手作業で作成していたが、この方法では制作者の技量に依存し時間が掛かるため自動作成する着想に至った。 研究初年度においては、モデリングの自動化に着手した。非接触型3次元デジタイザで顔をスキャンし、そのデータに対して標準顔形状モデルを「シュリンク・ラップ」方式で自動的に収縮・密着させ、目的の顔形状を作成した。従来の手作業によるモデリングと比較して、大幅に時間を短くし、個人の顔形状を得ることが可能となった。 次に、母音の口唇動作を自動的にアニメーション化するために、口唇動作を数理モデルとして一般化することに取り組んだ。正同定100%のお手本モデルの口唇動作「あ・い・う・え・お」の基準点の変化を計測し、それらの実測値を分析して口唇動作の共通性を抽出した。これをもとに基準点を座標値の数理モデルとして表現しパラメータ化して動かすことが可能となった。また、学習用としては口唇動作のタイミングも重要な要素であるため、時系列的な口唇動作の変化についてもモデル化を試み数理モデルに適用した。 最後に、自動作成されたアニメーションの評価および検証を行った。その結果、一部の口唇動作は正同定が100%に到達しなかったため、情報の不足が考えられた。正しい口唇動作の認識では、歯の見え方なども要因として挙げられることが分かり、これらについても数理モデル化する必要がある。 以上のように、学習用の口唇動作CGアニメーションの自動作成手法については、モデリングとアニメーションの基礎部分は確立できたが、更に口唇動作の再現性を高めるためには、他の要素をモデル化し付加する必要があることが分かった。
|