本研究では、3次元CGモデルを用いてユーザ同士が会話する環境を考え、特にコミュニケーションとして重要な「発声の合成」に注目し、ユーザの個人性を反映したCGモデルの構音の制御を目指す。ユーザが他のユーザと仮想空間を共有しコミュニケーションを図るとき、3次元CGモデルを音声やテキストなどの入力情報から制御すれば画像情報を直接伝送する場合に比べて低ビットの通信が実現出来る。しかしCGモデルによる合成画像は、発話や感情表現などの動的制御に関しては視る者に違和感を与えるため、より人間らしい正確な動きの合成が望まれる。本研究では発話制御に着目して、発話データを解析することにより正確な動きを生成する唇のCGモデルを構築する。特に今まで注目されていなかった個人性をCGモデルに反映させ、より人間らしい正確な発話動作の制御を目指す。 初年度の研究では、静的データと動的データの収集を行なった。静的データは非接触3次元デジタイザにより収録された。動的データの方は、3次元位置計測装置とマイクロフォン・アンプ・AD装置を用いて収集された。3次元位置動的データと音データの収録は、双方の同期を厳密に取る事が難しい為に、同期用の専用装置を用いた。特に、3次元位置計測装置の場合で、測定装置の条件設定が収録データの品質に大きく影響するため、様々な測定条件の試行を重ねて、最適な条件を求めた。
|