研究概要 |
マルチメディアの普及とともに,コンピュータ・アニメーション製作技術の発展は,学問的にもまた社会的にも強く望まれている.しかし,その自動化は大きく遅れており,特に,仮想的なカメラを(1)どの位置から,(2)どの方向に向けるか,また(3)何を写すか,を時間毎に決定する問題はほとんど未着手である.本研究は,状況とよばれる部分世界を用いる自然言語の意味論である状況意味論を動画像の自動生成に応用し,位置と方向さらに視野の範囲を決定するモデルを構築し,システムの試作を通してその有効性を検証することを目指している.本年度は,以下の課題に取り組んだ. 1.モデルの拡張:前年度に作成したモデルでは,単純な時間順の物語から比較的単調なカメラ動作を生成する場合しか適用できなかった.そこで,ある程度の想像,回想のシーンなどが扱えるようにモデルを拡張した. 2,隠蔽の除去:昨年度のモデルでは,見えるべき表示対象が視野内に入っていても他の物体に隠蔽され実際には表示されない場合が生じていた.同様の現象は,Scientific Visualization等の分野でも大きな問題となっている.そこで,この隠蔽を検出し,仮想カメラの位置と方向を調整する手法を開発した. 3.時間的制約に基くアニメーションシステムの実現:上記手法の実験のため、昨年度開発したプラットフォームアニメーションシステムを拡張し,時間的制約に基づくアニメーションシステム(昨年11月のMMM93で発表)を実現した.これにより,本手法が広くマルチメディア一般に適用できる可能性が示せた.
|