研究概要 |
本年度は,与えられた目的と状況に応じて身体動作を計画・実行するCGキャラクタを実現するため,環世界の考え方を取り入れた知識表現モデルとゴール指向プランニングを用いたキャラクタ動作生成エンジンの基礎的実現を行った. 目的と状況に応じた動作生成のためには,キャラクタの周囲の環境からキャラクタがとりうる行動を列挙し,複数の行動の組み合わせ例から目的を達成する行動を探索・実行する仕組みが必要となる.このことから,物理シミュレータのシーングラフを基本とし,シーングラフ中の各物体に対して取りうる行動の選択肢を付加した構造をキャラクタAIにおける知識表現のモデルとして採用した.また,物理シミュレーションされた身体・環境の状態は連続な数値で表されるため,行動の目標や達成条件を物理モデルのパラメータに対する条件文で記述するものとした.これにより,連続的な身体動作によって目的を達成する行動を複数の行動ルール記述から自動的に発見・実行するキャラクタをについて基礎的な実現を行った. また,キャラクタAIの挙動を設計するためのプラットフォームとして,既存のオープンソースCGソフトウェアであるBlenderを基盤とし,キャラクタAIの認識をリアルタイムで可視化する仕組みを実現した.キャラクタの動作基盤となる物理シミュレータと,キャラクタの認識を表現した知識表現モデルとは同じシーングラフ構造を持つように作成してあるため,両者を重畳させて描画することで,キャラクタを取り巻く状況とその中でキャラクタが認識している内容を対比してキャラクタAIの挙動調整を行うことが可能となった.
|