研究概要 |
1)ゲームキャラクタの複合動作生成 ゲームキャラクタのジェスチャと表情を生成するときに,ジェスチャの意味と時間的整合性を保ちなが複数の要素動作を協調させることで人間的振る舞いを生成した.また感情や対人関係によって要素運動の活性度を制御して多様な感情表現をダイナミックに生成した.モーションキャプチャのデータを利用してアルゴリズムの有効性を確認した. 2)ユーザの注意方向を利用したゲームキャラクタのインタラクション生成 視覚的非言語情報の中の一として,トラッキングセンサや画像処理により利用者の注視位置を検出し,注視位置から注意対象を推定した.同時にマイクロフォンからの発話情報を取得し,会話状況とプレーヤの注意対象の2つの要素から,ゲームキャラクタの能動的な動作を生成することを確認した. 3)目や頭部の協調動作によるゲームキャラクタの表情生成 ゲームキャラクタの対話状態を発話時,聴取時,待機時の三状態にわけ,それぞれの状態における頭部・視線動作のルールを体系化した.また,印象評価技術の適用によって,キャラクタの性格,個性,心理状態,興味度と頭部・視線パラメータの統計的な対応付けを行った. 4)第二言語教育への応用 ゲームキャラクタとの会話によって英語をインタラクティブに学習できるシステムについて検討を進めた.教育分野の専門家と連携して,タスク構成法を明らかにするとともに,意味交渉(negotiation of meaning)を可能にする会話生成法を実装して予備実験を行った.
|