仮想世界のキャラクタを用いた動作生成と身体的理解の研究
Project/Area Number |
02F00607
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 外国 |
Research Field |
情報通信工学
|
Research Institution | Tokyo Institute of Technology |
Principal Investigator |
奥村 学 東京工業大学, 精密工学研究所, 助教授
|
Co-Investigator(Kenkyū-buntansha) |
ROMANOS Piperakis 東京工業大学, 精密工学研究所, 外国人特別研究員
|
Project Period (FY) |
2002 – 2004
|
Project Status |
Completed (Fiscal Year 2003)
|
Budget Amount *help |
¥1,800,000 (Direct Cost: ¥1,800,000)
Fiscal Year 2003: ¥900,000 (Direct Cost: ¥900,000)
Fiscal Year 2002: ¥900,000 (Direct Cost: ¥900,000)
|
Keywords | VIRTUAL REALITY / AUTONOMOUS AGENTS / MOTION CONTROL / REALISTIC ANIMATION / MOTION CAPTURE / Virtual Reality / Autonomous Agents / Motion Control |
Research Abstract |
私の研究では人間の動作を学習し、抽象化して、仮想世界のエージェントの動作に適用することです。これは自律的な動作生成を擬人化されたエージェントに行わせるための中心課題です。その課題のため、モーションキャプチャシステムからのデータを学習対象として、そのデータを結合してアニメーションを生成する手法を取っています。 そこで問題となるのが誤差の少ないモーションキャプチャデータの獲得です。本研究では既存の磁気式モーションキャプチャシステムで使われている誤差を減少させる手法よりも優れた手法の開発を行いました。 モーションデータは取得された後、自律型エージェントの動作生成を行いやすくするために、モーショングラフと呼ぶ時系列でないグラフ形式のデータ構造へと変換されます。 そこで必要となる、動作の部分系列同士の類似性を計り、動作からある動作へ遷移可能な瞬間を発見する方法を開発しました。この手法は東京工業大学の中嶋研究室との共同研究による端点間の距離に基づく姿勢表現を拡張して用いています。この手法は姿勢の視覚的な類似性を考慮して作られています。また、姿勢を表す次元の圧縮を主成分分析を用いて行う事で、マッチング計算を高速化しています。 最後に、既存のモーショングラフの一般化手法を開発しまし為グラフのノードに一つの姿勢を登録するのではなく、新しい手法では姿勢空間中で統計的に表される姿勢の群を使います。群は学習により形作られますが、そこでは局所重みつき射影回帰を用いました。 これらの研究を学部学生と指導をしつつ共同で行いました。
|
Report
(2 results)
Research Products
(6 results)