• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Human Motion Manifold using Deep Neural Networks

Research Project

Project/Area Number 19K12287
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 62040:Entertainment and game informatics-related
Research InstitutionToyo University

Principal Investigator

Murakami Makoto  東洋大学, 総合情報学部, 准教授 (80329119)

Project Period (FY) 2019-04-01 – 2022-03-31
Project Status Completed (Fiscal Year 2021)
Budget Amount *help
¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2021: ¥260,000 (Direct Cost: ¥200,000、Indirect Cost: ¥60,000)
Fiscal Year 2020: ¥260,000 (Direct Cost: ¥200,000、Indirect Cost: ¥60,000)
Fiscal Year 2019: ¥390,000 (Direct Cost: ¥300,000、Indirect Cost: ¥90,000)
Keywords深層ニューラルネットワーク / 生成モデル / GAN / VAE / キャラクタアニメーション / 動作 / 人物動作 / ディープラーニング
Outline of Research at the Start

3次元コンピュータグラフィックスを使用した映像コンテンツには人型のキャラクタが登場し,人のように行動することが多い.本研究の目的は,多様で自然なキャラクタの動作を生成することができるシステムを構築することである.本研究では,動作の生成過程は複雑で非線形だと考え,この過程を深層ニューラルネットワークによりモデル化する.ネットワークの学習の際に,生成とは逆の過程(推論過程)も同様に深層ニューラルネットワークにより表現し,両ネットワークのパラメータを推定する.このようにすることで,動作の生成過程と推論過程を明らかにする.

Outline of Final Research Achievements

We consider that the process that people create various human motions in their minds and the process that people recognize various human motions are complicated and non-linear. And we modeled them using two different kinds of deep neural networks: generative adversarial networks and variational autoencoders. We trained the proposed models using human motion dataset captured with optical motion capture system. And we confirmed that the trained models can generate various natural human motions.

Academic Significance and Societal Importance of the Research Achievements

人間は様々な動作を思い浮かべることができる.このような人間の創造活動の一部を深層ニューラルネットワークによりモデル化できることを示したことが本研究の学術的意義である.また,3次元コンピュータグラフィックスを使用した映画やゲームには人型のキャラクタが登場することが多く,キャラクタの動作を生成・制御・編集することは重要なタスクである.本研究で提案した動作生成モデルによりキャラクタアニメーションの制作が容易になることが期待できる.

Report

(4 results)
  • 2021 Annual Research Report   Final Research Report ( PDF )
  • 2020 Research-status Report
  • 2019 Research-status Report
  • Research Products

    (7 results)

All 2022 2021 2020 2019 Other

All Presentation (6 results) (of which Int'l Joint Research: 2 results) Remarks (1 results)

  • [Presentation] Human Motion Generation using Variational Recurrent Neural Network2022

    • Author(s)
      Makoto Murakami, Takahiro Ikezawa
    • Organizer
      6th International Conference on Digital Signal Processing
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Human Motion Generation using Wasserstein GAN2021

    • Author(s)
      Ayumi Shiobara,Makoto Murakami
    • Organizer
      International Conference on Computer Graphics and Virtuality
    • Related Report
      2020 Research-status Report
    • Int'l Joint Research
  • [Presentation] Variational Recurrent Neural Networkを用いた人物動作生成モデルの構築2021

    • Author(s)
      村上真,生澤隆広
    • Organizer
      情報処理学会 コンピュータグラフィックスとビジュアル情報学研究会
    • Related Report
      2020 Research-status Report
  • [Presentation] Human Motion Generative Model using Wasserstein GAN2020

    • Author(s)
      Ayumi Shiobara, Makoto Murakami
    • Organizer
      情報処理学会 コンピュータグラフィックスとビジュアル情報学研究会
    • Related Report
      2019 Research-status Report
  • [Presentation] Generative Adversarial Networksを用いた人物動作生成モデルの構築2019

    • Author(s)
      塩原歩,村上真
    • Organizer
      電子情報通信学会 人工知能と知識処理研究会
    • Related Report
      2019 Research-status Report
  • [Presentation] 深層ニューラルネットワークを用いたシーンラベリングに適したクラスラベル付き訓練データの生成2019

    • Author(s)
      茂木悠一朗,村上真
    • Organizer
      電子情報通信学会 人工知能と知識処理研究会
    • Related Report
      2019 Research-status Report
  • [Remarks] 研究プロジェクト|メディア情報研究室|村上真研究室|東洋大学総合情報学部

    • URL

      http://www.makotomurakami.com/projects.html

    • Related Report
      2021 Annual Research Report 2020 Research-status Report

URL: 

Published: 2019-04-18   Modified: 2023-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi