• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

深層強化学習における運動シナジー発現のメカニズムの解明

Publicly Offered Research

Project AreaHyper-adaptability for overcoming body-brain dysfunction: Integrated empirical and system theoretical approaches
Project/Area Number 20H05458
Research Category

Grant-in-Aid for Scientific Research on Innovative Areas (Research in a proposed research area)

Allocation TypeSingle-year Grants
Review Section Complex systems
Research InstitutionTohoku University

Principal Investigator

林部 充宏  東北大学, 工学研究科, 教授 (40338934)

Project Period (FY) 2020-04-01 – 2022-03-31
Project Status Completed (Fiscal Year 2021)
Budget Amount *help
¥5,980,000 (Direct Cost: ¥4,600,000、Indirect Cost: ¥1,380,000)
Fiscal Year 2021: ¥2,990,000 (Direct Cost: ¥2,300,000、Indirect Cost: ¥690,000)
Fiscal Year 2020: ¥2,990,000 (Direct Cost: ¥2,300,000、Indirect Cost: ¥690,000)
Keywords運動適応 / 運動シナジー / 深層学習 / 超適応の科学 / 強化学習 / 運動学習
Outline of Research at the Start

運動シナジーが人間の運動制御で用いられていることは既知であるが、計算論的に中枢神経がどのような法則に基づいて、どのようなメカニズムでそれが生成されているかは計算論的数理モデル構築には至っていない。計算論的神経科学では、何らかの評価関数を最小にする(最適化)するような計算方法が提案されている。最適化計算には環境と身体の数学的モデルが事前に必要となってしまう。これまではどのような計算指針でシナジーが生成できるのかのメカニズムを扱うものはほとんどなかった。その数理メカニズムの非線形ダイナミクスシステムとしての理解を深め、深層学習と統合し多様な機械力学的運動へ適応した際の拡張性、有効性を検証する。

Outline of Annual Research Achievements

冗長性を克服して、人間の運動の神経制御を再現する制御戦略を解明することは、人間の運動制御分野において中心的な課題である。これまで数理最適化に基づくアプローチが用いられてきた。しかし数学的最適化は、マニピュレータと環境の事前情報が与えられている場合のみ最適解を提供できる。
物理的に複雑で高次元の問題を扱うため、強化学習に深層学習技術を適用する深層強化学習(DRL)は、モデルフリーなアプローチとして有望である。しかし、現在のアルゴリズムは運動協調的な動作を考慮していないため、不自然でぎこちない制御結果になりがちである。
本研究ではリーチング運動追従タスクにおいて2種類のDRL制御を検証した。腕のモデルにDRLを適用した場合、行動コマンドはエージェントに与えるべき開ループ入力として学習される。これはDRLのフレームワークの標準的な手法である。さらに、フィードバック制御ループを持ちながらDRLを適用する、PD制御とDRL制御を組み合わせたものを「PDRL」と名付けた。
DRLとPDRLの両方で、単位エネルギーあたりの誤差指数の性能が最適化されていることを確認した。PDRLの指数はどのケースでもDRLのみの指数より概ね大きくなることが分かった。フィードバック信号により学習速度も3割向上するという結果が得られた。報酬関数に関節間のシナジーを明示的に記述しなかったが、学習過程でシナジー現象が自然に出現することを確認した。この結果は、シナジーの背後に誤差エネルギー最適化の問題が存在することを示唆している。さらに提案したフィードバック増幅型DRL制御の結果は,シナジーの発達と誤差エネルギー指数の点でDRLよりも優れた能力を示している。フィードバック制御が不必要なランダム探索を回避することでフィードフォワード項の発展を支援し、探索効率の向上につながることを示唆している。

Research Progress Status

令和3年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和3年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2021 Annual Research Report
  • 2020 Annual Research Report
  • Research Products

    (18 results)

All 2021 2020 Other

All Journal Article (6 results) (of which Peer Reviewed: 6 results,  Open Access: 4 results) Presentation (10 results) (of which Int'l Joint Research: 5 results,  Invited: 1 results) Remarks (2 results)

  • [Journal Article] Individual deformability compensation of soft hydraulic actuators through iterative learning-based neural network2021

    • Author(s)
      Sugiyama Taku、Kutsuzawa Kyo、Owaki Dai、Hayashibe Mitsuhiro
    • Journal Title

      Bioinspiration & Biomimetics

      Volume: 16 Issue: 5 Pages: 056016-056016

    • DOI

      10.1088/1748-3190/ac1b6f

    • Related Report
      2021 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Spiking Neural Network Discovers Energy-Efficient Hexapod Motion in Deep Reinforcement Learning2021

    • Author(s)
      Naya Katsumi、Kutsuzawa Kyo、Owaki Dai、Hayashibe Mitsuhiro
    • Journal Title

      IEEE Access

      Volume: 9 Pages: 150345-150354

    • DOI

      10.1109/access.2021.3126311

    • Related Report
      2021 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Synergy Emergence in Deep Reinforcement Learning for Full-Dimensional Arm Manipulation2021

    • Author(s)
      Han Jihui、Chai Jiazheng、Hayashibe Mitsuhiro
    • Journal Title

      IEEE Transactions on Medical Robotics and Bionics

      Volume: 3 Issue: 2 Pages: 498-509

    • DOI

      10.1109/tmrb.2021.3056924

    • Related Report
      2021 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Motor Synergy Development in High-Performing Deep Reinforcement Learning Algorithms2020

    • Author(s)
      Chai Jiazheng、Hayashibe Mitsuhiro
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 5 Issue: 2 Pages: 1271-1278

    • DOI

      10.1109/lra.2020.2968067

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Decoding Hand Motor Imagery Tasks Within the Same Limb From EEG Signals Using Deep Learning2020

    • Author(s)
      Achanccaray David、Hayashibe Mitsuhiro
    • Journal Title

      IEEE Transactions on Medical Robotics and Bionics

      Volume: 2 Issue: 4 Pages: 692-699

    • DOI

      10.1109/tmrb.2020.3025364

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Discovering Interpretable Dynamics by Sparsity Promotion on Energy and the Lagrangian2020

    • Author(s)
      Chu Hoang K.、Hayashibe Mitsuhiro
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 5 Issue: 2 Pages: 2154-2160

    • DOI

      10.1109/lra.2020.2970626

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed
  • [Presentation] Quantification of Joint Redundancy considering Dynamic Feasibility using Deep Reinforcement Learning2021

    • Author(s)
      J. Chai, M. Hayashibe
    • Organizer
      IEEE Int. Conf. on Robotics and Automation (ICRA2021)
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Deep Reinforcement Learning Framework for Underwater Locomotion of Soft Robot2021

    • Author(s)
      L. Guanda, J. Shintake, M. Hayashibe
    • Organizer
      IEEE Int. Conf. on Robotics and Automation (ICRA2021)
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Deep Reinforcement Learning with Gait Mode Specification for Quadrupedal Trot-Gallop Energetic Analysis2021

    • Author(s)
      J. Chai, D. Owaki, M. Hayashibe
    • Organizer
      43rd Annual International Conferences of the IEEE Engineering in Medicine and Biology Society (EMBC2021)
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Motor Synergy Emergence in Redundancy through Deep Reinforcement Learning2021

    • Author(s)
      M. Hayashibe
    • Organizer
      32nd 2021 International Symposium on Micro-NanoMechatronics and Human Science
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research / Invited
  • [Presentation] モデルベース強化学習により獲得される歩行運動に内在する脚協調構造2021

    • Author(s)
      吉田高志,Jiazheng Chai,沓澤京,大脇大,林部充宏
    • Organizer
      ロボティクス・メカトロニクス講演会(ROBOMECH2021)
    • Related Report
      2021 Annual Research Report
  • [Presentation] 筋骨格モデルを用いた運動学習におけるモジュラリティの役割検証2021

    • Author(s)
      福西彬仁,沓澤 京、大脇 大,林部 充宏
    • Organizer
      ロボティクス・メカトロニクス講演会(ROBOMECH2021)
    • Related Report
      2021 Annual Research Report
  • [Presentation] モデルベース強化学習を用いたヘビ型ロボットの実験的検証2021

    • Author(s)
      平井虎太朗,沓澤 京、大脇 大,林部 充宏
    • Organizer
      ロボティクス・メカトロニクス講演会(ROBOMECH2021)
    • Related Report
      2021 Annual Research Report
  • [Presentation] サイクリング運動の速度・負荷変化に対する筋シナジー適応解析2020

    • Author(s)
      猪股 映史,Felipe M. Ramos,沓澤 京、大脇 大,林部 充宏
    • Organizer
      第38回日本ロボット学会学術講演会
    • Related Report
      2020 Annual Research Report
  • [Presentation] 深層強化学習を用いたばね付き準受動歩行モデルにおける歩容生成2020

    • Author(s)
      清水寛子,沓澤 京、大脇 大,林部 充宏
    • Organizer
      第21回計測自動制御学会SI部門講演会
    • Related Report
      2020 Annual Research Report
  • [Presentation] Emergence of Motor Synergy in Multi-directional Reaching with Deep Reinforcement Learning2020

    • Author(s)
      J. Han, J. Chai, M. Hayashibe
    • Organizer
      IEEE/SICE International Symposium on System Integration
    • Related Report
      2020 Annual Research Report
    • Int'l Joint Research
  • [Remarks] Neuro-Robotics Lab

    • URL

      http://neuro.mech.tohoku.ac.jp/

    • Related Report
      2021 Annual Research Report
  • [Remarks] Neuro-Robotics Lab, Tohoku University

    • URL

      http://neuro.mech.tohoku.ac.jp/

    • Related Report
      2020 Annual Research Report

URL: 

Published: 2020-04-28   Modified: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi