• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

予測符号化ネットワークを用いたミラーニューロンシステムの数理モデル化とその解析

Research Project

Project/Area Number 20J13556
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeSingle-year Grants
Section国内
Review Section Basic Section 61040:Soft computing-related
Research InstitutionThe University of Tokyo

Principal Investigator

田村 浩人  東京大学, 工学系研究科, 特別研究員(DC2)

Project Period (FY) 2020-04-24 – 2022-03-31
Project Status Completed (Fiscal Year 2021)
Budget Amount *help
¥2,100,000 (Direct Cost: ¥2,100,000)
Fiscal Year 2021: ¥1,000,000 (Direct Cost: ¥1,000,000)
Fiscal Year 2020: ¥1,100,000 (Direct Cost: ¥1,100,000)
Keywordsリカレントニューラルネットワーク / リザバー計算 / 逐次教師あり学習 / FORCE学習 / Full-FORCE学習
Outline of Research at the Start

動物の脳内におけるミラーニューロンとは,自らある行動をとる時と,他個体によるその行動を知覚する時の両方で活動する神経細胞を指す.ミラーニューロンシステムは,動物が他個体の動作や鳴き声を模倣する際に重要な役割を担っていると考えられているが,その計算論的な仕組みを説明できる神経数理モデルは未だ存在しない.
そこで本研究では,脳機能の様々な側面を「外部環境の変化の予測」という観点から説明する予測符号化理論に基づいて,ミラーニューロンシステムの働きを解明することを目指す.また提案モデルを拡張することで,工場用や介護用のロボットが人間からの模倣によって動作を習得するような学習方式の実現が期待される.

Outline of Annual Research Achievements

前年度に開発したTwo-step FORCE学習は,従来のFORCE学習に比べて計算量が小さいという利点の一方で,主学習で用いる入力や教師データを事前学習でも使わなければならないという欠点があった.本年度はこれを解決するため,事前学習において様々なタイプの時系列を網羅した入力や教師データを用いた,Transfer-FORCE学習を開発した.本手法は,一度事前学習を行えば主学習にて様々なタスクを扱えるため,従来のFORCE学習と同様に扱うことができる.本手法についての数値的・理論的解析をまとめた論文が学術誌に掲載された.
並行して,前年度に引き続き,FORCE学習の発展的手法であるFull-FORCE学習の改良に注力した.Full-FORCE学習では,隠れ層の活動の目標値を生成するために,学習対象のネットワークに加えて,第二のネットワーク(教師リザバー)を用いる.Full-FORCE学習における仮定では,これら2つのネットワークは共通のハイパーパラメータを持つ必要があるため,独立に最適なハイパーパラメータ探索を行えないという問題があった.これを解決するため,本研究では,(i)Partial-FORCE学習, (ii)Hidden-FORCE学習,という2つの発展的手法を開発した.
Partial-FORCE学習では,各ネットワークの一部のニューロンのみを学習の対象とすることで,様々なモデル構造を実現可能にした.各モデル構造と学習性能の関係を解析した結果を国際会議にて発表した.
Hidden-FORCE学習では,学習に用いる誤差の定義を修正することで,教師リザバーのパラメータに関する情報が不要となった.これにより,独立なハイパーパラメータ探索が可能になった他,実験データを隠れ層の活動の目標値として陽に与える場合にも適用可能となった.現在この内容は投稿論文として準備中である.

Research Progress Status

令和3年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和3年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2021 Annual Research Report
  • 2020 Annual Research Report
  • Research Products

    (4 results)

All 2021 2020

All Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (3 results) (of which Int'l Joint Research: 2 results)

  • [Journal Article] Transfer-RLS method and transfer-FORCE learning for simple and fast training of reservoir computing models2021

    • Author(s)
      Hiroto Tamura and Gouhei Tanaka
    • Journal Title

      Neural Networks

      Volume: 143 Pages: 550-563

    • DOI

      10.1016/j.neunet.2021.06.031

    • Related Report
      2021 Annual Research Report
    • Peer Reviewed / Open Access
  • [Presentation] partial-FORCE: a fast and robust online training method for recurrent neural networks2021

    • Author(s)
      Hiroto Tamura and Gouhei Tanaka
    • Organizer
      2021 International Joint Conference on Neural Networks
    • Related Report
      2021 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Two-Step FORCE Learning Algorithm for Fast Convergence in Reservoir Computing2020

    • Author(s)
      Hiroto Tamura and Gouhei Tanaka
    • Organizer
      29th International Conference on Artificial Neural Networks
    • Related Report
      2020 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 少数のニューロンから成るリカレントニューラルネットワークの訓練のための拡張full-FORCE法2020

    • Author(s)
      田村浩人,田中剛平
    • Organizer
      第30回 日本神経回路学会 全国大会
    • Related Report
      2020 Annual Research Report

URL: 

Published: 2020-07-07   Modified: 2024-03-26  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi