• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

Generative adversarial brain: a comprehensive study of multi-agent learning by natural and artificial intelligence

Research Project

Project/Area Number 22H04998
Research InstitutionKyoto University

Principal Investigator

石井 信  京都大学, 情報学研究科, 教授 (90294280)

Co-Investigator(Kenkyū-buntansha) 森本 淳  京都大学, 情報学研究科, 教授 (10505986)
雨森 賢一  京都大学, 高等研究院, 特定拠点准教授 (70344471)
吉田 和子  株式会社国際電気通信基礎技術研究所, 脳情報通信総合研究所, 客員研究員 (30379599)
Parmas Paavo  京都大学, 情報学研究科, 特定助教 (50936309)
Seymour Ben  株式会社国際電気通信基礎技術研究所, 脳情報通信総合研究所, 研究員 (10644057)
Project Period (FY) 2022-04-27 – 2027-03-31
Keywords計算論的神経科学 / 敵対的生成ネットワーク / Artificial Intelligence / Meta learning / Agile robotics
Outline of Annual Research Achievements

ヒト視覚弁別課題(自然画像と人工画像とを識別する課題)における識別機能を探るため、敵対深層学習に基づき特定の特徴量を段階的に制御可能な画像生成法を開発した。この成果は、(Fujimoto, et al., Neural Networks, 2022)として国際学術専門雑誌として掲載されると共に、京都大学よりプレスリリース、日本経済新聞社より報道された。
ヒト脳内の識別器の機構を明らかにするために、経験に基づく自己の行動選好(価値関数)と行動観察に基づいて推定される他者の行動選好を統合する社会的意思決定課題を開発した。自己学習時と他者行動観察時のモデル学習をそれぞれ強化学習法と逆強化学習を用いてモデル化し、大脳基底核の異なる部位が学習に関わることを示唆する結果を得た。
マカクザルを用いて、敵対生成脳の識別器および生成器の回路同定を進めた。特に、生成器・識別機の相互作用に重要な、サルの大規模ネットワークの領野間相互作用の解析を進めた。
従来の見まね学習では、比較的単純な動作課題に対して、単一の熟練者(エージェント)のデモンストレーションデータを用いて学習を行っていた。タスクが複雑になると、多数のエージェントの動作から学び取る必要がある。そこで、敵対生成脳の仮説に基づき、敵対するチーム同士のデータから複雑なタスクとして、チーム戦略を見まね学習する方法論の開発を進めた。さらに、リカレント型ニューラルネットワークと深層強化学習を階層的に組み合わせることで、環境に応じて歩容を変化させることのできる4脚ロボットシミュレータの歩行学習法の開発を進めた(論文投稿中)。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本研究課題は、8つのサブ研究課題からなる融合・学際的研究を進めるものであるが、全てのサブ課題において、順調に研究が進展している。
項目(a-1) 「視覚弁別課題遂行時の脳識別器のモデル化」において、2022年度のコロナ禍後の実験装置のフル再稼働に時間がかかったなどにより、実験装置のレンタルに関わる経費などを次年度(2023年度)に繰り越した。また、項目(a-2)「マルチエージェント転移学習課題遂行時の脳識別器のモデル化」において、コロナ禍後の実験装置のフル再稼働に時間がかかると共に、海外渡航制限のため在英中の研究分担者が訪日することが難しくなった。2022年度に予定していた実験を年度内に実施できなかったため、関連経費を次年度(2023年度)に繰り越した。
こうした繰越が発生したもの、2023年度末の時点で全て回復済(実験など実施済)であり、2022年度計画は順調に完了したと考えている。

Strategy for Future Research Activity

本研究課題は、8つのサブ研究課題からなる融合・学際的研究を進めるものであるが、2023年度以降も、全てのサブ課題において当初計画通りに研究を進める。特に、計算神経科学研究として成果があがっているサブ課題(a-1)(a-4)などは論文化を加速するとともに、そこで出てきた成果についてプレスリリースなどを通したアウトリーチ活動を行う。また、工学系研究に関わるサブ課題(b-1)(c-1)はハイインパクトな国際会議での論文掲載を目指す。サブ課題(b-2)(c-2)は結果の可視化も重要であり、論文化と並行して映像化なども検討する。

  • Research Products

    (6 results)

All 2022 Other

All Int'l Joint Research (2 results) Journal Article (3 results) (of which Int'l Joint Research: 2 results,  Peer Reviewed: 3 results,  Open Access: 2 results) Remarks (1 results)

  • [Int'l Joint Research] Oxford University(英国)

    • Country Name
      UNITED KINGDOM
    • Counterpart Institution
      Oxford University
  • [Int'l Joint Research] 深セン大学(中国)

    • Country Name
      CHINA
    • Counterpart Institution
      深セン大学
  • [Journal Article] Transition Motion Synthesis for Object Interaction based on Learning Transition Strategies2022

    • Author(s)
      Hwang Jaepyung、Park Gangrae、Kwon Taesoo、Ishii Shin
    • Journal Title

      Computer Graphics Forum

      Volume: 41 Pages: 37~50

    • DOI

      10.1111/cgf.14499

    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Tri-view two-photon microscopic image registration and deblurring with convolutional neural networks2022

    • Author(s)
      Lee Sehyung、Kume Hideaki、Urakubo Hidetoshi、Kasai Haruo、Ishii Shin
    • Journal Title

      Neural Networks

      Volume: 152 Pages: 57~69

    • DOI

      10.1016/j.neunet.2022.04.011

    • Peer Reviewed / Open Access
  • [Journal Article] Deep learning-based image deconstruction method with maintained saliency2022

    • Author(s)
      Fujimoto Keisuke、Hayashi Kojiro、Katayama Risa、Lee Sehyung、Liang Zhen、Yoshida Wako、Ishii Shin
    • Journal Title

      Neural Networks

      Volume: 155 Pages: 224~241

    • DOI

      10.1016/j.neunet.2022.08.015

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Remarks]

    • URL

      https://ishiilab.jp/member/ishii/

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi