• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Development of the adaptive agent for homeostasis and analysis of its cognitive development

Research Project

Project/Area Number 22KJ0907
Project/Area Number (Other) 22J13620 (2022)
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeMulti-year Fund (2023)
Single-year Grants (2022)
Section国内
Review Section Basic Section 61050:Intelligent robotics-related
Research InstitutionThe University of Tokyo

Principal Investigator

吉田 尚人  東京大学, 情報理工学系研究科, 特別研究員(DC2)

Project Period (FY) 2023-03-08 – 2024-03-31
Project Status Completed (Fiscal Year 2023)
Budget Amount *help
¥1,700,000 (Direct Cost: ¥1,700,000)
Fiscal Year 2023: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 2022: ¥900,000 (Direct Cost: ¥900,000)
Keywords深層恒常性強化学習 / 深層強化学習 / 恒常性 / 行動創発 / 強化学習 / 深層学習 / ロボット / 機械学習 / ロボティクス / 自律エージェント / 内受容感覚
Outline of Research at the Start

ロボット等の人工のエージェントを、何らかの意味で生命的といえる特質をもつシステムとして構築し、それが自ら行動を生み出す。そのようなシステムを構築することは可能だろうか?本研究はこの問いに対して、動物が生存するための総合的な機能:恒常性からアプローチする。そして自身の身体内部の状態を外部環境との相互作用を通した制御を学習することで適応的な行動がボトムアップに生じるとする、計算神経科学に着想した行動生成手法を追求する。独居世帯の増加する我が国において、生命性をもつロボットの開発は重要な要件である。本研究はこれにより、生存を目的として統合された真に生命的なAIの基盤技術の構築をめざす。

Outline of Annual Research Achievements

最終年次にあたる本年度では,これまでに確立した手法の応用を展開し以下の3つの点で成果を得た.(1)ロボット内部の物理情報を内受容感覚として入力とすることで,実ロボットにおける恒常性に基づく行動創発を世界で初めて構成した.(2)栄養生物学における動物の長期的な採餌行動特性の定量化手法の1つである「栄養の幾何学的アプローチ(Geometric Framework for Nutrition, GFN)」に着目した.GFNにおいて知られている3種類の異なる長期的な行動特性が,深層恒常性強化学習を用いたシミュレーション実験を通してそれぞれエージェントの代謝ダイナミクスの差異のみによって表現可能であることを示した.(3)深層恒常性強化学習におけるより複雑な行動創発可能性を検証するため,オープンエンド性をもつ学習環境を構築し,行動最適化を実行した.その結果,エージェントは内受容感覚の恒常性に対して自明な採餌等のふるまいのほか,自身が安全となるシェルターの構築などの恒常性に対して非自明性の高いふるまいが観察された.深層恒常性強化学習に関する昨年度までの一連の基礎なシミュレーション研究については現在国際誌に投稿中であり,プレプリントで既に公開している他, 深層恒常性強化学習のためのネットワーク構造の提案についてはInternational Joint Conference on Neural Networks 2023で論文が採択され口頭発表している.また(3)に関してはThe 11th International Symposium on Adaptive Motion of Animals and Machines, 2023で採択され共同研究者とともに発表している.

Report

(2 results)
  • 2023 Annual Research Report
  • 2022 Annual Research Report
  • Research Products

    (6 results)

All 2024 2023 2022

All Presentation (6 results) (of which Int'l Joint Research: 4 results)

  • [Presentation] 深層恒常性強化学習による恒常性に対して非自明な行動の創発2024

    • Author(s)
      吉田 尚人, 國吉 康夫
    • Organizer
      2024年度人工知能学会全国大会(第38回)
    • Related Report
      2023 Annual Research Report
  • [Presentation] Homeostatic Reinforcement Learning through Soft Behavior Switching with Internal Body State2023

    • Author(s)
      N. Yoshida, H. Kanazawa and Y. Kuniyoshi
    • Organizer
      2023 International Joint Conference on Neural Networks (IJCNN)
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Interoceptive behavior switching facilitates deep homeostatic reinforcement learning2023

    • Author(s)
      N. Yoshida, H. Kanazawa, and Y. Kuniyoshi
    • Organizer
      International Symposium on Predictive Brain and Cognitive Feelings
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 深層恒常性強化学習と内受容感覚に基づく方策選択機構2023

    • Author(s)
      吉田尚人, 金沢星慶, 國吉康夫
    • Organizer
      2023 年度人工知能学会全国大会(第37回)
    • Related Report
      2023 Annual Research Report
  • [Presentation] Homeostatic reinforcement learning explains foraging strategies2023

    • Author(s)
      E. Arikawa, N. Yoshida, H. Kanazawa, and Y. Kuniyoshi
    • Organizer
      The 11th International Symposium on Adaptive Motion of Animals and Machines
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Reproducing the macroscopic property of foraging behaviour using deep homeostatic reinforcement learning2022

    • Author(s)
      Naoto Yoshida, Yasuo Kuniyoshi
    • Organizer
      31st Annual Computational Neuroscience Meeting: CNS*2022
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research

URL: 

Published: 2022-04-28   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi