• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Spatial Knowledge Acquisition by Robot Question Generation Based on Active Inference

Research Project

Project/Area Number 23K16975
Research Category

Grant-in-Aid for Early-Career Scientists

Allocation TypeMulti-year Fund
Review Section Basic Section 61050:Intelligent robotics-related
Research InstitutionRitsumeikan University

Principal Investigator

谷口 彰  立命館大学, 情報理工学部, 講師 (70831387)

Project Period (FY) 2023-04-01 – 2026-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥4,420,000 (Direct Cost: ¥3,400,000、Indirect Cost: ¥1,020,000)
Fiscal Year 2025: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2024: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2023: ¥1,820,000 (Direct Cost: ¥1,400,000、Indirect Cost: ¥420,000)
Keywords能動的推論 / 能動探索 / Semantic map / 場所概念 / 記号創発ロボティクス / 自律移動ロボット / 実世界適応
Outline of Research at the Start

複雑な実世界環境に適応するためにロボット自身における不確実な事象や知識に対する効率的な環境や人とのインタラクションの実現は,重要な喫緊の課題である.本研究では能動的に環境内を動き回り,人に問いかけることで知識獲得していくロボットの実現を目指す.そのため計算論的神経科学の分野で提唱されている自由エネルギー原理に基づく能動的推論をロボットの場所概念学習に適用する.こうした統一的な理論枠組みを基盤に自在な質問生成によるロボットの知識獲得を実現することで,人とロボットの言語的インタラクションおよびロボットによる生活支援のために大きく貢献する.

Outline of Annual Research Achievements

人間の生活環境で動作するロボットは,周囲の環境や人とのインタラクションを通して環境中に存在する様々な場所のカテゴリ知識 (場所概念)や語彙を自律的・能動的に学習することが求められる.ロボットの操作やデータ収集に多大な作業負担を要する問題を能動探索は解決する.本研究では能動的に環境内を動き回り,人に問いかけることで知識獲得していくロボットの実現を目指す.
当該年度の主な研究項目として,「(A) 場所概念獲得モデルへの能動的推論の適用」および「(B) 能動的場所概念学習とActive SLAMとの統合」について取り組んだ.
研究実績として,(A)については観測データからのオンライン学習と能動探索のための意思決定を組み合わせた能動的推論アルゴリズムSpCoAEを提案し国際論文誌にて採録済みである.(B)については(A)の手法を拡張し,SpCoAEとActive SLAMを能動的推論の枠組みで数理的に統合することで,実世界環境において地図と場所概念の学習効率の向上やユーザの教示負担の低減を実現した.この成果は国際会議において発表した.
研究項目「(C) Cross-modal active inferenceによる質問文生成」に関しても確率モデルと大規模言語モデルを組み合わせたアプローチの検討を進めている.

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

当初の計画では、研究項目(A)を1年目前半~2年目前半,(B)を2年目前半~3年目前半で行う計画であった.現在までの進捗状況として,初年度である当該年度において,(A),(B)共に既に一定の成果を得ることができた.(A)については能動的推論に基づき場所の名前を学習するSpCoAEを提案し国際論文誌に採録された.能動的推論に用いられる期待自由エネルギーとActive SLAMにおいて用いられてきた情報利得と距離コストの項との対応関係がスムーズに行えたことで,当初予定より理論的な進展が見られた.
(B)については場所概念と地図を同時にオンライン推定するSpCoSLAMに能動探索を適用したActive SpCoSLAMを提案し国際会議発表を行った.情報利得の計算にいくつかの近似を取り入れることにより,計算量の問題の改善を効率良く行えたことで当初予定より進展した.
また,(C)についても準備検討を進めており,当初の計画以上に進展していると言える.

Strategy for Future Research Activity

今後は研究項目(C)に注力し研究を推進する.特に,確率的生成モデルにおける能動的推論と大規模言語モデルによる言語に基づく推論を組み合わせるアプローチを検討していく.質問生成のタスクとして環境中の物体の特性の不確実性に着目し,人とロボットのインタラクションに基づく効率的な知識獲得の実現を目指す.
また研究項目(B)に関しても,提案した手法をより実用的にするために,長期的な能動探索による学習や動的環境への対応といった発展を計画している.
これらの成果を国内会議・国際会議にて発表する予定である.

Report

(1 results)
  • 2023 Research-status Report
  • Research Products

    (17 results)

All 2024 2023 Other

All Journal Article (4 results) (of which Peer Reviewed: 3 results,  Open Access: 3 results) Presentation (11 results) (of which Int'l Joint Research: 4 results) Remarks (2 results)

  • [Journal Article] 脳科学とロボティクスを結ぶ統合認知モデルの実践と展望2024

    • Author(s)
      谷口 彰、山川 宏、谷口 忠大
    • Journal Title

      Journal of the Japanese Society for Artificial Intelligence

      Volume: 39 Issue: 2 Pages: 205-213

    • DOI

      10.11517/jjsai.39.2_205

    • ISSN
      2188-2266, 2435-8614
    • Year and Date
      2024-03-01
    • Related Report
      2023 Research-status Report
  • [Journal Article] Active exploration based on information gain by particle filter for efficient spatial concept formation2023

    • Author(s)
      Taniguchi Akira、Tabuchi Yoshiki、Ishikawa Tomochika、El Hafi Lotfi、Hagiwara Yoshinobu、Taniguchi Tadahiro
    • Journal Title

      Advanced Robotics

      Volume: 37 Issue: 13 Pages: 840-870

    • DOI

      10.1080/01691864.2023.2225175

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Journal Article] Unsupervised Multimodal Word Discovery Based on Double Articulation Analysis With Co-Occurrence Cues2023

    • Author(s)
      Taniguchi Akira、Murakami Hiroaki、Ozaki Ryo、Taniguchi Tadahiro
    • Journal Title

      IEEE Transactions on Cognitive and Developmental Systems

      Volume: 15 Issue: 4 Pages: 1825-1840

    • DOI

      10.1109/tcds.2023.3307555

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Journal Article] Integrating probabilistic logic and multimodal spatial concepts for efficient robotic object search in home environments2023

    • Author(s)
      Hasegawa Shoichi、Taniguchi Akira、Hagiwara Yoshinobu、El Hafi Lotfi、Taniguchi Tadahiro
    • Journal Title

      SICE Journal of Control, Measurement, and System Integration

      Volume: 16 Issue: 1 Pages: 400-422

    • DOI

      10.1080/18824889.2023.2283954

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Presentation] Interactive Learning System for 3D Semantic Segmentation with Autonomous Mobile Robots2024

    • Author(s)
      Akinori Kanechika, Lotfi El Hafi*, Akira Taniguchi, Yoshinobu Hagiwara, Tadahiro Taniguchi
    • Organizer
      2024 IEEE/SICE International Symposium on System Integration (SII)
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] DEQ-MCL: Discrete-Event Queue-based Monte-Carlo Localization2024

    • Author(s)
      Akira Taniguchi, Ayako Fukawa, Hiroshi Yamakawa
    • Organizer
      AROB-ISBC-SWARM 2024
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Exophora Resolution of Linguistic Instructions with a Demonstrative based on Real-World Multimodal Information2023

    • Author(s)
      Oyama Akira、Hasegawa Shoichi、Nakagawa Hikaru、Taniguchi Akira、Hagiwara Yoshinobu、Taniguchi Tadahiro
    • Organizer
      IEEE International Conference on Robot and Human Interactive Communication (RO-MAN)
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Active Semantic Mapping for Household Robots: Rapid Indoor Adaptation and Reduced User Burden2023

    • Author(s)
      Tomochika Ishikawa, Akira Taniguchi, Yoshinobu Hagiwara, Tadahiro Taniguchi
    • Organizer
      IEEE International Conference on Systems, Man, and Cybernetics (SMC)
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] 海馬体に学んだ確率的生成モデルの実装と有効性検証2023

    • Author(s)
      大竹 俊輔、前山 功伊、長谷川 翔一、中島 毅士、谷口 彰、谷口 忠大、山川 宏
    • Organizer
      人工知能学会全国大会
    • Related Report
      2023 Research-status Report
  • [Presentation] 大規模言語モデルと場所概念モデルの統合による未観測物体の語彙を含んだ言語指示理解2023

    • Author(s)
      長谷川 翔一、山木 良輔、谷口 彰、萩原 良信、エル ハフィ ロトフィ、谷口 忠大
    • Organizer
      人工知能学会全国大会
    • Related Report
      2023 Research-status Report
  • [Presentation] 地図とマルチモーダル場所概念の同時学習のための能動探索手法と基盤モデル活用2023

    • Author(s)
      石川 朋親、谷口 彰、萩原 良信、谷口 忠大
    • Organizer
      人工知能学会全国大会
    • Related Report
      2023 Research-status Report
  • [Presentation] 現場環境で学習した知識に基づく曖昧な発話からの生活物理支援タスク2023

    • Author(s)
      萩原 良信、長谷川 翔一、大山 瑛、谷口 彰、エル ハフィ ロトフィ、谷口 忠大
    • Organizer
      日本ロボット学会学術講演会 RSJ2023
    • Related Report
      2023 Research-status Report
  • [Presentation] 生活支援ロボットの行動計画のための大規模言語モデルと場所概念モデルの活用2023

    • Author(s)
      長谷川 翔一、伊藤 昌樹、山木 良輔、坂口 太一、萩原 良信、谷口 彰、エル ハフィ ロトフィ、谷口 忠大
    • Organizer
      日本ロボット学会学術講演会 RSJ2023
    • Related Report
      2023 Research-status Report
  • [Presentation] 海馬体の離散イベントキュー仮説に基づく自己位置推定手法2023

    • Author(s)
      谷口 彰、山川 宏
    • Organizer
      日本ロボット学会学術講演会 RSJ2023
    • Related Report
      2023 Research-status Report
  • [Presentation] 自己蒸留と3次元地図を用いた生活支援ロボットによる類似物体探索2023

    • Author(s)
      坂口 太一、谷口 彰、萩原 良信、谷口 忠大
    • Organizer
      日本ロボット学会学術講演会 RSJ2023
    • Related Report
      2023 Research-status Report
  • [Remarks] 創発システム研究室

    • URL

      http://www.em.ci.ritsumei.ac.jp/

    • Related Report
      2023 Research-status Report
  • [Remarks] 谷口彰(Akira Taniguchi)のページ

    • URL

      https://sites.google.com/site/ataniguchi0403/

    • Related Report
      2023 Research-status Report

URL: 

Published: 2023-04-13   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi