• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Emergent Robot Navigation Integrating Unsupervised Word Discovery and Generative Model for Mapping and Localization

Research Project

Project/Area Number 16K12497
Research Category

Grant-in-Aid for Challenging Exploratory Research

Allocation TypeMulti-year Fund
Research Field Soft computing
Research InstitutionRitsumeikan University

Principal Investigator

Taniguchi Tadahiro  立命館大学, 情報理工学部, 教授 (80512251)

Co-Investigator(Kenkyū-buntansha) 萩原 良信  立命館大学, 情報理工学部, 講師 (20609416)
Project Period (FY) 2016-04-01 – 2019-03-31
Project Status Completed (Fiscal Year 2018)
Budget Amount *help
¥3,250,000 (Direct Cost: ¥2,500,000、Indirect Cost: ¥750,000)
Fiscal Year 2018: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2017: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2016: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Keywordsロボットナビゲーション / 確率モデル / ソフトコンピューティング / 地図生成 / 言語獲得
Outline of Final Research Achievements

In this study, we aimed to construct an innovative space representation method for mobile robots that integrates vocabulary acquisition and map formation via a probabilistic generative model. Furthermore, we developed an emergent robot navigation method based on this space representation method. For this purpose, (1) we developed a probabilistic generative model integrating vocabulary acquisition and map generation and derived fast inference procedure, (2) we developed emergent robot navigation method based on probabilistic generation model of vocabulary and map, and (3) implemented the space representation method and demonstrated its effectiveness verification in a real environment.

Academic Significance and Societal Importance of the Research Achievements

人間は移動や行動の指示を出す時に「玄関まで行って」「キッチンを掃除しておいて」などという言語的表現を自然と用いる.しかし,従来のロボットは場所に関する知識を客観的な座標系で管理しており,このような意味表現を持つわけではない.そこで,本研究ではロボットが言語的な知識で地図を学習し,表現し,そのような知識を用いて人間がロボットのナビゲーションを行える手法の研究を行った.具体的な成果としては語彙獲得と地図学習を融合的に行う手法や,言語的知識に基づく確率的な経路計画手法を開発することができた.

Report

(4 results)
  • 2018 Annual Research Report   Final Research Report ( PDF )
  • 2017 Research-status Report
  • 2016 Research-status Report
  • Research Products

    (14 results)

All 2019 2018 2017 2016 Other

All Presentation (11 results) (of which Int'l Joint Research: 3 results,  Invited: 2 results) Remarks (3 results)

  • [Presentation] ユーザとの言語コミュニケーションに基づく環境に適応的な生活支援ロボット2019

    • Author(s)
      田渕義基,萩原良信
    • Organizer
      第9回インテリジェントホームロボティクス研究会
    • Related Report
      2018 Annual Research Report
    • Invited
  • [Presentation] マルチモーダルカテゴリ形成とSLAMの統合モデルによるオンライン学習と経路計画2018

    • Author(s)
      谷口彰,萩原良信,谷口忠大,稲邑哲也
    • Organizer
      第21回情報論的学習理論ワークショップ (IBIS2018)
    • Related Report
      2018 Annual Research Report
  • [Presentation] 場所概念と地図と言語モデルのスケーラブルなオンライン学習2018

    • Author(s)
      谷口 彰, 萩原 良信, 谷口 忠大, 稲邑 哲也
    • Organizer
      第36回 日本ロボット学会 学術講演会
    • Related Report
      2018 Annual Research Report
  • [Presentation] 複数の概念形成モデルの統合によるロボットの家事タスクの実現2018

    • Author(s)
      宮澤 和貴, 岩田 健輔, 勝又 勇貴, 黄瀬 輝, 田渕 義基, 水地 良明, 坂戸 達陽, 相良 陸成, 谷口 忠大, 長井 隆行
    • Organizer
      第36回 日本ロボット学会 学術講演会
    • Related Report
      2018 Annual Research Report
  • [Presentation] 未来社会における人間と機械の実世界コミュニケーションの実現に向けて2018

    • Author(s)
      谷口忠大
    • Organizer
      SICE 2018 未来創造イベント  特別ワークショップ 『SICEの輪で未来を創れ!』
    • Related Report
      2018 Annual Research Report
    • Invited
  • [Presentation] Learning Relationships Between Objects and Places by Multimodal Spatial Concept with Bag of Objects2017

    • Author(s)
      Isobe S., Taniguchi A., Hagiwara Y., Taniguchi T
    • Organizer
      International Conference on Social Robotics
    • Related Report
      2017 Research-status Report
    • Int'l Joint Research
  • [Presentation] 物体の共起性に基づいたマルチモーダル場所領域学習による場所の理解2017

    • Author(s)
      磯部匠汰,谷口彰,萩原良信,谷口忠大
    • Organizer
      第31回人工知能学会全国大会(JSAI2017)
    • Related Report
      2017 Research-status Report
  • [Presentation] 移動ロボットによる場所概念に基づく指示領域探索2016

    • Author(s)
      福井隆士,石伏智,萩原良信,谷口忠大
    • Organizer
      第34回 日本ロボット学会学術講演会
    • Place of Presentation
      山形大学(山形県・山形市)
    • Year and Date
      2016-09-09
    • Related Report
      2016 Research-status Report
  • [Presentation] Place Concept Learning by hMLDA Based on Position and Vision Information2016

    • Author(s)
      Yoshinobu Hagiwara, Masakazu Inoue, Tadahiro Taniguchi
    • Organizer
      IFAC/IFIP/IFORS/IEA Symposium on Analysis, Design, and Evaluation of Human-Machine Systems
    • Place of Presentation
      ザ ソウドウ 東山 京都(京都府・京都市)
    • Year and Date
      2016-08-31
    • Related Report
      2016 Research-status Report
    • Int'l Joint Research
  • [Presentation] Simultaneous Estimation of Self-position and Word from Noisy Utterances and Sensory Information2016

    • Author(s)
      Akira Taniguchi, Tadahiro Taniguchi, Tetsunari Inamura
    • Organizer
      IFAC/IFIP/IFORS/IEA Symposium on Analysis, Design, and Evaluation of Human-Machine Systems
    • Place of Presentation
      ザ ソウドウ 東山 京都(京都府・京都市)
    • Year and Date
      2016-08-31
    • Related Report
      2016 Research-status Report
    • Int'l Joint Research
  • [Presentation] 移動ロボットによる画像特徴と場所を表す語彙を統合した教師なし場所概念獲得2016

    • Author(s)
      福井隆士,石伏智,萩原良信,谷口忠大,高野敏明
    • Organizer
      第60回システム制御情報学会研究発表講演会 (SCI'16)
    • Place of Presentation
      京都テルサ(京都府・京都市)
    • Year and Date
      2016-05-27
    • Related Report
      2016 Research-status Report
  • [Remarks] 立命館大学 創発システム研究室 研究業績

    • URL

      http://www.em.ci.ritsumei.ac.jp/jp/publications/

    • Related Report
      2018 Annual Research Report
  • [Remarks] 創発システム研究室 研究業績

    • URL

      http://www.em.ci.ritsumei.ac.jp/jp/publications/

    • Related Report
      2017 Research-status Report
  • [Remarks] 創発システム研究室 研究業績

    • URL

      http://www.em.ci.ritsumei.ac.jp/publication

    • Related Report
      2016 Research-status Report

URL: 

Published: 2016-04-21   Modified: 2020-03-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi