• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

ニューラルネットワークを用いた実環境共存型ロボットのための言語と行動の統合学習

Research Project

Project/Area Number 17J10580
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeSingle-year Grants
Section国内
Research Field Intelligent robotics
Research InstitutionWaseda University

Principal Investigator

山田 竜郎  早稲田大学, 基幹理工学研究科, 特別研究員(DC2)

Project Period (FY) 2017-04-26 – 2019-03-31
Project Status Completed (Fiscal Year 2018)
Budget Amount *help
¥1,900,000 (Direct Cost: ¥1,900,000)
Fiscal Year 2018: ¥900,000 (Direct Cost: ¥900,000)
Fiscal Year 2017: ¥1,000,000 (Direct Cost: ¥1,000,000)
Keywordsニューラルネットワーク / 深層学習 / sequence to sequence学習 / 記号接地問題 / recurrent neural network / 言語ロボティクス
Outline of Annual Research Achievements

本研究は,ロボットが人間の言語指示を理解し作業を行うための,言語と行動の関係性を学習するモデルの構築を目的としている.
前年度は,翻訳や対話システムに用いられるsequence to sequence(seq2seq)学習の手法を応用し,言語シーケンスから行動シーケンスへ変換するモデルを提案したが,二点課題を残した.一つ目は,視覚特徴量の抽出アルゴリズムを人手で設計していたことである.言語の意味に対応する視覚特徴の形式は多様であるため,これ自体学習から得られることが望ましい.二つ目は,変換が言語から行動への一方向のみであったことである.逆方向,すなわち,ロボットが自身の生成した行動を言語的に説明できる能力も,ロボットの挙動の解釈可能性の観点から鑑みて必要である.
そこでまず一つ目の課題を解決するために,視覚特徴抽出モジュールを作り込みのものから学習可能なオートエンコーダネットワークに置き換えた.オートエンコーダは,画像のデータセットから,そのデータセットをうまく表現する特徴量を自動で抽出することを学習するため,恣意的な特徴量設計を回避できる.二つ目の課題に対しては,二つのseq2seqモデルを組み合わせ,言語のベクトル表現と,それに対応する行動のベクトル表現が,互いに近くなる拘束をかけて学習することで,得られた共有表現を通して言語シーケンスと行動シーケンスを双方向に変換することを提案した.
このように拡張したモデルの有効性を実ロボットを用いた実験によって評価した.3単語からなる指示説明文と10関節からなる行動シーケンス(およびカメラ画像)のペアのデータセットを作り学習を行なった.学習後のモデルはその時の視覚状況に応じて,言語指示から行動シーケンスへの変換,および行動シーケンスから説明文への変換をおこなうことができた.特に,未学習の状況でもこれらを実現する汎化能力を示した.

Research Progress Status

平成30年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

平成30年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2018 Annual Research Report
  • 2017 Annual Research Report
  • Research Products

    (6 results)

All 2018 2017 Other

All Int'l Joint Research (1 results) Journal Article (2 results) (of which Peer Reviewed: 2 results,  Open Access: 2 results) Presentation (3 results) (of which Int'l Joint Research: 2 results)

  • [Int'l Joint Research] プリマス大学(英国)

    • Related Report
      2017 Annual Research Report
  • [Journal Article] Paired Recurrent Autoencoders for Bidirectional Translation Between Robot Actions and Linguistic Descriptions2018

    • Author(s)
      Yamada Tatsuro, Matsunaga Hiroyuki, Ogata Tetsuya
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 3 Issue: 4 Pages: 3441-3448

    • DOI

      10.1109/lra.2018.2852838

    • Related Report
      2018 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Representation Learning of Logic Words by an RNN: From Word Sequences to Robot Actions2017

    • Author(s)
      Tatsuro Yamada, Shingo Murata, Hiroaki Arie, Tetsuya Ogata
    • Journal Title

      Frontiers in Neurorobotics

      Volume: Vol. 11, Article 70 Pages: 1-18

    • DOI

      10.3389/fnbot.2017.00070

    • Related Report
      2017 Annual Research Report
    • Peer Reviewed / Open Access
  • [Presentation] Paired Recurrent Autoencoders for Bidirectional Translation Between Robot Actions and Linguistic Descriptions2018

    • Author(s)
      Yamada Tatsuro, Matsunaga Hiroyuki, Ogata Tetsuya
    • Organizer
      018 IEEE/RAS International Conference on Intelligent Robots and Systems (IROS 2018)
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 共有表現の学習によるロボット動作と指示説明文の双方向変換2018

    • Author(s)
      山田竜郎,松永寛之,尾形哲也
    • Organizer
      第32回人工知能学会全国大会
    • Related Report
      2018 Annual Research Report 2017 Annual Research Report
  • [Presentation] Representation Learning of Logical Words via Seq2seq Learning from Linguistic Instructions to Robot Actions2017

    • Author(s)
      Yamada Tatsuro、Murata Shingo、Arie Hiroaki、Ogata Tetsuya
    • Organizer
      Workshop on Representation Learning for Human and Robot Cognition, The 5th International Conference on Human Agent Interaction (HAI 2017)
    • Related Report
      2017 Annual Research Report
    • Int'l Joint Research

URL: 

Published: 2017-05-25   Modified: 2024-03-26  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi