• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2017 Fiscal Year Annual Research Report

Development of Robot Control Interface based Mutual Learning of Users and Machines.

Research Project

Project/Area Number 15K05884
Research InstitutionHokkaido University

Principal Investigator

山本 雅人  北海道大学, 情報科学研究科, 教授 (40292057)

Co-Investigator(Kenkyū-buntansha) 飯塚 博幸  北海道大学, 情報科学研究科, 准教授 (30396832)
Project Period (FY) 2015-04-01 – 2018-03-31
Keywordsインタフェース / 相互学習 / ニューラルネットワーク / リカレント / ロボット操縦 / つもり制御 / LSTM
Outline of Annual Research Achievements

本研究は,ユーザの身体動作の情報などの時系列情報から意図を抽出することで,ユーザの意図通りに機械を操作可能とするインタフェースの開発を目指している.特に,多自由度ロボットの操作を対象とし,あらかじめ決められたコマンドを覚えることなく,動作を繰り返す中で自ら学習し,それらの入力と動作の関係から機械も学習することでユーザが直感的に操作しやすいインタフェースを構築する.

2年目までの研究で,リカレント型ニューラルネットワーク,特にLong short-term memory(LSTM)が,時系列のデータを扱うのに適していることが明らかになった.特に,ユーザの手を対象とした動作情報を時系列で扱うことで,ユーザの意図が動きの中に反映されることが明らかとなっていた.

最終年度では,身体動作として情報の取得が容易な手の動作に注目したインタフェースの構築を行った.手の情報の取得にはLeap Motion を使用し,得られる手の動作情報をLSTMへの入力としロボット動作との対応付けを行う.一般に,手の動作と制御対象の動作の対応関係は未知であるため,つもり制御を利用することとした.つもり制御は,ロボットの動作をあらかじめ知っているユーザが,ロボットの動作に合わせてあたかも自らがロボットを操っているかのように入力インタフェースである操縦桿で直観的な操作を行う.このときの操縦桿への入力と実際のロボットの動作の対応関係から学習を行うことで,ロボットを意図通りに操ることができる手法である.このつもり制御を応用して,手の動作をLSTMへの入力を介してクモ型ロボットの動作と対応付けを行った.学習の結果,構築したインタフェースがどれほどの性能を有しているか,ロボットの元のインタフェースと比較した結果,ユーザはコマンドなどを覚えることなく直感的な入力のみで,元のインタフェースと同等程度に操作可能であることを示した.

  • Research Products

    (9 results)

All 2018 2017 Other

All Journal Article (7 results) (of which Int'l Joint Research: 4 results,  Peer Reviewed: 4 results,  Open Access: 3 results) Remarks (2 results)

  • [Journal Article] LSTMを用いた身体動作に基づくつもりインタフェース2018

    • Author(s)
      中西 啓太,飯塚 博幸, 山本 雅人
    • Journal Title

      第17回複雑系マイクロシンポジウム講演論文集

      Volume: 17 Pages: 48~52

  • [Journal Article] LSTMによるつもり動作の抽出 L2018

    • Author(s)
      中西 啓太,飯塚 博幸, 山本 雅人
    • Journal Title

      ロボティクス・メカトロニクス講演会2018 (ROBOMECH2018) 講演論文集

      Volume: 2018 Pages: 1~4

  • [Journal Article] Cognitive map self-organization from subjective visuomotor experiences in a hierarchical recurrent neural network2017

    • Author(s)
      Noguchi Wataru、Iizuka Hiroyuki、Yamamoto Masahito
    • Journal Title

      Adaptive Behavior

      Volume: 25 Pages: 129~146

    • DOI

      10.1177/1059712317711487

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] The development of spatial recognition and navigation in hierarchical recurrent neural network with convolution processing2017

    • Author(s)
      Noguchi Wataru、Iizuka Hiroyuki、Yamamoto Masahito
    • Journal Title

      Proceedings of the 14th European Conference on Artificial Life 2017

      Volume: 14 Pages: 324~331

    • DOI

      10.7551/ecal_a_055

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Robustness of mobile robot localization using recurrent convolutional neural network2017

    • Author(s)
      Suginaka Izuho、Iizuka Hiroyuki、Yamamoto Masahito
    • Journal Title

      Intelligent and Evolutionary Systems (IES)

      Volume: 21 Pages: 95~100

    • DOI

      10.1109/IESYS.2017.8233568

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Recurrent Convolutional Neural Networkに基づく一人称視点画像からのロボットの自己位置推定2017

    • Author(s)
      杉中 出帆, 飯塚 博幸, 山本 雅人
    • Journal Title

      ロボティクス・メカトロニクス講演会2017 (ROBOMECH2017) 講演論文集

      Volume: 2017 Pages: 1~4

  • [Journal Article] Robustness of Mobile Robot Localization using Recurrent Convolutional Neural Network2017

    • Author(s)
      Izuho Suginaka, Hiroyuki Iizuka, Masahito Yamamoto
    • Journal Title

      Proceedings of the 1st International Conference International Conference on Digital Practice for Science, Technology, Education, and Management

      Volume: 1 Pages: B3-3

    • Peer Reviewed / Int'l Joint Research
  • [Remarks] ユーザの意図を読み取るインタフェースの開発

    • URL

      https://seeds.mcip.hokudai.ac.jp/jp/view/220/

  • [Remarks] 誰でも使えるインタフェース

    • URL

      http://autonomous.jp/%E8%AA%B0%E3%81%A7%E3%82%82%E4%BD%BF%E3%81%88%E3%82%8B%E3%82%A4%E3%83%B3%E3%82%BF%E3%83%95%E3%82%A7%E3%83%BC%E3%82%B9-3/

URL: 

Published: 2018-12-17  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi