• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2020 Fiscal Year Annual Research Report

身体性共有と神経情報処理マッピングによる臨機応変な物体操作実現法

Research Project

Project/Area Number 18H04108
Research InstitutionThe University of Tokyo

Principal Investigator

國吉 康夫  東京大学, 大学院情報理工学系研究科, 教授 (10333444)

Co-Investigator(Kenkyū-buntansha) 長久保 晶彦  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (00357617)
Project Period (FY) 2018-04-01 – 2021-03-31
Keywordsロボティクス / 身体性 / 遠隔操作 / 深層模倣学習 / 神経情報計測
Outline of Annual Research Achievements

深層学習を用いた視覚処理の発展により、ロボットの物体操作スキルの向上が見込まれる. 特に実世界での探索的試行錯誤が不要な深層模倣学習は、報酬設計が困難な強化学習に比べ実世界ロボット応用において有望である.
本研究の目的は,ロボットと運動学パラメータを共有するマスターシステムを介した遠隔操縦の際に得られるステレオカメラ,関節角度・速度,エンドエフェクタにかかる力情報を同時計測し,かつ,人の物体操作中の意図情報を生体情報から計測して,その情報を活用することでロボットの物体操作スキルの向上を目指すものである.検討の結果,本プロジェクトでは視線情報から人の動作意図に関する情報を得ることとした.
本年度は,人の視線情報を活用した深層模倣学習を実現した.視線情報に関しては,従来視線位置の予測を目的とすることが多かった.ロボットの模倣学習において,視線情報は,動作に必要な情報を保持し,その時点で不要な情報を削除するために利用すべきという観点から,ロボット画像から視線位置の時間変化を予測するのではなく,ありえる視線位置の確率分布を算出することにした.これによってタスクにとって重要な画像情報を複数箇所同時に抽出することができ,複雑な視線の時間変化に対してロバストになる.獲得した視線の位置情報から画像をクリッピングすることで注視領域の画像を得,この情報からロボットの運動を生成する深層模倣学習を実現した.具体的には,複数物体が存在する環境でのマニピュレーションにおいて,不要情報を削除することで格段にロバストに動作実現可能であることを示した.また,高解像度注視領域による精密動作と低解像度周辺視領域を統合することで,糸通しなどの精密動作の実現をした.さらに,行為の分節化に関する実験も行った.

Research Progress Status

令和2年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和2年度が最終年度であるため、記入しない。

  • Research Products

    (8 results)

All 2021 2020 Other

All Journal Article (3 results) (of which Peer Reviewed: 3 results,  Open Access: 1 results) Presentation (4 results) (of which Int'l Joint Research: 3 results) Remarks (1 results)

  • [Journal Article] メカニカルグローブによるロボットハンドデザインの第三者評価2021

    • Author(s)
      金井嵩幸, 大村 吉幸, 長久保 晶彦, 國吉 康夫
    • Journal Title

      日本ロボット学会誌

      Volume: 39 Pages: -

    • Peer Reviewed
  • [Journal Article] Gaze-Based Dual Resolution Deep Imitation Learning for High-Precision Dexterous Robot Manipulation2021

    • Author(s)
      Kim Heecheol、Ohmura Yoshiyuki、Kuniyoshi Yasuo
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 6 Pages: 1630~1637

    • DOI

      10.1109/LRA.2021.3059619

    • Peer Reviewed / Open Access
  • [Journal Article] Using Human Gaze to Improve Robustness Against Irrelevant Objects in Robot Manipulation Tasks2020

    • Author(s)
      Kim Heecheol、Ohmura Yoshiyuki、Kuniyoshi Yasuo
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 5 Pages: 4415~4422

    • DOI

      10.1109/LRA.2020.2998410

    • Peer Reviewed
  • [Presentation] Transformer-based deep imitation learning for dual-arm robot manipulation2021

    • Author(s)
      Heecheol Kim, Yoshiyuki Ohmura, Yasuo Kuniyoshi
    • Organizer
      2021 IEEE/RSJ International Conference on Intelligent Robots and Systems
    • Int'l Joint Research
  • [Presentation] Unsupervised temporal segmentation using models that discriminate between demonstrations and unintentional actions2021

    • Author(s)
      Takayuki Komatsu, Yoshiyuki Ohmura, and Yasuo Kuniyoshi
    • Organizer
      2021 IEEE/RSJ International Conference on Intelligent Robots and Systems
    • Int'l Joint Research
  • [Presentation] Unsupervised Learning of shape-invariant Lie group transformer by embedding ordinary differential equation2021

    • Author(s)
      Takumi Takada, Yoshiyuki Ohmura, and Yasuo Kuniyoshi
    • Organizer
      2021 IEEE International Conference on Development and Learning
    • Int'l Joint Research
  • [Presentation] Learning to grasp multiple objects with a robot hand using tactile information2021

    • Author(s)
      Kento Sekiya, Yoshiyuki Ohmura, Yasuo Kuniyoshi
    • Organizer
      第26回ロボティクスシンポジア
  • [Remarks] 國吉新山研究室ホームページ

    • URL

      http://www.isi.imi.i.u-tokyo.ac.jp/

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi