• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

状況認知と問題解決の双方向創発による深層模倣学習の省データ化と高汎化性達成

Research Project

Project/Area Number 22H00528
Research InstitutionThe University of Tokyo

Principal Investigator

國吉 康夫  東京大学, 大学院情報理工学系研究科, 教授 (10333444)

Co-Investigator(Kenkyū-buntansha) 長久保 晶彦  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (00357617)
大村 吉幸  東京大学, 大学院情報理工学系研究科, 特任研究員 (10598022)
Project Period (FY) 2022-04-01 – 2025-03-31
Keywords深層模倣学習 / 注視制御 / 物体操作スキル
Outline of Annual Research Achievements

人の器用で臨機応変な物体操作能力をロボットで実現することを目的として、モデル化困難な対象物体の操作を深層模倣学習によって実現する方法論を明らかにすることが本プロジェクトの目的である。
本年度は、遠隔操縦システム、遠隔ロボット、ロボットの視覚情報を提示するためのHMDシステム、人の遠隔操縦時の視線情報の計測を可能とする深層模倣学習プラットフォームを用いて、バナナの皮むきを実現した。バナナは、個体差が大きく、いままで模倣学習で実現されてきたどのタスクよりも、汎化が困難であるタスクとして設定した。注視制御を用いてタスクに重要な特徴を抽出し、素早いフィードバック制御を行うローカル動作と、大雑把にゴール状態に向けた軌道を生成するグローバル動作を組み合わせることで、模倣学習を実現した。
現状のプラットフォームは、外力が加わると安全制御によって止まってしまうという課題があり、力制御やインパクト動作などには不向きである。そこで、ダイナミックドライブモータを用いた低減速比のロボットアームシステムの開発を行った。
また、深層模倣学習では、大量のデータが必要という問題が存在する。そこで、環境を理解するための表現学習に関する研究も行った。我々は、従来の表現学習で用いられる統計的独立性を一般化する独自の手法によって、表現学習の理論構築と実証実験を行った。また、開発した手法を、シミュレーション上のステレオ画像に対して適用し、三次元空間の表現学習に着手した。

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

今年度当初予定していた、食品加工の深層模倣学習としてバナナの皮むきの実現の模倣学習を着手し、予想以上に進展し、模倣学習を達成し、プレスリリースおよび論文の投稿を行った(条件付き受理)。また、力制御可能なロボットシステムについても、開発を行った。開発したロボットアームは、遠隔操縦用と遠隔ロボット用の2台から構成され、遠隔操縦を行ったが、制御システムの遅延が大きく、改善が必要なことが明らかとなった。そこで、来年度、新たに新規の制御システムの開発を行う。表現学習に関しても、新しい理論のために試行錯誤が多くあるが、順調に実験を重ね、当初予定通りに三次元空間の表現学習実験を行うことができた。

Strategy for Future Research Activity

深層模倣学習で過去に達成されたことがないレベルの多様性を含む対象物体に対して物体操作を実現したが、現状のロボットシステムは、タスクごとに異なるニューラルネットワークを学習させている。より汎用性を高めるために、より多くの物体操作を単一のニューラルネットワークで学習させることを計画している。先行研究によると、より多くの対象物体を含むほうが汎化性が高くなることが示されているが、複雑な物体操作を含んでいないという問題点があった。そこで、新たに、大規模模倣データセットを作成する。これは、我々が有する独自の深層模倣プラットフォームが模倣データの取得の効率が極めて高いことから、従来より短時間に高い質のデータを集めることができることが見積もられている。また、力制御ロボットプラットフォームに関しては、制御システムを新規に開発することで、遅延なく遠隔操縦が可能となるようにする。また、バイラテラル制御の有効性の検討なども行う予定である。表現学習に関しては、複数物体の表現学習や時間方向への拡張、実世界応用へ向けた検討、などを行う予定である。

  • Research Products

    (6 results)

All 2023 2022 Other

All Journal Article (2 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (3 results) (of which Int'l Joint Research: 3 results) Remarks (1 results)

  • [Journal Article] Training Robots Without Robots: Deep Imitation Learning for Master-to-Robot Policy Transfer2023

    • Author(s)
      Kim Heecheol、Ohmura Yoshiyuki、Nagakubo Akihiko、Kuniyoshi Yasuo
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 8 Pages: 2906~2913

    • DOI

      10.1109/LRA.2023.3262423

    • Peer Reviewed
  • [Journal Article] Training Robots Without Robots: Deep Imitation Learning for Master-to-Robot Policy Transfer2022

    • Author(s)
      Heecheol Kim, Yoshiyuki Ohmura, Akihiko Nagakubo and Yasuo Kuniyoshi
    • Journal Title

      arXiv preprint

      Volume: - Pages: 2202.09574

    • DOI

      10.48550/arXiv.2202.09574

    • Open Access
  • [Presentation] Using human gaze in few-shot imitation learning for robot manipulation2022

    • Author(s)
      Shogo Hamano, Heecheol Kim, Yoshiyuki Ohmura, Yasuo Kuniyoshi
    • Organizer
      2022 IEEE/RSJ International Conference on Intelligent Robots and Systems
    • Int'l Joint Research
  • [Presentation] Disentangling Patterns and Transformations from One Sequence of Images with Shape-invariant Lie Group Transformer2022

    • Author(s)
      Takumi Takada, Wataru Shimaya, Yoshiyuki Ohmura, Yasuo Kuniyoshi
    • Organizer
      2022 IEEE International Conference on Development and Learning
    • Int'l Joint Research
  • [Presentation] Memory-based gaze prediction in deep imitation learning for robot manipulation2022

    • Author(s)
      Heecheol Kim, Yoshiyuki Ohmura and Yasuo Kuniyoshi
    • Organizer
      2022 IEEE International Conference on Robotics and Automation
    • Int'l Joint Research
  • [Remarks] 國吉中嶋研究室ホームページ

    • URL

      http://www.isi.imi.i.u-tokyo.ac.jp/?lang=ja

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi