• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2013 Fiscal Year Research-status Report

スパース結合再帰神経回路モデルを用いたロボットによる道具身体化モデルの構築

Research Project

Project/Area Number 25730159
Research Category

Grant-in-Aid for Young Scientists (B)

Research InstitutionKyoto University

Principal Investigator

西出 俊  京都大学, 白眉センター, 助教 (30613400)

Project Period (FY) 2013-04-01 – 2016-03-31
Keywords認知発達ロボティクス / 再帰神経回路モデル
Research Abstract

本研究ではスパースな結合を持つ神経回路モデルを用いたロボットの道具使用動作の獲得を目標としている.モデルとして再帰結合神経回路モデルの一種であるMultiple Timescales Recurrent Neural Network (MTRNN)を用いる.本年度は予備実験としてMTRNNの結合をランダムに切断することでスパースな結合を持つモデルを構築し,学習性能を調べた.
本年度はMTRNNで学習するデータとして人間の行動データを用いた.モデルは様々な初期条件で学習し,各条件においてランダムにニューロン間の結合を切断することでスパースなモデルを構築し,学習系列と未学習系列の認識性能をクロスバリデーションで評価した.結合を切断する際,全結合のモデルに対してα%だけ結合を切断し,最も認識性能がよくなるα(最適α)を求めた.実験の結果,モデルのニューロン数を多くするほど最適αは下がることが分かった.モデルの初期構成と最適αとの関係性,学習データの複雑さと最適αの関係性については特に見られなかった.
本研究ではこの結果をロボットの行動学習に応用する予定である.本予備実験の結果から,スパースな結合による多少の学習性能向上は期待できるが,本研究の当初の目標の一つであった,ニューロン間の結合を自動的に切断・接続することは学習性能の向上にそれほど貢献しないことが分かった.今後は本研究の結果をロボットの行動学習,具体的には道具使用動作の学習に適用していきたい.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

初年度では本研究の予備実験として,人間の行動データ学習・認識におけるスパースな結合を持つ再帰神経回路モデルの有効性を確認した.研究計画における初年度の計画であったランダムに結合を切断したモデルにおける学習・認識性能向上は達成できたが,次年度行う予定であった結合を自動的に切断・接続することの有効性を示すような結果は得られなかった.
そこで,モデル内のニューロン間を自動的に切断・接続する計画を変更し,初年度行ったのと同様,ランダムに結合を切断する手法を用い,ロボットの道具使用動作へと応用する.

Strategy for Future Research Activity

初年度の結果を受け,今後はモデル内のニューロン間の結合を自動的に切断・結合するアルゴリズムの開発から変更し,ランダムに結合をスパース化したモデルをロボットの行動認識・生成に応用する.その際,様々なモデルの初期状態で学習を行い,モデル構成と行動認識・生成性能の関係性を調べる.道具使用については,動作の複雑性と評価のし易さの両面で利点があるペンを使った描画行為を対象とする予定である.特に描画模倣に注目し,人間の描画をロボットが模倣するタスクにおいて本モデルの有効性を確認していく.

  • Research Products

    (7 results)

All 2014 2013

All Presentation (7 results) (of which Invited: 1 results)

  • [Presentation] Insertion of Pause in Drawing from Babbling for Robot's Developmental Imitation Learning2014

    • Author(s)
      Shun Nishide, Keita Mochizuki, Hiroshi G. Okuno, Tetsuya Ogata
    • Organizer
      IEEE International Conference on Robotics and Automation
    • Place of Presentation
      香港
    • Year and Date
      20140531-20140605
  • [Presentation] ロボットによる描画運動発達モデルと軌道の重み付き区間認識・学習を利用した精度向上2014

    • Author(s)
      望月 敬太,西出 俊,奥乃 博,尾形 哲也
    • Organizer
      情報処理学会第76回全国大会
    • Place of Presentation
      東京
    • Year and Date
      20140311-20140313
  • [Presentation] Learning and Association of Synaesthesia Phenomenon using Deep Neural Networks2013

    • Author(s)
      Yuki Yamaguchi, Kuniaki Noda, Shun Nishide, HIroshi G. Okuno, Tetsuya Ogata
    • Organizer
      IEEE/SICE International Symposium on System Integration
    • Place of Presentation
      神戸
    • Year and Date
      20131215-20131217
  • [Presentation] Object Feature Extraction and Tool Using for Robots with Recurrent Neural Network Model2013

    • Author(s)
      Shun Nishide
    • Organizer
      IEEE/RSJ International Conference on Intelligent Robots and Systems, Workshop on Cognitive Neuroscience Robotics
    • Place of Presentation
      東京
    • Year and Date
      20131107-20131107
    • Invited
  • [Presentation] Developmental Human-Robot Imitation Learning of Drawing with a Neuro Dynamical System2013

    • Author(s)
      Keita Mochizuki, Shun Nishide, Hiroshi G. Okuno, Tetsuya Ogata
    • Organizer
      IEEE International Conference on Systems, Man, and Cybernetics
    • Place of Presentation
      マンチェスター
    • Year and Date
      20131013-20131016
  • [Presentation] スパース再帰神経回路モデルによる人物の行動学習2013

    • Author(s)
      西出 俊,奥乃 博,尾形 哲也
    • Organizer
      日本ロボット学会第31回学術講演会
    • Place of Presentation
      東京
    • Year and Date
      20130904-20130906
  • [Presentation] 停止動作を活用した描画運動におけるロボットの発達的模倣学習2013

    • Author(s)
      望月 敬太,西出 俊,奥乃 博,尾形 哲也
    • Organizer
      日本ロボット学会第31回学術講演会
    • Place of Presentation
      東京
    • Year and Date
      20130904-20130906

URL: 

Published: 2015-05-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi