Project/Area Number |
23K11277
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61050:Intelligent robotics-related
|
Research Institution | Kyoto Tachibana University |
Principal Investigator |
西出 俊 京都橘大学, 工学部, 准教授 (30613400)
|
Project Period (FY) |
2023-04-01 – 2027-03-31
|
Project Status |
Granted (Fiscal Year 2023)
|
Budget Amount *help |
¥4,550,000 (Direct Cost: ¥3,500,000、Indirect Cost: ¥1,050,000)
Fiscal Year 2026: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
Fiscal Year 2025: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2024: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
Fiscal Year 2023: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
|
Keywords | 知能ロボティクス / 深層学習 |
Outline of Research at the Start |
本研究では人間の親子のインタラクションにおいて重要であるといわれているモーショニーズ現象をもとにロボットの発達的行動学習機構を構築することを目的としている.特にロボットと人間の描画模倣学習に着目しており,教示者である人間がロボットの学習段階に合わせて教示動作を変化させることで,階層的な情報の学習が可能なMTRNNモデル内に段階的に動作学習を行う.
|
Outline of Annual Research Achievements |
本研究ではロボットの描画発達学習において、人間の教示動作が与える学習効果を解析することを目的としている。学習モデルとして深層学習モデルであるMultiple Timescale Recurrent Neural Network (MTRNN)を用い、時定数の異なる複数のノード群に異なるレベルの描画データを学習する。ロボットの学習状態に応じて人間の教示動作を変化させ、効率的な描画学習を実現する。また、描画動作以外の動作においても提案手法の有効性を検証する。 本年度は初年度であるため、主に実験環境の構築を行った。具体的には用いるモデルの構築とロボットを用いた実験環境の構築である。MTRNNの構築についてはJavaを用いたプログラムの開発を行った。実験環境の構築についてはアームロボットを用い、描画動作用の手先の平面移動動作をシミュレーション上で生成した。実環境においてロボットの前に液晶タブレットを設置し、実験環境を構築した。構築した環境において、生成した動作を用い、ランダム動作(バブリング動作)を用いて描画データが取得できることを確認した。 本年度開発したシステムは研究全体の基礎となる。取得したバブリング動作を用いることでMTRNNの初期の学習を行う。学習したモデルを用い、人間の描画動作を模倣することで基本図形の描画動作を獲得する。その後、より複雑な動作に対する描画模倣を行う。その過程でロボットの学習過程に合わせて人間の描画動作を変化することで、提示動作に対するロボットの学習効率の関係性について解析する。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
初年度は主にモデルの構築に重点を置いて研究を進めてきた。MTRNNのモデルの構築し、サンプルデータを用いたモデルのプログラムの動作確認を行った。ロボットについてもアームロボットの構成や実験設定などを検討し、液晶タブレットを用いたデータ取得の準備も進めている。サンプルデータの取得はできており、実験環境も整えることができた。
|
Strategy for Future Research Activity |
これまでの研究で実験環境の準備が整った。今後は主に描画データの取得とモデルの学習、描画動作の生成を行っていく予定である。描画データについてはタネ動作となるバブリング動作を行い、その過程におけるロボットの関節角データと対応する液晶タブレットで検出されるペン先データを取得する。これをMTRNNで学習することで各動作に対応する潜在変数を学習する。学習したMTRNNを用い、人間が描画する基本動作を模倣することでロボットの描画模倣システムを構築する。
|