Project/Area Number |
18J14272
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Research Field |
Intelligent mechanics/Mechanical systems
|
Research Institution | Saitama University |
Principal Investigator |
沓澤 京 埼玉大学, 理工学研究科, 特別研究員(DC2)
|
Project Period (FY) |
2018-04-25 – 2020-03-31
|
Project Status |
Completed (Fiscal Year 2019)
|
Budget Amount *help |
¥1,500,000 (Direct Cost: ¥1,500,000)
Fiscal Year 2019: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2018: ¥800,000 (Direct Cost: ¥800,000)
|
Keywords | ロボット / 深層学習 / 動作生成 / ニューラルネットワーク / sequence-to-sequenceモデル / 表現学習 |
Outline of Annual Research Achievements |
本研究はsequence-to-sequence(seq2seq)モデルと呼ばれるニューラルネットワークを用いて,複数動作の臨機応変な組み合わせによる動作生成を目指すものであった。本年度においては,単一の動作を学習したseq2seqモデルを使って,モデルが獲得した動作の低次元表現(潜在表現)を利用した動作生成の研究をおこなった。 まずは昨年度に引き続いて,訓練済seq2seqモデルの潜在表現を与えられた目的関数で最適化する研究に取り組んだ。seq2seqモデルは動力学的制約にあわせた軌道変形を学習するが,その後は訓練時とは異なる目的関数のもとで動作生成する必要がある。本研究では誤差逆伝播法に基づいた手法を提案し,軌道の終端位置の指定や制限速度の設定といった訓練時に与えていない目標への動作生成をモデルの再学習なしに実現した。 続いて,人間からの教示動作でseq2seqモデルを訓練する研究に取り組んだ。具体事例として,画像情報を基に動作生成するタスクを扱った。実環境では画像の撮影条件が容易に変化するので,少数の教示データで学習することが求められる。本研究では,seq2seqモデルに教示動作を学習させた後,エンコーダ部分を新たなモデルに取り換えて再学習する手法を提案した。本手法は動作の潜在表現という撮影条件に不変な表現を利用することで,新規な状況への再適応を可能とする。実験によってカメラ位置などが大きく変化しても少数の教示動作から安定的に動作の再学習ができることを確認した。 最終的に本研究によって,不連続性をもつ物理モデルや教示動作などの様々な方法によって動作学習が可能となり,さらに潜在表現を使って新たな目的関数やデータに対して動作の再適応・再学習が可能となる。これを既存技術と組み合わせることで,様々な動作を状況に応じて生成することが可能になると期待できる。
|
Research Progress Status |
令和元年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和元年度が最終年度であるため、記入しない。
|