Project/Area Number |
22K21275
|
Research Category |
Grant-in-Aid for Research Activity Start-up
|
Allocation Type | Multi-year Fund |
Review Section |
1001:Information science, computer engineering, and related fields
|
Research Institution | Kyoto University |
Principal Investigator |
八木 聡明 京都大学, 情報学研究科, 助教 (40966438)
|
Project Period (FY) |
2022-08-31 – 2024-03-31
|
Project Status |
Granted (Fiscal Year 2022)
|
Budget Amount *help |
¥2,860,000 (Direct Cost: ¥2,200,000、Indirect Cost: ¥660,000)
Fiscal Year 2023: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Fiscal Year 2022: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
|
Keywords | モーションリターゲット / ヒューマノイドロボット / ロボティクス / ヒューマノイドロボットインタラクション / ヒューマノイド / 知能ロボット / ヒューマン・ロボットインタラクション / 動作生成 |
Outline of Research at the Start |
全身に関節を持つヒューマノイドの人らしい動作生成は専門的な知識が必要かつ時間とコストのかかる作業である.本研究では学習データのペア付けを必要とせずに人の動作を再現良く骨格の大きさや関節数の異なるヒューマノイドの動作に移植するヒューマノイドコントローラーの実現を目指す.本コントローラーは,ユーザーがカメラの前で身振り手振りして動作を入力し,実機ヒューマノイドの動作干渉と関節可動範囲の制約を満たす再現性の高い人らしい動作が出力される.これによって,ロボットの知識を持たないユーザーでもヒューマノイドの人らしさの表現力を活用して,他者と協調するような作業をスムーズに実現することができる.
|
Outline of Annual Research Achievements |
本研究は動作生成が難しいヒューマノイドを一般ユーザーでも人らしく動作させられるコントローラーの実現である.提案手法では,人とヒューマノイドで共通する骨格(原始骨格)に対して潜在動作表現を獲得させるモーションリターゲットをオンラインで実施することで,誰もがヒューマノイドを自在に操作し,豊かな表現力を持ったヒューマノイドの社会活用へ繋がる技術を目指す. これまでに,人と骨格の大きさや関節数が異なるヒューマノイドでも四肢にある関節を削減して骨格を抽象化し,人と一致した原始骨格で動作表現を獲得するニューラルネットワークを構築した.本ネットワークでは,人およびヒューマノイドの時系列の動作角度情報を多段CNNオートエンコーダで畳み込み・プーリング処理を繰り返すことで少ない関節数の骨格に動作表現し直され,最終的には両者で共通した原始骨格の潜在動作表現を獲得する.ロボット側のネットワークでは関節の可動方向や範囲などロボット固有の制約条件を考慮した上で,元となる人の動作を再現性良くリターゲットする. 動作入力には一般のユーザーでも簡単にコントローラーを使えるように,Bluetoothを利用したウェアラブルデバイスによるモーションキャプチャーシステムを利用した.これによって,従来のモーションキャプチャーシステムのような大掛かり機材を設置せずとも,操作者が簡素なデバイスを四肢に付けて所望の動作を行うことで,リアルタイムにヒューマノイドを動作させることが期待される.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
本年度は,人と骨格の大きさや関節数が異なるヒューマノイドでも四肢にある関節を削減して骨格を抽象化し,人と一致した原始骨格で動作表現を獲得するニューラルネットワークを構築した.構築したネットワークで元となる人の動作を再現性良くヒューマノイドにリターゲットできることを確認した.特に,人側の教師データには,豊かな動作表現を獲得させるために人のアニメーション動作を取り入れ,ロボット側の教師データには,人がロボットに手本となる動作を実際に教示することでネットワークが学習するのに十分な動作データを準備した.また,ネットワークに関節の可動方向や範囲などロボット固有の制約条件を考慮する機能を実装している. コントローラーとしての,人の動作入力には一般のユーザーでも簡単に扱えるように,Bluetoothを利用したウェアラブルデバイスによるモーションキャプチャーシステムを利用した.また,取得した動作データをネットワークに入力可能なようにデータを変換する機能を実装した.
|
Strategy for Future Research Activity |
これまでに開発したモーションリターゲットシステムと動作入力のシステムを統合して,リアルタイムでヒューマノイドをコントロール可能なネットワークを実現する.その後,一般ユーザーにヒューマノイドを動作させてもらうことで,ヒューマノイドコントローラーとしての性能を評価する.
|