研究課題/領域番号 |
20J21255
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 早稲田大学 |
研究代表者 |
斎藤 菜美子 早稲田大学, 理工学術院, 特別研究員(PD)
|
研究期間 (年度) |
2020-04-24 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
3,300千円 (直接経費: 3,300千円)
2022年度: 1,000千円 (直接経費: 1,000千円)
2021年度: 1,100千円 (直接経費: 1,100千円)
2020年度: 1,200千円 (直接経費: 1,200千円)
|
キーワード | マニピュレーション / 深層学習 / マルチモーダル学習 / 道具使用 / ヒューマノイドロボット / 認識 |
研究開始時の研究の概要 |
ロボットに身の回りの道具を使わせ,人の生活環境における仕事の支援を可能とする制御システムを提案する.本研究では,道具使用の例として特に料理タスクを取り上げる.用いるべき調理道具とその使いこなし方は,仕事の目的と,操作対象である食材の形や大きさ等の外見的特徴および粘度や重さ等の内面的特徴に応じて異なる.特に食材の外見的・内面的特徴は,ロボットの行動や時間経過によって常に変化してゆく.物体の特徴の視覚・触覚変化を常に知覚して,行動をリアルタイムで再計画し,道具を選択して使いこなすことを実現する深層学習モデルを構築する
|
研究実績の概要 |
ロボットの視覚・触覚・力覚を効果的に用い、対象物体の形状に合わせた動作を生成するための深層予測学習モデルを提案した。提案するモデルは、視覚情報から物体形状の特徴量を予測するモジュールと、力覚と触覚を用いて動作を生成するための再帰型深層予測学習モジュールから構成される。まず初めに視覚により大まかな物体形状を捉えて特徴量を算出し、その特徴量を再帰型学習モジュールの潜在空間に入力した後、力覚と触覚を使って詳細に凹凸を知覚しながら動作生成をさせる。評価実験では物体の表面を拭き取る掃除タスクをロボットに行わせ、視認できない、物体の裏面やロボット本体により隠れた場所でも拭き動作を達成できることを示した。この成果は国際会議IEEE ICRA 2022にて研究発表を行い、Travel Awardを受賞し、高く評価された。 続いて英国エジンバラ大学に4月から9月の間滞在して共同研究をし、長期マニピュレーションタスク実現のための深層学習モデルを提案した。長期のタスクを、短期の目標であるサブゴールに切り分けて、現在の状態と最終目標の差分を元に次のサブゴールを順に予測し、そのサブゴールを一つ一つ達成するための動作計画をさせる。ロボットにピザを組み立て、ナイフかピザカッターを選択させて切る作業を実現させ、未学習の物体と道具の配置でも正しく作業を行えることを示した。ロボットのセットアップ・実験・論文執筆はエジンバラ大学の研究者と共に行い、技術交流・意見交換をした。論文はIEEE ICRA2023にてacceptされており、2023年5月の会議にて発表予定である。
|
現在までの達成度 (段落) |
令和4年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
令和4年度が最終年度であるため、記入しない。
|