研究課題/領域番号 |
18H03313
|
研究種目 |
基盤研究(B)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 立命館大学 |
研究代表者 |
島田 伸敬 立命館大学, 情報理工学部, 教授 (10294034)
|
研究分担者 |
野間 春生 立命館大学, 情報理工学部, 教授 (00374108)
李 周浩 立命館大学, 情報理工学部, 教授 (80366434)
松尾 直志 立命館大学, 情報理工学部, 助教 (80449545)
|
研究期間 (年度) |
2018-04-01 – 2021-03-31
|
研究課題ステータス |
完了 (2021年度)
|
配分額 *注記 |
15,990千円 (直接経費: 12,300千円、間接経費: 3,690千円)
2020年度: 3,510千円 (直接経費: 2,700千円、間接経費: 810千円)
2019年度: 5,330千円 (直接経費: 4,100千円、間接経費: 1,230千円)
2018年度: 7,150千円 (直接経費: 5,500千円、間接経費: 1,650千円)
|
キーワード | 深層学習 / プロセスモデル / 把持パターン想起 / 視触覚統合 / 多指ハンド / 動作生成 / 他指ハンド |
研究成果の概要 |
力触覚と視覚的変形の二つの情報を整合させた統一的なハンドによる物体操作の自動プロセスモデリングの枠組みを機械学習の枠組みによって構築し、(1)時系列観測に基づく不確かさを考慮した被操作物体形状の遷移型記述モデルの提案、(2)日常生活における人の道具操作をロギングする分散処理システムの構築、(3)物体形状の見えに基づいて把持姿勢を想起する深層モデルの創成方法の提案、(4)物体状態に基づき次の取るべき手順動作を連鎖的に想起するプロセスモデルの提案、(5)超小型触覚センサの開発及び時系列微視的情報によるなぞり触感の分別、の各成果を得た。
|
研究成果の学術的意義や社会的意義 |
人が日常普通に行う道具の操り操作は現状のロボットにはまだ模倣ができない。その困難を視触覚の統合によるロボット制御によって克服するべく、触覚側では素材識別のためのなぞり行動を素材適応的に生成することで識別性能を向上できる可能性を示し、視覚側では物体形状の記述子、把持姿勢との関連モデリングによる把持想起、巨視的手順のモデリングと模倣といった要素技術を獲得した。これにより本課題の本丸である視触覚統合モデリング課題への取り組みが端緒についた。
|