研究課題/領域番号 |
21K12080
|
研究機関 | 立命館大学 |
研究代表者 |
島田 伸敬 立命館大学, 情報理工学部, 教授 (10294034)
|
研究分担者 |
松尾 直志 立命館大学, 情報理工学部, 助教 (80449545)
平井 慎一 立命館大学, 理工学部, 教授 (90212167)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
キーワード | 把持動作 / 視触覚統合 / プロセスモデリング / 深層学習 |
研究実績の概要 |
具体的な柔らかい把持対象として、「番重(ケース)に山積されている粒状食材(ねぎ、コーン等の惣菜食材)」を研究連携先の食品メーカの協力を得て選択した。研究分担者の開発しているシリコン製ソフトハンドとスカラーロボットから構成される把持ロボットが番重のどの位置にどの深さで挿入すれば所望の重量を正確に把持できるかを、RGBD画像から推論して出力する領域提案型深層ネットワークによる回帰モデルの学習によって実現する手法を提案した。山積み食材の把持は破壊型の試行であるため同一対象に異なるロボット操作を繰り返すことができないが、新たに確率モデルに基づく回帰型の損失関数を考案することにより解決を試みた。重量推定はメーカの目標である 10%程度の誤差を実現できたが、予測誤差の推定精度がチャンスレベル以下であることが課題となった。
先行の科研研究課題であった基盤研究Bの成果を引き継ぎ、 巨視的・微視的時間スケールを内包した階層型視触覚統合プロセスモデルの実装に向けて実験用ロボットプラットフォームの構築に取り掛かった。購入したロボットアームのグリッパに微視的スケール計測用に研究分担者の開発している3軸触覚センサを取り付け、巨視的スケール計測用のRGBDセンサと組み合わせて、Docker仮想環境上のROSミドルウェアにより統合プラットフォームを構成した。これにより複数の画像認識深層モデルを分散GPU環境で稼働させ、把持対象の物体検出及び巨視的変形の観測、人の手指による詳細な把持動作の同期的計測が行えるようになった。また3指ハンドの制御並びにモータートルクのリアルタイム計測をROSで行うフレームワークについても実装を行った。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
実験用の視触覚統合ロボットプラットフォームをROSベースで疎結合モデルとして構築できたことにより、視覚や触覚の知覚処理モジュールを随時最先端のモデルに改良しつつ今後の研究を進めることができる。特に視触覚の各モーダルごとにセンシング周期が著しく相違する(視覚30Hz、触覚300Hz)ことが視触覚統合で最も取り扱いに注意を要するところ、ROSを用いることで座標変換を含めて自然に同期を実現することができることが大きなメリットである。 触覚センサをマトリクス配置することによる分布荷重センサ化することがセンサ開発のスケジュール上間に合わなかったが、次年度中に目処をつけたいと考える。
|
今後の研究の推進方策 |
粒状食材の把持位置提案および所定の重量把持のためのロボット操作量(差し込み深さ)の生成において、線形回帰モデルにおける加法的誤差の確率モデルに基づく損失関数の設計を見直すことで、同一状況に対して1回の把持行動と把持重量の教師信号しか得られない場合でも、食材のRGBD入力画像特徴から個別の提案領域ごとの回帰誤差を予測する手法について研究を進める。 前年度に製作した視触覚統合ロボットプラットフォームを用いて、ゴム毬やビーズクッションのような粘弾性・弾塑性の顕著な物体を把持し、また紙のような薄いものをハンドの指先でも滑らせながらめくる動作をさせ、巨視的及び微視的スケールにおける観測データの収集を時間同期を重視して行う。これを用いて深層モデルを適用してプロセスモデルが構築できるか検討を行う。 道具のような固形物の機能を発現するのに適した把持部位の検出と手指把持パターンの想起について、先行の科研課題を引き継いで道具物体のパーツ形状に着目したモデリング、及び類似形状のパーツを共有する道具の把持パターンを汎化的に想起する能力を持たせるための深層モデルについて研究を進める。
|
次年度使用額が生じた理由 |
科研以外で獲得した他の関連研究予算を用いて主にロボットプラットフォーム機材と深層学習向けのGPU計算リソースの整備ができたため、これを用いて本課題を予定通りに遂行した。計画していた今年度の本課題予算は6割ほどを次年度に繰越して執行し、視触覚統合のためのロボットプラットフォーム部材、ROS/Docker上の分散計算モジュール深層モデルへの追加計算リソースを整備する予定である。
|