• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Research-status Report

力覚情報に基づく複雑な道具形状と接触位置との効率的な同時推定

Research Project

Project/Area Number 22K14212
Research InstitutionTohoku University

Principal Investigator

沓澤 京  東北大学, 工学研究科, 助教 (30881205)

Project Period (FY) 2022-04-01 – 2025-03-31
Keywords力覚信号処理 / 力覚センサ / 接触位置推定 / 粒子フィルタ
Outline of Annual Research Achievements

本研究では、ロボットが道具や把持物体を介して環境に接触する状況において、力覚情報から道具の形状と道具上の接触位置とを同時推定する技術の開発を目指している。ロボットが道具等を介して環境との接触状態を制御するためには、手先の力覚情報から把持物体上の接触位置などを推定することが不可欠である。従来手法の多くでは、道具上の接触位置を推定するために道具形状が既知な必要があり、道具形状を必要としない手法も推定が原理的に遅いという欠点があった。一方で本研究では、道具の形状を接触位置と同時に推定することで、最初に形状が未知でも素早く接触位置の推定ができると考えた。
本年度は、前年度に提案した物体形状と接触位置との同時推定手法の改良に主に取り組んだ。前年度に開発した手法は高次元(1000次元以上)のパラメータで表現される物体形状も推定できたが、収束までに100秒近く時間がかかる上に、確率モデルとして理論的に妥当でない要素が含まれていた。これらの課題を解決することで他の情報との組合せや確率的推論に基づく制御が容易かつ効率的になると考えられるため、その実現に取り組んだ。確率モデルの再定式化によって、形状パラメータを確率モデルとして妥当な形式で表現することを実現した。さらにハイパーパラメータの調整によって、シミュレーション上で10秒程度、実際の力覚センサでも20秒程度の推定で物体形状をほぼ正確に推定できるようになった。得られた成果の一部を国内の研究会にて発表し、計測自動制御学会東北支部より優秀発表奨励賞を受賞した。

Current Status of Research Progress
Current Status of Research Progress

3: Progress in research has been slightly delayed.

Reason

本研究の中核である力覚情報からの道具形状と接触位置との同時推定手法については改良によって高性能化が実現でき、昨年度の課題をほぼ解決することができた。その一方で、力覚以外の情報との統合については目立った成果が得られなかった。また、昨年度から本年度までに得られた成果の論文掲載が当初の想定より遅れている。

Strategy for Future Research Activity

視覚情報等から部分的な事前情報が得られた場合の推定について検証を進める。加えて、形状推定における不確実性を効率的に減らすような探り動作の提案も目指す。これまではランダムに環境に接触する状況を扱ったが、不確実性を減らすように環境に接触することで推定のさらなる効率化が可能と考えられる。確率モデルとしての定式化が完了したので、今後はそれに基づいた推論によるロボットの探り動作の生成に着手する。また、道具や環境に不確実性がある際には接触のタイミングも不明なため、環境を破壊することなく安定的に接触を実現する制御と組み合わせる必要がある。

Causes of Carryover

研究成果の発表(国際会議および論文掲載)が遅れたため、それらの予定額を翌年度に繰り越した。また、ロボット制御に関連する治具等についても翌年度に購入する。

  • Research Products

    (1 results)

All 2023

All Presentation (1 results)

  • [Presentation] 力覚信号に基づく粒子フィルタを用いた多数のパラメータで表現される道具形状の推定2023

    • Author(s)
      沓澤京
    • Organizer
      計測自動制御学会 東北支部 第342回研究集会

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi