• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2020 Fiscal Year Annual Research Report

3D haptic scanner to automate flexible object modeling for force sense presentation

Research Project

Project/Area Number 18K13731
Research InstitutionTohoku Gakuin University

Principal Investigator

佐瀬 一弥  東北学院大学, 工学部, 准教授 (20805220)

Project Period (FY) 2018-04-01 – 2021-03-31
Keywordsハプティクス / 触覚 / 力覚センサ / 力覚提示 / 最適化
Outline of Annual Research Achievements

最終年度は完成した力覚スキャナを用いた実対象物のモデリング,および,ハプティックデバイスを用いたアプリケーションの開発と評価を目的とした.力覚スキャナとして三軸直交ロボットと力覚センサを用いた測定装置を開発し,柔軟試料の表面剛性を測定した.その測定結果を用いて前年度までに検討してきた最適化計算を行い,測定された反力履歴の良い近似が得られるかどうかを実験した.最適化計算の手法として,中点法による最適化(MATLAB fmincon)を用いて妥当な収束が得られた.ただし本手法では局所最適解が得られるに過ぎないため,本年度は様々な最適化初期値を設定して大域的最適解を探索するグリッドサーチを適用した.その結果,目的とする反力履歴によく適合した推測値が得られた.また,作成した柔軟物体モデルを用いて力覚提示シミュレータを構築し,実物の触感との類似度を比較する実験を行った.実験では触覚提示装置の性能の問題で,実物との触感との乖離は依然として大きかった.しかしながら,力覚提示の指令値を生成する数学モデルの構築という点では十分に有用であると考えている.
以上のように当初の計画に沿って研究を実施したが,ロボットの5自由度化,最適化アルゴリズムにおけるVCや変形の非線形性,材料不均質性の考慮は達成できなかった.ロボットによる測定は測定領域が狭いことや軌道生成などの事前準備の手間が課題となっており,自由度拡張に取り組むことは本期間中では困難であった.それに対する代替策として,MoCapシステムを用いた人の手による力覚スキャンを導入した.測定誤差・欠損やデータの測定漏れなどの人為的ミスが生じやすいという課題があるが,柔軟性の高い測定が可能であり有用性が認められた.VC,変形の非線形性,材料不均質性の考慮については,最適化の次元削減や特徴量の選択にさらなる検討が必要と考えている.

  • Research Products

    (3 results)

All 2020 Other

All Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (1 results) Remarks (1 results)

  • [Journal Article] 柔軟物体の力覚提示に対応したゲームエンジンプラグインNamakoの開発2020

    • Author(s)
      佐瀬 一弥、陳 暁帥、辻田 哲平、近野 敦
    • Journal Title

      日本バーチャルリアリティ学会論文誌

      Volume: 25 Pages: 366~373

    • DOI

      10.18974/tvrsj.25.4_366

    • Peer Reviewed / Open Access
  • [Presentation] ロボットの手先接触力測定による柔軟物接触時反力データの収集とその視触覚提示における利用2020

    • Author(s)
      武田 賢,鈴木 裕也,佐瀬 一弥
    • Organizer
      日本機械学会ロボティクス・メカトロニクス講演会2020
  • [Remarks] 東北学院大学 研究室Webページ

    • URL

      http://www.ipc.tohoku-gakuin.ac.jp/saselab/

URL: 

Published: 2021-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi