• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Research on high definition stable haptic device for multi-finger by biofeedback

Research Project

Project/Area Number 20K11916
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61020:Human interface and interaction-related
Research InstitutionHiroshima Institute of Technology (2022)
Tokyo Institute of Technology (2020-2021)

Principal Investigator

Akahane Katsuhito  広島工業大学, 情報学部, 准教授 (70500007)

Project Period (FY) 2020-04-01 – 2023-03-31
Project Status Completed (Fiscal Year 2022)
Budget Amount *help
¥4,290,000 (Direct Cost: ¥3,300,000、Indirect Cost: ¥990,000)
Fiscal Year 2022: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2021: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
Fiscal Year 2020: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Keywordsハプティックデバイス / ヒューマンインタフェース / バーチャルリアリティ
Outline of Research at the Start

我々が日常生活において物体を操作するとき,無意識のうちに物体を適切な把持力で把持している.
我々が実世界で無意識に行っているこの把持操作におけるバイオフィードバックをVR世界の物体操作に応用する.
そのための専用の多自由度のストリング駆動型力覚提示装置を開発し,多指操作における有効性を検証する.
また,把持モデルを構築し,操作者の把持情報を基にフィードバックを行い,これまでにない,高精度で極安定な多指操作環境の実現を目指す.

Outline of Final Research Achievements

In this study, we studied a multi-finger operation haptic device using biofeedback for the purpose of improving the accuracy and stability of the haptic device. Aiming to improve the accuracy of the haptic presentation device when it comes into contact with an object, we actively incorporate changes in the grasping force that people perform unconsciously in their daily lives into the haptic presentation. By changing it, we realized a high rigidity that could not be presented until now.To measure the gripping force, we created a special end effector that abstracts the grip and measured it. A computer simulation and an evaluation experiment showed the improvement of operability and stability that had never existed before.

Academic Significance and Societal Importance of the Research Achievements

多指操作環境の構築は手術手技,リハビリ,技術伝承,生産システムなど,様々な応用が期待されている.特にストリング駆動の力触覚提示デバイスは我々が世界に先駆けて研究・開発を行なっているシステムである.その中で,我々が提案する操作者の状態を利用したバイオフィードバックはヒトが無意識のうちに行なっている把持操作における操作者の内部状態を操作の表には現れない内力としての把持力を推定し,制御に用いるものであり,多指操作環境において実現したことは重要な意味を持つものであると考える.

Report

(4 results)
  • 2022 Annual Research Report   Final Research Report ( PDF )
  • 2021 Research-status Report
  • 2020 Research-status Report
  • Research Products

    (7 results)

All 2022 2021 2020

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (6 results)

  • [Journal Article] 自然な把持操作を実現する7自由度ワイヤ駆動型力覚提示装置の開発2020

    • Author(s)
      赤羽 克仁
    • Journal Title

      日本バーチャルリアリティ学会論文誌

      Volume: 25 Pages: 356-365

    • NAID

      130007960932

    • Related Report
      2020 Research-status Report
    • Peer Reviewed
  • [Presentation] 剪刀操作を実現する7自由度ワイヤ駆動型力覚提示装置の提案2022

    • Author(s)
      赤羽克仁
    • Organizer
      日本バーチャルリアリティ学会
    • Related Report
      2022 Annual Research Report
  • [Presentation] シリンジ操作を可能にする対称性を考慮した8自由度ワイヤ駆動型力覚提示装置の試作2022

    • Author(s)
      赤羽克仁
    • Organizer
      インタラクション2022
    • Related Report
      2021 Research-status Report
  • [Presentation] シリンジ操作を実現する8自由度ワイヤ駆動型力覚提示装置の提案2021

    • Author(s)
      赤羽克仁
    • Organizer
      日本バーチャルリアリティ学会大会
    • Related Report
      2021 Research-status Report
  • [Presentation] 掌への力覚提示を実現する8自由度ワイヤ駆動型力覚提示装置の提案2021

    • Author(s)
      赤羽克仁
    • Organizer
      ハプティクス研究委員会
    • Related Report
      2021 Research-status Report
  • [Presentation] 掌を使った把持操作を可能にする7自由度ワイヤ駆動型力覚提示装置の試作2021

    • Author(s)
      赤羽克仁
    • Organizer
      インタラクション2021
    • Related Report
      2020 Research-status Report
  • [Presentation] シリンジ操作を可能にする7自由度ワイヤ駆動型力覚提示装置の実現2020

    • Author(s)
      赤羽克仁
    • Organizer
      日本バーチャルリアリティ学会 ハプティクス研究委員会
    • Related Report
      2020 Research-status Report

URL: 

Published: 2020-04-28   Modified: 2024-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi