• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

能動性義手の各手指の操作を可能とするための運動意思読み取り手法に関する研究

Research Project

Project/Area Number 23K11183
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61020:Human interface and interaction-related
Research InstitutionMaebashi Institute of Technology

Principal Investigator

王 鋒  前橋工科大学, 工学部, 教授 (80323046)

Project Period (FY) 2023-04-01 – 2026-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥4,550,000 (Direct Cost: ¥3,500,000、Indirect Cost: ¥1,050,000)
Fiscal Year 2025: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2024: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Fiscal Year 2023: ¥1,950,000 (Direct Cost: ¥1,500,000、Indirect Cost: ¥450,000)
Keywordsヒューマン・インタフェイス / 義手 / 運動意図読みとり / 手指 / 機械学習 / 触覚性状 / センシング / ヒューマンインタフェース / 運動意思識別 / 触覚
Outline of Research at the Start

本研究は、事故や病気などの原因で前腕を失った前腕切断者の生活の質を向上するために、前腕切断者に装着する能動性義手の各手指を操作できる新たなヒューマン-マシン・インタフェースを開発するものである。具体的に、従来の義手装着者の残存前腕断端表面の触覚性状を計測して義手使用者の運動意思を読み取り、能動性義手を制御する研究成果を元に、さらに各手指への運動意思の読み取りまで進化して、ごく少数の非侵襲的な触覚センサを利用して義手装着者の各手指への運動意思の読み取りを可能として、義手装着者の意思通り義手の各手指まで自由自在に操作できる手法を研究する。

Outline of Annual Research Achievements

本研究は、事故や病気などの原因で前腕を失った前腕切断者の生活の質を向上するために、前腕切断者に装着する能動性義手の各手指を単独に操作できる新たなヒューマン-マシン・インタフェースを開発するものである。具体的に、先行研究で得られた機能性材料ポリフッ化ビニリデンPVDFを用いた触覚センサを利用して義手装着者の手の全体の運動意思を読み取り能動性義手を制御する研究成果を、さらに各手指への運動意思の読み取りまで進化させ、ごく少数の触覚センサを義手装着者の残存前腕断端の表面に貼り付け、各手指の屈曲・伸展に関連する前腕の各筋群の収縮弛緩に伴った残存前腕表面の触覚性状を計測し、さらに機械学習を利用してこれらの触覚性状により各手指の各種運動に関連する特徴を抽出して、各手指への運動意思を読み取る手法を研究する。非侵襲的に義手装着者の各手指への運動意思の読み取りを可能とする新たなヒューマン-マシン・インタフェースを構築し、義手装着者の意思通り各手指まで自由自在に操作できる能動性義手を実現させることは、本研究の最終的な目的である。各手指の運動意思の識別のため、数十チャンネルの筋電信号を利用する手法や神経に電極埋め込む侵襲的な手法などの他の手法と比べ、本研究で提案する手法はごく少数のセンサを使用するだけ、かつ非侵襲的である特色がある。
昨年度には、以下の研究内容を実施した:先ずは各手指の運動に関連する各筋の収縮弛緩によって前腕表面の形状・テンションなどの触覚性状にどのような影響を及ぼすかを研究した。取得した触覚性状データを分析し、各手指への運動意思を表す特徴量を検討した。さらに機械学習手法を駆使し、これらの運動意思を表す特徴量の識別手法を研究し、各識別手法の正解率、学習速度、訓練効率などを比較検討した。その結果、14種の指動作を約80%の精度で識別を可能とした。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

昨年度中計画通り下記の研究を実施したため:
(1)センサの改良:従来の研究知見をもとに、実験を経てセンサ受感部、センサベース部の形状、構造、材質の選択改良を行いつつ、触覚性状を検知する触覚センサの感度向上を行った。
(2)データ収集実験:前橋工科大学「人間機能実験倫理審査委員会」の審査及びインフォームドコンセントを得たうえ健常な実験協力者に対してデータ収集実験を行った。触覚センサを健常な実験協力者の前腕部に装着し、各手指単独の屈曲、進展等を含めて14種類の動作を行い、その際に実験協力者前腕部の筋の運動に伴い発生した皮膚表面のテンション、形状等の触覚性状の変化を記録した。また、データ収集実験を行ったとき、手と前腕の運動、及び解剖学に基づきセンサの最適な装着部位、装着方法も検討し、さらに複数センサ使用の場合の最適な装着部位等も模索した。
(3)運動意思識別アルゴリズムの研究:上記データ収集実験に取得した触覚性状変化データを用いて、運動意思を表す特徴量を検討し、これらの特徴量の識別方法を研究した。従来利用された誤差逆伝播法ニューラルネットワーク(BPNN)、k-近傍法(k-NN)、及びガウシアン基底サポートベクターマシン(Gaussian Kernel SVM)を再比較し、さらにLinear SVM, Random forestを加えた5識別器の比較・検討を行った。そのさい層化K分割交差検証法により、指標として識別率(accuracy)を求めて評価を行った。その結果、いずれの識別方法を利用しても、2枚のPVDFフィルムを用いた触覚センサで、14種の指動作を約80%の精度で識別可能であることを確認した。これより、実用程度の精度とはいえなかったものの、本研究で提案した非侵襲的に義手装着者の各手指への運動意思の読み取りを可能とする新たなヒューマン-マシン・インタフェースの有効性が確認した。

Strategy for Future Research Activity

今後以下の内容を行う予定である。
(1)センサハードウェアの改良:特に実用化に向け、センサ改良をしつつ、さらにセンサ出力の信号コンディショニング回路の小型化を行う。
(2)複数センサの使用により複雑な動作の識別を検討する。単一手指の屈曲・進展動作のみならず、さらに複数手指の屈曲・進展の組み合わせ複合動作の識別を可能とするために、複数センサ(2、3枚のセンサ、最大4枚まで)の使用を研究する。その際システムの実用化条件を目指し、センサ装着の便利性と識別精度の高さを総合的考慮して最適な装着部位の配置などについて模索する。また独立信号解析手法を利用して、各手指の各動作に関連する触覚性状信号の成分を研究し、その成分の抽出方法を検討する。
(3)運動意思識別器の改良:複数センサを用いた条件下において複合動作の運動意思識別器を構成する。その際、複数センサの出力の結合方法、多入力識別器の性能について検討し、学習速度、識別演算量と識別精度を総合的判断し、最適な識別器を構築する。さらに実用化を目指し、現在使用のワークステーションの代わりに、マイクロプロセッサーを利用してリアルタイム的に実行可能なアルゴリズムを構築する。
(4)より多くの実験協力者に対して、性能確認実験を行う。その際、実験協力者の年齢、性別、体格(前腕部筋肉の量)などを考慮して、個人差の影響を検討する。また、長時間使用につき筋疲労や、発汗などの影響を検討する。実験の結果に基づき、上記(1)と(2)を繰り返し、センサのハードウェアと運動意思識別器ソフトウェアの両方の改良改善を行う予定である。以上の実験を経て繰り返しシステム改良改善を行い、将来義手使用者の意思通り自由自在に能動義手を動作させるヒューマン-マシン・インタフェースである本センサシステムの完成を目指す。

Report

(1 results)
  • 2023 Research-status Report
  • Research Products

    (6 results)

All 2023

All Journal Article (3 results) (of which Peer Reviewed: 3 results,  Open Access: 1 results) Presentation (3 results) (of which Int'l Joint Research: 1 results)

  • [Journal Article] A Study on Comparing Method of Motion Classification Using Muscle Bulging for Control of Powered Prosthetic Hand2023

    • Author(s)
      岩井隼人、王鋒
    • Journal Title

      IEEJ Transactions on Electronics, Information and Systems

      Volume: 143 Issue: 8 Pages: 819-829

    • DOI

      10.1541/ieejeiss.143.819

    • ISSN
      0385-4221, 1348-8155
    • Year and Date
      2023-08-01
    • Related Report
      2023 Research-status Report
    • Peer Reviewed
  • [Journal Article] A study on comparing method of motion classification using muscle bulging for control of powered prosthetic hand2023

    • Author(s)
      Hayato Iwai, Feng Wang
    • Journal Title

      Electronics and Communications in Japan

      Volume: 106 Issue: 4

    • DOI

      10.1002/ecj.12424

    • Related Report
      2023 Research-status Report
    • Peer Reviewed
  • [Journal Article] A Forearm Surface Tactile Feature Sensing System for Control of Prosthetic Hand2023

    • Author(s)
      岩井隼人、王鋒
    • Journal Title

      Journal of the Japan Society of Applied Electromagnetics and Mechanics

      Volume: 31 Issue: 2 Pages: 108-113

    • DOI

      10.14243/jsaem.31.108

    • ISSN
      0919-4452, 2187-9257
    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Presentation] Real-Time Motion Classification Using Forearm Surface Tactile Feature for Control of Prosthetic Hand2023

    • Author(s)
      Hayato IWAI, Feng WANG
    • Organizer
      21st International Symposium on Applied Electromagnetics and Mechanics
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] 義手制御のための各指の動作識別に関する研究2023

    • Author(s)
      遠山 凜也,小松 将大,王 鋒
    • Organizer
      第32回MAGDAコンファレンスin 金沢(MAGDA2023)
    • Related Report
      2023 Research-status Report
  • [Presentation] 触覚性状センシングシステムを用いた電動義手の操作精度向上を目的とした検討2023

    • Author(s)
      小松 将大,遠山 凜也,王 鋒
    • Organizer
      第32回MAGDAコンファレンスin 金沢(MAGDA2023)
    • Related Report
      2023 Research-status Report

URL: 

Published: 2023-04-13   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi