本研究では,把持物体に力を加えた際の前腕部sEMGの変化に着目し,物体に対する掴み・引っ張り・曲げ・ねじり等の種類の把持操作中に発生する力の方向と大きさを推定する学習モデルを構築し,簡易なデバイス構成で物体変形感を提示可能な視触覚変形提示システムを実現することを目指している. これまでの取り組みで,複数の把持姿勢,把持物体形状下での把持物体への力方向,大きさ推定手法を構築し,モデルの推定精度を検証したところ,5種類の把持姿勢については100%,力方向については80%以上,大きさについては70%以上の精度で推定が可能なことを確かめた. 2021年度は本手法をさらに発展させ,データセットに含まれないユーザの把持操作中に発生する力の方向と大きさを推定する手法を構築し,被験者実験を通じてその効果を確かめた.具体的には,StarGANを用いて同一個人の特定の把持姿勢のデータを元に異なる把持姿勢の疑似データを生成することで少量の取得データでの把持力推定を行った.実験の結果,データセットに含まれないユーザのデータであっても,曲げ姿勢データを元にすることで,力方向については80%以上,大きさについては70%以上の精度で推定が可能なことを確かめた. 加えて,様な方向の力入力に対応可能な把持物体への力推定手法をPseudo-hapticsによる物体変形インタラクションに適応させ,簡易なデバイス構成で物体変形感を提 示可能な視触覚変形提示システムを実現した.物体-手間にかかる押下・剪断方向の推定値に応じてバーチャル物体やバーチャルハンドを変形・姿勢操作する視覚フィードバックを提示することで,実際には変形しない物体を把持しているにもかかわらずバーチャル物体を変形操作している感覚を提示する手法を構築し,被験者実験によって視覚フィードバックの効果を確かめた.
|