• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Study on constancy of tactile texture perception by using multi-dimensional tactile texture display

Research Project

Project/Area Number 20H04263
Research Category

Grant-in-Aid for Scientific Research (B)

Allocation TypeSingle-year Grants
Section一般
Review Section Basic Section 61050:Intelligent robotics-related
Research InstitutionTokyo Metropolitan University (2021)
Nagoya University (2020)

Principal Investigator

岡本 正吾  東京都立大学, システムデザイン研究科, 准教授 (10579064)

Project Period (FY) 2020-04-01 – 2024-03-31
Project Status Granted (Fiscal Year 2021)
Budget Amount *help
¥11,960,000 (Direct Cost: ¥9,200,000、Indirect Cost: ¥2,760,000)
Fiscal Year 2022: ¥2,340,000 (Direct Cost: ¥1,800,000、Indirect Cost: ¥540,000)
Fiscal Year 2021: ¥3,380,000 (Direct Cost: ¥2,600,000、Indirect Cost: ¥780,000)
Fiscal Year 2020: ¥3,640,000 (Direct Cost: ¥2,800,000、Indirect Cost: ¥840,000)
Keywords触感ディスプレイ / 質感 / 振動触刺激 / 静電摩擦刺激 / 触感 / 摩擦 / 粗さ / 振動 / 静電気 / ハプティクス / 触覚
Outline of Research at the Start

触れることによって素材の種類が判別できる原理(素材触知覚の恒常性)は全く謎である.本研究は,触感ディスプレイによって自在に統制される触覚刺激群を用いて,この原理に関する仮説を検証する.仮説は,知覚次元(表面粗さ,摩擦などの知覚)間の刺激強度の共分散を活用して素材の識別が行われている,というものであり,迅速かつ堅牢な素材識別が実現する理由を説明し得る.仮説検証には,申請者らのグループのみが開発している粗さと摩擦刺激を提示可能な表面触感ディスプレイを用いる.この触感ディスプレイは,産業への貢献も高い.表面触感ディスプレイはタッチパネルとの相性に優れ,その高度化の影響範囲は広い.

Outline of Annual Research Achievements

振動触刺激と静電摩擦刺激を提示する表面触感ディスプレイを開発・製作した.これは,これまでに申請者らが開発してきたもの(Ito et al., IEEE SMC 2017, ACM Applied Percept. 2019など)の改良版であり,粗さと摩擦刺激の両方を同時に変化させられるという特長を有している.このような触感ディスプレイは,現在のところ,われわれの研究グループと中国の吉林大学のグループが2020年に発表したもの以外になく,独自性の高い研究が可能となる.通常,触感テクスチャとは物の表面粗さと摩擦特性によって大きく決定するため,粗さの情報提示に適した振動触刺激と摩擦の情報提示に適した静電摩擦刺激を併用することは,従来の触感ディスプレイよりも格段に高いリアリティを実現し得る.
この表面触感ディスプレイは,応答帯域が広い積層型ピエゾアクチュエータにより振動触覚刺激(粗さ刺激)を生成する.従来,われわれのグループが開発していたものはリコイル型ボイスコイルモータを使用しており,共振特性のために使用性が高くなかった.しかしながら,積層型ピエゾアクチュエータのフラットな周波数応答特性により,この問題は改善された.
静電気吸着力による摩擦刺激については,表面に触れる人の指の特性によって摩擦の大きさが変化してしまうという欠点が原理的に存在する.これを解決するため,摩擦力の計測に基づいた制御を可能とした.具体的には,力センサを触感ディスプレイ内部に組み込むことによるフィードバック系の実装である.
このように開発した装置の性能を評価している最中であるが,その一部の成果をIEEEの国際会議に投稿し,審査を受けている.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

コロナ禍にあって,被験者実験や装置製造プロセスの多くに制限があり装置開発の支障になっている.利用可能な刺激を最大限に活用し,当初の研究計画を進めている.

Strategy for Future Research Activity

前年度に開発した触感ディスプレイの制御ならびに性能試験を前半に実施する.この触感ディスプレイは振動触覚刺激(粗さ刺激)と,静電気吸着力によって発生する摩擦刺激を同時に生成することが可能という特長を有しており,粗さ刺激と摩擦刺激を併用することにより,テクスチャの提示能力が向上することを複数種類の心理物理実験および心理実験によって確認している最中である.具体的には,テクスチャの本物らしさ(リアリズム)が向上することをいくつかの仮想テクスチャについて確認している.従来の触感ディスプレイよりも本物らしさの観点から性能が向上していることを示していく.次に,テクスチャ弁別力が向上することを確認する.これは,微細な差がある2つのテクスチャを弁別することができるかという能力に関するものである.加えて,テクスチャ認識能力を調査する.提示された仮想テクスチャが何であるかを認識する能力である.このように,複数の観点からわれわれが開発した触感ディスプレイの優位性を示す.
後半には,テクスチャ提示のためのアルゴリズムを改良する.指がテクスチャ表面に触れるときに生じる現象をコンタクトメカニクスおよびトライボロジーの手法によってモデル化する.このモデルによって,指の運動(触察運動)と摩擦刺激が物理的に矛盾しないようなモデルを構築する.このため,従来よりわれわれが用いてきた接触力計測装置を活用する.このような物理モデルを用いても,微細なテクスチャによって発生する指とテクスチャ界面の現象をモデル化することは困難である.そこで,不足分を統計モデルによって補う.この統計モデルは,触刺激の周波数特性をモデル化することを狙っており,先の物理モデルと併用することで,テクスチャの提示能力を向上させようというものである.

Report

(1 results)
  • 2020 Annual Research Report

Research Products

(2 results)

All 2020 Other

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Remarks (1 results)

  • [Journal Article] Virtual roughness textures via a surface tactile texture display using vibrotactile and electrostatic friction stimuli: Improved realism2020

    • Author(s)
      Otake Kazuya、Hasegawa Hikaru、Okamoto Shogo、Yamada Yoji
    • Journal Title

      Proceedings of 13th International Conference on Human System Interaction

      Volume: - Pages: 147-152

    • DOI

      10.1109/hsi49210.2020.9142626

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed
  • [Remarks] 東京都立大学 人間情報学研究チームのホームページ

    • URL

      https://www.comp.sd.tmu.ac.jp/hci/display.html

    • Related Report
      2020 Annual Research Report

URL: 

Published: 2020-04-28   Modified: 2022-04-19  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi