• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

A navigation system for visibility impaired persons using touch feel reproduction and dynamic placement of virtual braille guidance block and wall

Research Project

Project/Area Number 18K19812
Research Category

Grant-in-Aid for Challenging Research (Exploratory)

Allocation TypeMulti-year Fund
Review Section Medium-sized Section 61:Human informatics and related fields
Research InstitutionNagoya University

Principal Investigator

Enokibori Yu  名古屋大学, 情報学研究科, 講師 (60583309)

Co-Investigator(Kenkyū-buntansha) 米澤 朋子  関西大学, 総合情報学部, 教授 (90395161)
吉田 直人  名古屋大学, 未来社会創造機構, 特任助教 (40836714)
Project Period (FY) 2018-06-29 – 2023-03-31
Project Status Completed (Fiscal Year 2022)
Budget Amount *help
¥6,370,000 (Direct Cost: ¥4,900,000、Indirect Cost: ¥1,470,000)
Fiscal Year 2019: ¥2,990,000 (Direct Cost: ¥2,300,000、Indirect Cost: ¥690,000)
Fiscal Year 2018: ¥3,380,000 (Direct Cost: ¥2,600,000、Indirect Cost: ¥780,000)
Keywords視覚障害者支援 / 歩行誘導 / 歩行誘導ブロック / 感触再現 / 白杖 / 白杖先端刺激 / 空気圧 / ウェアラブル / 足裏感触再現 / 白杖先端刺激提示 / 刺激提示 / 仮想点字ブロック / 視覚障碍者支援
Outline of Final Research Achievements

This study aimed to develop a walking guidance method with a light learning load by utilizing objects and procedures used by visually impaired people daily as metaphors. In order to establish that, we select the following two utilizing objects and procedures as the motifs: the use of a white cane and the use of walking guidance blocks. As a result, reproducing the feeling of contact with a wall or a walking guidance block by applying stimuli to the tip of a white cane was not so suitable as a walking guidance method for the visually impaired. On the other hand, presenting protuberance stimuli to the sole and guiding walking using a walking guidance block as a metaphor is suitable for both easily understanding the stimuli's meaning and walking guidance performance. With the above result, the goal of this study was achieved.

Academic Significance and Societal Importance of the Research Achievements

本研究は,視覚障害者が日常的に利用するモノや手順をメタファとして活用することで,習熟負荷が軽度である歩行誘導方法を実現した。本研究で検討した中で,足裏に凹凸刺激を提示し,歩行誘導ブロックをメタファとして歩行誘導する手法は,直感的な刺激の意味の理解のしやすさ,歩行誘導性能の両観点から有望であった。これにより,視覚障害者の方向誘導方法の今後の方向性について,一つの指標を示した。

Report

(6 results)
  • 2022 Annual Research Report   Final Research Report ( PDF )
  • 2021 Research-status Report
  • 2020 Research-status Report
  • 2019 Research-status Report
  • 2018 Research-status Report
  • Research Products

    (7 results)

All 2022 2021 2020 2019 2018

All Presentation (7 results)

  • [Presentation] 足裏凹凸刺激デバイスを用いた点字ブロックメタファによる歩行誘導の性能評価2022

    • Author(s)
      塚本 晶久, 吉田 直人 , 米澤 朋子 , 間瀬 健二 , 榎掘 優
    • Organizer
      マルチメディア, 分散, 協調とモバイル(DICOMO2022)シンポジウム
    • Related Report
      2022 Annual Research Report
  • [Presentation] 白杖先端刺激歩行誘導システムの視覚障碍者と晴眼者による評価結果比較2022

    • Author(s)
      藤井勇人,榎堀優,吉田直人,米澤朋子,間瀬 健二
    • Organizer
      第73回ユビキタスコンピューティングシステム研究会 (UBI73)
    • Related Report
      2021 Research-status Report
  • [Presentation] 白杖先端刺激を用いた歩行誘導おけるマーカレス仮想壁提示の検討2021

    • Author(s)
      藤井勇人,榎堀 優,吉田直人,米澤朋子,間瀬健二
    • Organizer
      HCGシンポジウム2021
    • Related Report
      2021 Research-status Report
  • [Presentation] シューズ型歩行誘導デバイスのための足部への時間差振動提示による歩行誘導手法の検討2020

    • Author(s)
      吉田直人, 榎堀優, 間瀬健二, 平野隼壮, 米澤朋子
    • Organizer
      ヒューマンインタフェース研究会(SIG-ACI-25)
    • Related Report
      2019 Research-status Report
  • [Presentation] 白杖先端刺激提示による円滑な曲線歩行誘導に適した仮想誘導路デザインの検討2019

    • Author(s)
      榎堀優,渡辺博文,吉田直人,間瀬健二
    • Organizer
      メディアエクスペリエンス・バーチャル環境基礎研究会(MVE)
    • Related Report
      2019 Research-status Report
  • [Presentation] 裏・甲への振動刺激知覚における振動源の数と位置関係の影響に関する予備的検討2019

    • Author(s)
      吉田直人, 平野隼壮, 米澤朋子, 榎堀優, 間瀬健二
    • Organizer
      メディアエクスペリエンス・バーチャル環境基礎研究会(MVE)
    • Related Report
      2019 Research-status Report
  • [Presentation] 白杖先端刺激提示による仮想誘導路デザインの検討2018

    • Author(s)
      渡辺博文,榎堀優,米澤朋子,間瀬健二
    • Organizer
      情報学ワークショップ(WiNF)2018
    • Related Report
      2018 Research-status Report

URL: 

Published: 2018-07-25   Modified: 2024-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi