• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

3次元表示空間の飛躍的な拡張を実現する技術に関する研究

Research Project

Project/Area Number 22K12120
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61020:Human interface and interaction-related
Research InstitutionSeisen University

Principal Investigator

鈴木 雅洋  聖泉大学, 人間学部, 准教授 (30397046)

Co-Investigator(Kenkyū-buntansha) 上平 員丈  神奈川工科大学, 公私立大学の部局等, 研究員 (50339892)
Project Period (FY) 2022-04-01 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥4,160,000 (Direct Cost: ¥3,200,000、Indirect Cost: ¥960,000)
Fiscal Year 2024: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2023: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2022: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
Keywords3次元表示 / 3D表示 / AR / 拡張現実 / VR / 複合現実 / ナビゲーションシステム / 奥行き知覚 / MR / ヒューマンインタフェース / 複合現実感 / 3Dディスプレイ
Outline of Research at the Start

屋外でのAR利用に必須となる数十~数百mの遠方で任意の奥行きに仮想対象を表示する画期的な表示技術を実現し、直感的でわかりやすいナビゲーションシステムの実現を目指す。また、広範囲の空間で現実世界と仮想世界の融合を可能にする新しいARの応用を創出することも目指す。遠方の任意の奥行きに仮想対象を表示するため、生理的要因による奥行き知覚に加えて、シーン理解による高次の奥行き知覚要因を空間の撮像画像から自動生成し、視覚系に提示する。階層的な奥行き知覚要因を同時に提示する手法や、統計的手法を導入してシーン理解からの奥行き知覚の精度を高めるという手法は、3D表示の研究に新しい方向性を与えると期待できる。

Outline of Annual Research Achievements

本研究では、屋外でのAR 利用に必須となる数十m~数百mの遠方における任意の奥行きに仮想対象を表示できる画期的な表示技術を実現し、直感的でわかりやすいナビゲーションシステムの実現を目指している。また、広範囲の空間で現実世界と仮想世界の融合を可能にする本技術の特徴を活かした新しいARの応用を創出することも目的としている。遠方の任意の奥行きに仮想対象を表示するため、本研究では生理的要因による奥行き知覚に加えて、シーン理解による高次の奥行き知覚要因を、空間の撮像画像から自動生成し、これら次元の異なる要因を同時に視覚系に提示する。このような、階層的な奥行き知覚要因を同時に提示する方法は、従来にはない新しい手法であり、さらに、統計的手法を導入して、シーン理解からの奥行き知覚の精度を高めるという手法も本研究の特色であり、3D 表示の研究に新しい方向性を与えるとことが期待できる。
2023年度は、2022年度に引き続き、市販の光学シースルー型ヘッドマウントディスプレイを用いて、実空間に重畳された仮想対象の奥行き知覚を測定する実験を実施し、提案手法の明確化に取り組んだ。2023年度に実施した実験では、仮想対象に与える奥行き知覚の要因の生理的要因のうち、両眼視差と輻輳とにより、これらが奥行き知覚要因として機能する近傍には仮想対象がないことを示す奥行き知覚要因を提示した条件と、単眼呈示によりこのような奥行き知覚要因を提示しない条件とで、奥行き知覚を測定して、このような奥行き知覚要因の提示と親近性がある大きさの提示との相互作用により、奥行き知覚の個人差が低減できることを確認した。また、仮想対象の輝度に条件を設けて奥行き知覚を測定し、輝度により仮想対象の奥行き知覚が変化する結果から、輝度の調整により仮想対象の奥行き知覚を調整できることを確認した。これらの確認により、提案技術の実現可能性を実証した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

2022年度に引き続き2023年度も提案手法の実現可能性の明確化に取り組むことは、計画のとおりであった。提案手法により数百m~千数百mの遠方に仮想対象を呈示できることに加えて、階層的な奥行き知覚要因の同時提示によるそれらの相互作用により仮想対象の奥行き知覚の個人差が低減できることを確認できたことや、仮想対象の輝度の調節により仮想対象の奥行き知覚が調整できることを確認できたことは、本研究の進捗にとって極めて重要な成果であった。提案手法の実現性の明確化に必要な検討は他にもあり、2022年度、2023年度と合わせてもすべて検討できてはいないが、主要な検討はできた。
2023年度は、データベース構築や仮想対象表示法の明確化にも取り組む計画であったが、これらに着手するまでには至らなかったものの、これらは2024年度にも取り組む計画であるため、遅れているとまではいえない状況である。
以上のことから、現在までの進捗状況としては、おおむね順調に進展していると判断して差し支えないと考える次第である。

Strategy for Future Research Activity

提案手法の実現性の明確化については、必要な検討がまだ残っていることから、2024年度も引き続き、これに継続して取り組むが、主要な検討であるシーンのコンテクストの効果の検討を最優先で進める計画である。
データベース構築や仮想対象表示法の明確化にも取り組み、最適なデバイス構成、表示特性の明確化にも着手する予定である。

Report

(2 results)
  • 2023 Research-status Report
  • 2022 Research-status Report
  • Research Products

    (4 results)

All 2023

All Journal Article (3 results) Presentation (1 results) (of which Invited: 1 results)

  • [Journal Article] 階層的奥行き知覚要因提示法の第1~2階層の評価2023

    • Author(s)
      鈴木雅洋,上平員丈
    • Journal Title

      電子情報通信学会技術研究報告

      Volume: 123(25) Pages: 73-78

    • Related Report
      2023 Research-status Report
  • [Journal Article] 階層的奥行き知覚要因提示法への仮想対象の輝度の効果2023

    • Author(s)
      鈴木雅洋,上平員丈
    • Journal Title

      電子情報通信学会技術研究報告

      Volume: 123(205) Pages: 47-52

    • Related Report
      2023 Research-status Report
  • [Journal Article] 階層的奥行き知覚要因提示法の提案とその第1~2階層の評価2023

    • Author(s)
      鈴木雅洋,上平員丈
    • Journal Title

      映像情報メディア学会技術報告

      Volume: 47(12) Pages: 13-16

    • Related Report
      2022 Research-status Report
  • [Presentation] 人工的運動視差を用いた遠距離用3Dディスプレイ2023

    • Author(s)
      上平員丈,鈴木雅洋
    • Organizer
      日本視覚学会2023年夏季大会
    • Related Report
      2023 Research-status Report
    • Invited

URL: 

Published: 2022-04-19   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi