| 研究課題/領域番号 |
22H00539
|
| 研究種目 |
基盤研究(A)
|
| 配分区分 | 補助金 |
| 応募区分 | 一般 |
| 審査区分 |
中区分61:人間情報学およびその関連分野
|
| 研究機関 | 奈良先端科学技術大学院大学 |
研究代表者 |
清川 清 奈良先端科学技術大学院大学, 先端科学技術研究科, 教授 (60358869)
|
| 研究分担者 |
内山 英昭 奈良先端科学技術大学院大学, 先端科学技術研究科, 准教授 (90735804)
磯山 直也 大妻女子大学, 社会情報学部, 講師 (70742021)
森本 壮 大阪大学, 大学院医学系研究科, 寄附講座准教授 (00530198)
広田 雅和 帝京大学, 医療技術学部, 准教授 (40835435)
|
| 研究期間 (年度) |
2022-04-01 – 2026-03-31
|
| 研究課題ステータス |
交付 (2025年度)
|
| 配分額 *注記 |
42,380千円 (直接経費: 32,600千円、間接経費: 9,780千円)
2025年度: 8,060千円 (直接経費: 6,200千円、間接経費: 1,860千円)
2024年度: 9,620千円 (直接経費: 7,400千円、間接経費: 2,220千円)
2023年度: 10,920千円 (直接経費: 8,400千円、間接経費: 2,520千円)
2022年度: 13,780千円 (直接経費: 10,600千円、間接経費: 3,180千円)
|
| キーワード | 視機能検査 / 環境理解 / 行動認識 / 視覚支援 / スマートグラス |
| 研究開始時の研究の概要 |
本研究では,1)日常生活を過ごすだけで完了する全自動視機能検査手法,2)ユーザの見え方に配慮し,ユーザや周囲の状況を察知して必要な支援を選択する支援決定モデル,3)決定した視覚支援を,HMDによる視機能矯正,視覚拡張(AV)による視覚機能の補完・増強,重篤な視覚障害向けの人工網膜などを適宜選択・切替えて提示する情報提示手法,の3点を開発・統合し「眼を見守るスマートグラス」を実現する.
|
| 研究実績の概要 |
ユーザの見え方に配慮し必要とする支援を察知することで日常生活を持続的に支援する、眼を見守るスマートグラスの実現を目指し、2024年度も引き続き研究に取り組んだ。まず、視機能の全自動検査に関して、眼電図(EOG)を用いて屈折度変化をパッシブに検出する可能性を検証した。昨年度の実験を大幅に精緻化し39名の参加者を対象とした実験を実施、眼鏡の試用レンズを用いて屈折度を変化させ、様々な視覚タスク中のEOG信号を記録した。その結果、同一被験者内での屈折度分類モデルは平均0.950の高い精度を達成した。これは、ウェアラブルEOGシステムによる長期的な視覚モニタリングの実現に向けた有望な一歩といえる。
次に、必要な視覚支援の決定に関して、環境理解と行動認識に基づいてユーザにどこに注目させるかを示す誘目マップの生成が鍵となる。本年度は、客観的・主観的眼の屈折を一台で測定できる「Chronos両眼/単眼屈折システム」の性能評価を行った。このシステムが、従来法と比較して、わずかに近視寄りの結果を示すものの、眼の屈折スクリーニングに適していることを明らかにした。
最後に、柔軟な視覚支援に関して、Maxwellianディスプレイが拡張現実(AR)画像視認時にも眼の調節反応を誘発し、その反応が実世界のオブジェクトの距離に影響されることを解明した。これは、MaxwellianディスプレイがARにおける調節問題を完全に排除するわけではないことを示唆している。また、ライトフィールドディスプレイを評価し、従来のディスプレイと同程度の眼疲労であり、立体ディスプレイよりも眼疲労の程度が有意に少ないことを明らかにした。また、VRヘッドマウントディスプレイ(VRHMD)使用時のアニサイコニア(両眼網膜像不同視)が視覚疲労を誘発することを、両眼融像維持(BFM)テストと自覚症状アンケートを用いて実証した。
|
| 現在までの達成度 |
現在までの達成度
2: おおむね順調に進展している
理由
全体として、当初予定から多少変遷したテーマもあるが、大きな方向性は変わらず、順調に成果を挙げていると認識している。まず、視機能の全自動検査に関して、眼電位(EOG)からの屈折力推定が非常に有力であることが分かってきた。カメラを用いる方法に比べてプライバシーの問題が少なく先駆的な方式であり、開発を継続する。
次に、必要な視覚支援の決定に関して、環境理解と行動認識に基づいてユーザにどこに注目させるかを示す誘目マップの生成が鍵となる。本年度の研究では、客観的・主観的眼の屈折を一台で測定できる「Chronos両眼/単眼屈折システム」の性能評価を行った。このシステムが、従来の測定法と比較してわずかに近視寄りの結果を示すものの、眼の屈折スクリーニングに適していることを明らかにした。単眼条件に切り替えることで、仮枠での測定と同等の主観的屈折測定精度が得られることも示唆された。これにより、スマートグラス単体で自動的に眼の状態を測定する技術の確立に向けた、既存システムとの比較評価の基盤を築いた。
最後に、柔軟な視覚支援に関して、本年度の研究では、MaxwellianディスプレイがAR画像視認時にも眼の調節反応を誘発し、その反応が実世界のオブジェクトの距離に影響されることを解明した。これは、MaxwellianディスプレイがARにおける調節問題を完全に排除するわけではないことを示唆している。また、VRHMD使用時のアニサイコニアが視覚疲労を誘発することや、異なる視覚条件下での調節反応の違いも確認している。また、ライトフィールドディスプレイを評価し、従来のディスプレイと同程度の眼疲労であり、立体ディスプレイよりも眼疲労の程度が有意に少ないことを明らかにしている。これらの成果は、多岐にわたる視覚特性を持つユーザに合わせた最適な情報提示手法を開発する上で、有用な示唆を与えるものである。
|
| 今後の研究の推進方策 |
まず、視機能の全自動検査では、眼電位(EOG)による視力推定の高精度化を最優先課題とし、機械学習アルゴリズムの改善と大規模な被験者実験を進める。EOGはプライバシー面で利点が多く、先駆的な方式であるため、視力以外の視機能検査への適用も目指す。また、皮膚変形センサーやカメラなど他手法との組み合わせも検討し、多角的な視機能評価システムの構築を図る。眼科外来向け物体検出AIの精度向上も重要であり、特定距離での95%以上の精度確保を目指し、データ取得とAI改善を進める。
次に、必要な視覚支援の決定では、環境理解と行動認識に基づいた誘目マップ生成に注力する。日常生活における環境理解や行動認識の研究を推進し、ユーザ周囲の物体の重要度を、利用頻度や遷移確率、視線履歴などを包括的に利用した機械学習で推定する。これにより、真に重要な事象を高精度に推定し、支援決定モデルの構築を進める。
最後に、柔軟な視覚支援では、これまでの成果をスマートグラス対応システムへと発展させる。視覚障害者向けスマホアプリの知見をスマートグラスへ応用し、晴眼者向けAR支援システムとの統合も進める。最終的には、視知覚矯正、AR/AVによる強調、人工網膜などの情報提示手法を、ユーザの見え方や誘目マップに基づいて自動的に選択・切り替えるフレームワークを開発する。この統合システムを当事者評価を通じて検証し、真に日常生活を支援する「眼を見守るスマートグラス」の実現を目指す。
|