研究課題/領域番号 |
22H00549
|
研究種目 |
基盤研究(A)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
中区分62:応用情報学およびその関連分野
|
研究機関 | 山梨大学 |
研究代表者 |
茅 暁陽 山梨大学, その他部局等, 理事 (20283195)
|
研究分担者 |
藤代 一成 慶應義塾大学, 理工学部(矢上), 教授 (00181347)
朱 臻陽 山梨大学, 大学院総合研究部, 助教 (10954927)
柏木 賢治 山梨大学, 大学院総合研究部, 教授 (30194723)
郷 健太郎 山梨大学, 大学院総合研究部, 教授 (50282009)
豊浦 正広 山梨大学, 大学院総合研究部, 教授 (80550780)
|
研究期間 (年度) |
2022-04-01 – 2027-03-31
|
研究課題ステータス |
交付 (2024年度)
|
配分額 *注記 |
41,990千円 (直接経費: 32,300千円、間接経費: 9,690千円)
2024年度: 8,450千円 (直接経費: 6,500千円、間接経費: 1,950千円)
2023年度: 8,970千円 (直接経費: 6,900千円、間接経費: 2,070千円)
2022年度: 11,050千円 (直接経費: 8,500千円、間接経費: 2,550千円)
|
キーワード | 色覚補償 / 色覚障害補償 / 画像色変換 |
研究開始時の研究の概要 |
本研究課題は,先行研究課題「コンピュテーショナル・オプサルモロジー:ARを用いた視覚障害者の視力の適応的増強」(基盤研究(A)17H00738)の後続研究である.色覚障害に的を絞り,以下の三点において先行研究課題の成果を発展させる.(1) 結果が計算モデルに直接利用可能で軽負担の自覚的検査方式による個人の障害レベルへの対応,(2)最新の転移学習を用いて,シミュレーションモデルに主観評価を組み合わせ,複合化した要因に適応,(3)最新の深層学習技術を駆使し,画像内の物体色を認識し,その物体と色のテキスト情報との相互参照を可能とすることで,色に基づく意思決定やコミュニケーションを支援.
|
研究実績の概要 |
色覚障害(color vision deficiency、 CVD)は、網膜上に分布する錐体細胞の欠損や異常により生じ、色の区別を困難にするため、職業が制限されたり、他人とのコミュニケーションが困難になったり、危険に晒されるなど、Qolを大きく低下させる。本研究では最新の深層学習技術を活用し、個人の色覚障害の度合いに適応した色覚補償技術に加え、シーン中の物体の色覚特徴まで認識し、拡張現実感技術(Augmented Reality、 AR)を用いて可視化することで、意思決定や健常者とのシームレスなコミュニケーションを支援する技術を開発する。令和5年度の実績は以下の通りである。
課題(A)の個人の障害レベルの適応については、Swin TransformerとLab空間をベースとする二色覚用教師なし色変換深層モデルを設計した。さらにFlickerから収集した画像から色コントラストの損失が生じる画像を色覚障がいシミュレーションを用いて選出し、学習に用いる入力データ集を構築した。さらに、二色覚用色変換モデルを異なる度合いの色覚障がい補償用に拡張した。 課題(B)の知覚評価に対応した個人適応型補償モデルの開発においては、課題(A)の令和4年度の成果である画像集から、障がいの度合いにより知覚結果が敏感に変化する画像を選出し、知覚評価用の画像集を生成した。そして、少ない枚数の画像で学習可能な転移学習技術及び数枚の画像で結果生成可能なスタイル変換技術を開発した。 課題(C)の色識別とコンミュニケーション支援については、令和4開発済みのシステムでは、色ラベルの種類が限定的であり、参照の精度も不十分であったため、令和5年度はテキストと画像間の相互参照がより高精度で行える最新の深層学習モデルを導入し精度向上を図った。さらに主観評価実験を中心とした支援システムのユーザビリティの評価と改善を行った。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
計画した内容をすべて予定通り実施し、期待通りの成果を得ることができた。課題Aについては、主要研究成果をまとめた論文がIF付き国際論文誌に掲載することができた。課題Bについてはすで個人適応型のモデルを開発し、予備実験まで完了した。課題Cについてはコミュニケーション支援用システムのインタフェースを改善することができた。
|
今後の研究の推進方策 |
課題(A)については、令和5年度に二色覚用の高速色覚補償アルゴリズムを様々な色覚障害の補償に適用可能に拡張した。最も広く使用されているMachadoらによる色覚障害シミュレーションモデルを使用して実装を行ったが、評価実験において当該モデルが明度の知覚を正確に再現できないことが明らかになったため、令和6年度には新たなシミュレーションモデルの開発を予定している。 課題(B)においては、令和5年度にグラフニューラルネットワークと転移学習を活用して、最大100枚の画像で学習することにより個人に合わせた色覚補償を実現する新しいニューラルネットワークモデルの設計を完了した。令和6年度には協力者を募り、実験を通じて個人ごとのデータセットを作成し、モデルの有効性を評価する予定である。さらに、30枚以下の学習データで学習可能となるようにモデルの改良も行う予定である。 課題(C)では、令和5年度にテキストと画像間の相互参照がより高精度に行える最新の深層学習モデルを導入し、精度向上を目指した。令和6年度は主観評価実験を中心に色ラベルの拡充、支援システムのユーザビリティ評価と改善に取り組むとともに、光学シースルー型ヘッドマウントディスプレイを使用したコミュニケーション支援ツールの開発を開始する。
|