研究課題/領域番号 |
19K12906
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分90150:医療福祉工学関連
|
研究機関 | 東京工業高等専門学校 |
研究代表者 |
山下 晃弘 東京工業高等専門学校, 情報工学科, 准教授 (80589838)
|
研究分担者 |
松林 勝志 東京工業高等専門学校, 情報工学科, 教授 (80239061)
|
研究期間 (年度) |
2022-11-15 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2022年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2021年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2020年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2019年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
|
キーワード | 視覚障害者支援 / 高精度位置測位 / RTK-GNSS / 画像認識 / 点字翻訳 / 福祉工学 / 高精度位置即位 / 画像処理 / ウェアラブルデバイス |
研究開始時の研究の概要 |
視覚障害者の多くは,進化するICTサービスの恩恵を十分に得られていない.スマホは画面が平坦で操作しづらく,多くのアプリは視覚情報無しに操作できない.その結果,物理的ボタンで操作する「ガラケー」が視覚障害者の生活必需品であり,健常者の支援が不可欠である.本研究の目的は,視覚障害者フレンドリーなICTシステムを開発し,視覚障害者が自立的に行動できる(自活できる)範囲を広げ,視覚障害者の社会的・経済的自立を支援することである.特に,自宅,オフィス,公共施設等のエリアにおいて,視覚障害者が周囲の状況を自ら把握し,必要なものを見つけ,自分で行動できる「自活力」を飛躍的に向上させる.
|
研究実績の概要 |
本研究は大きく,(A)RTK-GNSS技術とスマートフォン内蔵センサに基づく超高精度位置測位技術の検証,(B)視覚障害者とのコミュニケーションを円滑にするためのインタフェースに関する研究,および(C)音声データや点字データのみで視覚障害者をサポートするためのインタフェースに関する検討を実施してきた.最終年度となる今年度は,特に(C)に関する研究を実施した. 具体的には,主に文書等をカメラで撮影した画像を対象として,その内容をテキストデータや音声データに変換して視覚障害者に伝える技術の開発と,視覚障害者をサポートする健常者のために点字で印刷された内容を,テキストデータに変換する技術の開発を実施した.いずれのシステムも深層学習をベースとした分類モデルをベースに開発した.特に,文書画像をテキストデータに変換するシステムは,Webシステムとして誰でも利用できる形で公開し,実証実験として視覚障害者の方に使っていただき評価を実施した.深層学習はレイアウト付き文書の構造を解析してテキスト化するモデルと,レイアウト付き文書のテキストの順序を最適化するモデルの2つに分けて実装した.データセットの量や計算量の問題で精度面で課題が残っているため,現時点では一部人手による作業が必要ではあるものの,実際にシステムを利用した視覚障害者からはポジティブなフィードバックを得ることが出来たほか,今後の改善点についても明らかとなった. 点字画像からテキストに変換する技術の開発は,先行研究として深層学習モデルの一つであるRetinaNetを用いた研究を参考とし,これまで光源方向を上側に固定する必要があった制約を取り除くために,様々な光源方向による点字画像をデータセットとして準備して学習を実施した.その結果,98%以上の精度で点字を認識することに成功している.これらの成果は国内学会にて既に報告済みである.
|