研究課題/領域番号 |
20K03101
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分09070:教育工学関連
|
研究機関 | 日本薬科大学 |
研究代表者 |
村井 保之 日本薬科大学, 薬学部, 教授 (30373054)
|
研究期間 (年度) |
2020-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2022年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2021年度: 2,860千円 (直接経費: 2,200千円、間接経費: 660千円)
2020年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
|
キーワード | 視覚障害 / AI / 歩行支援 / 視覚障碍者 / 歩行者検出 / 学習済みAI / 視覚障碍 / 深層学習 / 行動認識 |
研究開始時の研究の概要 |
本研究は、視覚障害者の行動認識支援、特に、近接空間を理解するための携帯端末による支援を提供することを目標にしている。環境などの外的要因の分析だけでなく、不十分な情報や手がかりのない状況下での、視覚障害者が置かれている状況等の内的要因も分析することで、歩行時の偏軌傾向を含む様々な偏行状況を修正する支援手法を構築し、行動認識全般に渡る視覚障害補償支援を目指している。 目の前の状況説明と,正しい状況への改善を援助者なしに視覚障害者のみで行えるような支援技術を開発する。また、視覚障害者への歩行支援や生活支援だけでなく,学習支援も含めた様々な行動認識支援を目標とする。
|
研究成果の概要 |
本研究では、視覚障害者の行動認識支援を目指し、携帯端末を活用した近接空間理解支援システムを試作した。試作したシステムは、カメラで進行方向を撮影し、AIによって安全に歩行可能な領域を検出しディスプレイに表示するとともに音声で示す。利用者は、ディスプレイ上の歩行可能領域の位置に基づき、カメラと体の向きを音の高低を頼りに調整して進行方向を決定する。この操作は、視覚障害者に対して手を取って方向を示す効果をもたらす。このシステムにより、視覚障害者が安全かつ自立した歩行を実現することが期待できる。
|
研究成果の学術的意義や社会的意義 |
これまで、視覚障害者の歩行支援技術が多く提案されてきたが、主な取り組みは歩行環境画像からの文字認識や横断歩道の識別などの位置特定であり、不十分な情報や手がかりのない状況下での危険回避は困難であった。また、視覚障害者が撮影した画像からの行動認識には、撮影した画像に必要な情報が映っていないなど、行動分析や機械学習に制約があった。 視覚障害者は歩行時に目標に向かいまっすぐに歩けない「偏軌傾向」があり、転落事故の原因であった。このため、視覚に代わって偏軌を修正するために、手を取って示すことが有効な手段とされる。これらの背景から、視覚障害者の歩行支援における近接空間認知支援の開発が求められている。
|