弱視者が持っている視覚機能を活用して,生活空間での活動を円滑に達成するために,カメラ等を通して得られる視覚情報から活動に有用な情報の抽出を行い,加工された視覚情報や,音,触刺激といった視覚以外の情報等により提示することで,弱視者の円滑な活動を支援するシステムを開発することを目的とし,次の研究を行った. 1)ユーザの身体的負担の軽減や機動性確保を志向したウェアラブルな歩行環境認識システムを提案した.システムでは,測域センサの姿勢を傾きセンサで随時求めることで,センサから地面までの距離を照合し,歩行可能領域を判定する.このシステムにより,カメラの設置姿勢などの厳密なセッティングを行うことなく,機動性・携帯性の高い歩行支援が可能となることを示した. 2)弱視者は像がぼやけて見えるために,距離感の把握が困難であり,日常生活においてストレスを感じる場面がある.本研究では,自身のサイズを埋め込んだQRコードを物体に貼付し,手元に装着したカメラで撮影することで撮影したカメラ画像からQRコードを検出し,QRコードをカメラ画像の中心で撮影するように音声で手を誘導させる.QRコードを正面からカメラで撮影することでカメラから見たQRコードの大きさとQRコードから取り出した形状情報を比較しカメラからQRコードの貼付された物体までの距離を推定する.カメラ画像の中心でQRコードを捉えた場合,推定した距離を音声により使用者に提示する.距離の指示に従い手を物体に近づける際にQRコードがカメラ画像の中心とずれてしまった場合,再び音声により方向の指示を行いカメラ画像の中心でQRコードを捉えるように誘導する.この操作を繰り返し行い使用者の手を物体まで誘導する.提案システムを被験者実験により評価し,有効性を確認した.
|