研究概要 |
スクリーンリーダや音声読み上げソフトウェアは,文字情報を読むことができない視覚障害者に音声で情報を提供するものであるが,図,写真,表のような二次元情報を視覚障害者が理解できる形で提供することが難しい.文字情報を含まない写真においては,代替テキストを提供することで視覚障害者に対応させる方法がとられている.他方で表のように主に文字情報の二次元配置から成るものは,一般的に一次元的な音声情報として提供することが難しい.そこで本研究では,図形,文字の両情報を適度に含む地図(主に略地図)を取り上げ,視覚障害者の地図読み(以下,読図と呼ぶ)を支援するシステム開発に着目した.ヒトの読図方法に共通するリテラシーがあれば,それに基づいて音声案内する読図支援システムの開発が可能であると考えられる.本年度は,主に健常者が読図する際に,視線をどのように動かすのかを注視点検出装置や拡大読書器を用いて調べた.被験者を新潟大学周辺のアパートに住む大学生,大学院生の2名とした.被験者に道路ネットワークのみから構成される地図(地図A)と神社,小売店,駅などのランドマークを黒点表示したものから構成される地図(地図B)を提示し,そのときの視線の動きを計測した.その結果,実際の地図上の位置と被験者が注視した位置の差(絶対誤差)は,地図Aよりも地図Bの方で大きくなることが判明した.地図Aには文字等の記号は一切なく,逆に地図Bには個々の黒点は表示されているものの,それらを地図として結ぶ判断材料となる表示はなされていない.次年度はこの点を解析することと,視線の動的変化を調べることが課題である.
|