本研究では、通常の視覚に依存したGUI(Graphical User Interface)を視覚障害者にとっても利用可能にした非視覚バーションである触覚GUIとそのアプリケーションとして触地図を開発する。そのために本年度は以下の3点を実施した。 1 入力機能を付加した触覚ピンディスプレイの開発 触覚ピンディスプレイを6軸力覚センサが支持することで、素手による直接入力機能を備えた触覚ピンディスプレイを開発した。既開発の知見から、6軸力覚センサの定格変更、通信方法の最適化、大画面化(32×48ドットから32×96ドット)等を行った。特に大画面化の改良は被験者実験の知見を反映したものであり、両手操作を可能とすることからユーザビリティ向上が期待できる。 2 非言語情報コンテンツ獲得支援 視覚ディスプレイのキャプチャを触覚ピンディスプレイへ変換すると、二値かつ単色相となり情報損失がおこる。これを解決するために、輪郭線の特定方法・抽出方法・変換方法などのアルゴリズムを装置に実装した。また、本デバイスと音声情報とを融合した基礎的なシステムを構築し、誰でも簡単にコンテンツを作成できるような仕様の検討を行っている。 3 リアルタイム更新制触地図の開発 触地図の元データとなる地図情報の取得・表示を行うシステムを、ネットワーク環境にあるパソコン上にGIS(Geometry Information System)を用いて構築した。数種のGISエンジンの試用・比較から、目的を満たすエンジンの選定を行った。 以上、デバイス、操作のための表示手法、コンテンツ提供のためのソフトウェア等、被験者実験へ向けた基盤整備を行った。
|