研究概要 |
本研究は,これまでに試作・検討を進めてきた,随意的な眼球運動のパターンを非侵襲・非接触に検出できる「眼球運動画像検出装置」を入力インターフェイスに用い,視覚情報に依存しない独自の単音節選択型キーボード(アプリケーションソフトウエアの開発)と組み合わせて総合的なコミュニケーション支援システムの構築をすすめ,その実用化を最終目標として実施した.従来からの視覚能力に依存したコンピュータ入力デバイス及び周辺機器に代えて,聴覚情報による文字入力を可能とし,視覚情報処理にあたる利用者の視覚機能の負担を軽減し,モニター機器を必要としない極めてコンパクトな機器構築によるコミュニケーション支援システムを開発することに主眼に置いた.また,独自に検討・開発してきた眼球運動検出装置を文字選択のための発信手段とし,本機構を活用したコミュニケーション支援システムの有用性を検証した.以下の5項目に準じて企画実施した. 1:音声情報のサンプル収集,識別受信可能な提示音声の音質特性を明確化. 2:提示音声の最適な発声長・音圧を検討し,提示音声の可聴認識率に関する基礎実験を実施. 3:文字提示時間の最適条件の検討と明確化. 4:音声情報選択のための文字配列と選択条件の検討. 5:単音節音声選択型キーボードの構築とアプリケーション・ソフトウエアのプログラミング. 6:利用者の発信機能の検討と「眼球運動画像検出装置」を介した本システムの有用性の検証. 聴覚からの文字音声情報を任意に眼球運動によるコマンド発信によって文字選択することが可能であった.提示間隔は0.5secが最適であり,操作性の学習を経た入力では,1文字/5sec程度で入力することが可能であった.重度障害者(児)や進行性神経筋疾患者(児)の外界とのコミュニケーション手段として有用に応用出来るものであると考えられた.
|