本研究は,組み込み制御機器の開発を手がけてきた代表者と障害者のICT利用を進めてきた分担者及び肢体不自由児や病弱児等の各分野に専門化された特別支援学校の協力者と共同研究を行い,従来のインタフェースの上に,様々なセンサ類を組み合わせたマルチモーダル・インタフェースを提案する。このインタフェースではスイッチ操作に伴う不随運動の影響を除去する事で利用者の正確な意図性が抽出可能となる。これにより自分の意思を正しく伝える事が出来,学習支援や日常生活,さらには就労支援までを含めたサポートが可能となり,障害者の生活の質(QOL:Quality of Life)的向上が期待できる。 これまで応募者は,WEBカメラ画像に移動物体検出アルゴリズムを適応し,撮影対象の移動方向や動作の正確さに制限を受けず,どの方向に移動しても入力トリガーとして検出可能な入力インタフェースを試作してきた。しかし問題となったのが,身体動作の意図性で ある。そこで複数の入力インタフェースを組み合わせて,多角的な非相関の情報を得るシステムを作成している。この結果,従来の単一インタフェース入力だけでは解決できなかった使用者の意図性の真偽が判定可能となる可能性がある。 今までの研究実績からWEBカメラを用いたトラッキングシステムによる入力インタフェースは実際の現場においても実用できる可能性を示す事ができた。これらはコンピュータの入力インタフェース機能以外にも,日記や手紙などの文章作成等,日常生活においてもQOLを向上させる可能性を見る事ができた。しかし意思性を抽出するにはマルチセンサとしてのセンサ群が不足している事もまた運動モデルがまだ決定できていない事からも示された。これらセンサ群の追加が急務であり,これらの測定データを加える事で,より意思性を忠実に反映したより高度な手指の運動解析を行っていく必要がある事も示された。
|