研究概要 |
(1)はじめに 本研究では人間のコミュニケーションにおける情報処理の実体を多元的に解析することを目的として、眼球と唇の運動の情報要素を調べた.眼球の運動については、情報のポインタ(指示器)としての利用の可能性を調べ、唇の運動からは、ことばの理解のための補助手段として利用可能かどうかを調べた. (2)ヒューマンインタフェースとしての応用の成果 A.眼球の運動 1.眼球の動画像情報から注視方向を求める方法を自動化する効率的な方式を開発した. 2.注視方向を求める方法を高速に処理する方式を開発した. 3.上記の処理をおこなうソフトウエアを開発した. 4.注視による文字ポインタのプロトタイプを完成させた.これは,CCDカメラと光源とパーソナルコンピュータを組み合わせた装置で,判断・制御はソフトウエアで行う.注視による文字入力のテスト実験を行った.この成果は,金沢工業大学修士学位論文にまとめられた.はビデオ画像として記録されており,実演可能である. B.唇の運動 1.口唇破裂子音の生成過程をモデル化して,筋収縮の情報から口唇の形状・運動を自動生成する方式を開発した。 2.口唇形状・運動と,音声の聴覚的な特徴抽出との関連を実験的に調べ,音の情報を補うための口唇形状の特徴を見い出した. 3.これらの成果は,「機械による読唇」の方式開発のために役に立つ. (3)本研究の成果にもとづく展望 眼球の動きをポインタとして利用する目的は、たとえば、脳梗塞や脊椎損傷などで、四肢の運動障害や発音障害が起った場合などに、眼球の動きでキーボードのような対象物を指示できるようにすることである.また、唇の動きは、主にいわゆる読唇の目的で利用するものだが、とくにさまざまな子音をどれくらい有効に識別できるかについてかなりの可能性を見い出した.
|