研究概要 |
1.はじめに 本研究では,人間のコミニュニケーションにおける情報処理を多元的に解析して,顔の表情,とくに眼球の運動からは情報のポインタ(指示器)として,また唇の運動からはことばの理解のための補助手段(読唇)として利用しうるかをしらべ,コンピューターのためのヒューマンインタフェースとしての可能性を探っている。 2.眼球の運動についての実績 目で(注視した方向で)なぞるキーボードへの応用を想定して,キーボードへの仕様を検討した。 a.キーの数:まず,前年度におこなった基礎データの集積を続行した。得られた結果は,(1)1個の注視点の視野角のばらつきの範囲は3〜5度である。(2)指示器としての応用で,使用に適当な視野の範囲は視野角で約60度(縦・横)(3)その視野内で指定可能なポイントの最大数は(2次元の配列として)約100である。日本語のかなを扱うことができる数である。 b.入力方法:文字や文章の入力を想定したとき,キーの配列はどのようにしたらよいかについて調査した。日本では,絵文字のようなキー配列を一部の失語症者などに使っているという情報を入手したが,文字のキーボードの検討は行われていないことがわかった。目下,計量言語学的な観点から,文字の配列を検討中である。 3.唇の運動についての実績 a.類別実験:前年度は、/aCa/(C:子音)の単独発話についてのみ実験したが,本年度はVCV(C:子音、V:5母音)に対象をひろげ、さらにこの擬単語を“これは...です。"という文章中に挿入した,より自然な発話環境で実験し,3種のパラメータの時間変化をもとに,各母音毎・各子音毎に,音韻の類別を試みた。 b.調音のモデル化:唇の筋電図の情報から唇の形状を生成するモデルを構成した。これにより,特定の音韻を発話するときの「生成側」からの重要な特徴を知ることができ,a.の類別結果をうらづけることが可能である。
|