研究概要 |
1.はじめに:我々は音声の研究を行なっているが、本研究では、唇や眼の特徴を調べることによって、人間のコミュニケ-ションにおける補助情報として応用できる可能性を探っている。 2.予備実験:本年度は、唇と眼の運動の特徴抽出の予備実験を行なった。唇についても眼についても、頭部を固定した条件で、唇の部分もしくは片側の眼の部分を拡大して撮影した。 3.唇の特徴抽出:唇の内側の上下幅・横幅、および上下前歯間距離をパラメ-タとした。その結果、(1)/aCa/(C:13子音)の発話環境で、口唇音/p,b,m/、歯茎音/t,d,n/など、調音点の異なるグル-プ別に7個のグル-プに区別できた。(2)さらに、口唇音/p,b,m/については、開大・閉小の速度・加速度の大小に着目することによって、それぞれをうまく区別できた。 4.眼球の動きの特徴抽出:注視点を移動する場合の眼球(片側)の動きを調べた。画像から虹彩の中心を計算して、眼球の向きと対応させた。その結果、(1)マトリクス状に配置された点群の注視に対して、虹彩の中心は、ほぼ各点を区別できるような対応を示した。ただし、水平より下側を(つまり俯角で)注視する場合は、理想的な相対位置より上方に寄る傾向を示した。(2)1点の注視に際しても、短い時間構造での微細変動が観察された。したがって、この変動分以下の空間精度で、注視位置を推定することは困難なことを示唆する。 5.まとめ:(1)唇については、少なくとも頭部固定の条件下においては、原理的に、読唇の自動化の可能性を示唆する結果がえられた(2)眼については、予め設定された目標点群を用いる場合は、注視方向を推定でき、それを指示手段として利用できる可能性を示した。
|