研究概要 |
本研究計画では人間のコミュニケーションにおける情報処理の実体を多元的に解析することを目的として、顔の表情からの情報要素を調べた.眼球の運動については、情報のポインタ(指示器)としての利用の可能性を調べ、唇の運動からは、ことばの理解のための補助手段として利用可能かどうかを調べた. A.研究用計測実験システムの構築 映像と音声とを同時に記録・解析する必要があることから,われわれがすでに所有している生体信号解析システム(昭和62年度文部省私学研究助成補助金により整備された)を利用することができた.一部,映像処理用のワークステーション,映像入力用回路,メモリについては当科学研究費補助金の援助を得た. B.研究成果 (1)唇の特徴抽出について: 1.唇の縦幅、横幅、前歯の縦間隔の3個のパラメータを用いて、11種の子音の識別を試みた。識別は概ね成功したが、/k,g/と/r/については混同した。 2.混同の原因のひとつは、画像のフレームレートが低いことである。そこでビデオ信号のラスターを画像処理で補間する方法を考案し、コンピューターシミュレーションで確かめた結果、時刻の精度をかなり向上できることがわかった。 3.これらの成果はいくつかの学会論文として出版された.また,詳細は金沢工業大学博士論文・修士論文としてまとめられた. (2)眼の特徴抽出: 1.まず首を固定した条件で注視点の抽出実験を行った。被験者にマトリクス状のターゲットを注視させ、虹彩の画像から注視方向を推定するという方法で、注視点の再現性をしらべた結果、かなりよい精度で注視点の相対関係が再現できた。 2.同様な実験を首を固定しない条件下で行った。原データのままでは、注視点の推定位置は現実のものとかなり異なったが、特定の座標変換を行うことによって、首を固定した条件とほぼ同等にまで注視点の位置を再現できた。 3.これらの成果はいくつかの学会論文として出版された.また,詳細は金沢工業大学修士論文としてまとめられた.
|