研究概要 |
本年度は,以下の各項目について実装を行った。 (1)言語非言語動作の認鐵とあいづちの生成:アパタに相槌を打たせるためには,音声単語が入力された時間や,「あれ」「あの」などの指示語が入力された時間検出と並行して,入力音声文の解析を行わねばならない。京都大学で開発されたジュリアスを用いて,これらの時間計測とHHMによる連続音声解析を行わせた。実際の発話時間と計測された発話時間には30ミリ秒程度の差異があったが、計測値が算出されると同時に,スクラムネットを介してアパタ描画部に頷き動作生成を行わせた。さらに,アバタの頷き動作時に「はい」と音声でも相槌を打たせた, (2)ステレオ網膜チップの作成とユーザーの行動の実時閥認識:同じ画像を網膜チップカメラとCCDカメラに入力させながら,4期のカメラの同期を取る機構を開発した.網膜カメラの差分画像が消失した際にキャプチャーした画像をHSV変換して検出された手形状が指差し動作をしているかを分析後,人差し指の先端と根元を検出することによって,左右百像上での対応を求めっ指差し方向の検出を行った。 (3)言語芹言語動作の照合システムの作成:指差し動作解析と指示語がほぽ同時に検出された場合、人が指示動作を行ったと解釈できる。しかし現在、言語処理システムはスクラムネットに組み込まれていないため,正確な照合は未完であるが,短時間に指示動作が連続しない限り照合可能と思われる。. (4)言語解析システムの作成:言語解析に時間がかかるため,発話の終了後直ちにアパタに適切な応答をさせることは困難である。そこで,この間にアバタに適当な受け答えをさせることによって,利用者に遅延を感じさせない工夫を加えた。
|