本研究の第1年目にあたり平成17年度は以下の検討を行った。 1.感情を表現する音声資料の収集と評価 音声合成を目的とした感情表現のモデル化を目的として、演劇経験のある男女8名の協力を得て、短文を複数の強さの感情を込めて読み上げた音声を収録した。取り上げた感情は喜び、悲しみ、怒り、怖れの4種で、同一のテキストに対して、中立な発話に加えて、弱、中、強の3段階で感情の強さを変化させた。また、聞き手がどの程度の強さで感情を受容するかに関して、収集した音声資料のうち約半数について聴取実験により主観評価値を求めた。 2.感情の程度と基本周波数パターンとの関係の分析 1.で収集した音声資料について、基本周波数パターンの特徴をその生成過程モデルに基づいて求め、感情の程度に対する変化を調べた。喜びと悲しみの感情について、感情の程度に対する各パラメータの値を簡易的に線形補完する方法で感情制御規則を求めて、合成音声による評価を行った。 3.感情識別のための特徴量と性能に関する評価 感情の自動認識・識別のための感情表現のモデル化を目的として、できる限り自然な対話環境での怒り発話を収録し、怒りの程度を識別するための音響的特徴量について検討を行った。また、発話の言語上の表層情報と音響的特徴量との関係についても調査を行った。 4.対話における感情表出と行動の評価 対話可能なロボットPDDINの開発を通じて、コミュニケーション能力の向上を目指して、感情表現の実装と評価を行った。具体的には「ごきげん」「あいじょう」の2つのパラメータによって感情を表出する手法を提案・実装した。対話者感情を推測し、システム自身の感情を変化させて、発話と行動と選択させた。
|