本研究期間を通じて目標としていたのが,音響的特徴から話者感情を推定する技術とテキスト情報から話者感情を推定する技術について研究をすすめ,それらの出力の関係性を用いて複雑な心理状態を推定することであった.最終年度は,過去2年間で研究した音響的特徴からの話者感情推定手法と従来提案していたテキスト情報からの話者感情推定手法に加え,既存の表情推定技術を用いて発話全体の感情を推定する手法を考案し,それら3つの感情をリアルタイムで推定する技術の開発を行った.さらに,話者感情推定手法の応用として,話者感情を考慮した対話システムも構築した.そして,この提案システムで用いる“感情を考慮した返答生成ルール”の自動生成手法も提案した.さらに,対話を通じて話者の嗜好情報を自動的に学習し,その後の対話展開に反映できる対話システムも構築した. 音響的特徴からの感情推定技術については最終年度も引き続き行っており,ソフトクラスタリングを用いた複数感情の生起状態の検出手法や,機械学習のための大規模感情音声データベースの構築も行った. 昨今,ユーザの感情を考慮したコンピュータに関する研究が注目を浴びつつあるなかで,本研究成果はそのさきがけとなるものであることから,社会にとって重要の意義のある研究であったといえる. 今後の研究展開については,本研究の成果であるリアルタイム感情推定システムについて2017年5月の人工知能学会全国大会で発表予定である.また,感情音声データベースについては,データ数をさらに増やして研究用に無償公開する予定である.
|