気分や感情といった人間の心的状態は,対話相手や外部からの音声(聴覚刺激)のみならず,自分自身の発する音声にも影響を受ける.本研究では,発話者の音声をアレンジして発話者自身にリアルタイムで聞かせることで,発話者に心的状態を誤認識させ,心的状態を誘導する技術を明らかにすることを目的とした.昨年度は,音声の韻律変化による自然な感情表現を実現するために機械学習を用いた感情認識プログラムを開発した.音声データの音量・音高を変換するEPROCsでは,もともと怒りの感情を表した音声データは,音声変換により異なる感情の付与がしやすかった.逆に驚きを表した音声データは音声変換の影響を受けにくいことがわかった.本年度は,発話者と聞き手で,気分や印象を決定づける発話要因が同一であるか確認する一環として,発話の音量・音声と頷きとの関係を調べた.機械学習により会話音声の音量と音高のみを使用して相槌の適切なタイミングを推定する.被験者には,ラジオでアナウンサーが1人で語る録音を聞いてもらい,頷くタイミングを示してもらった.識別器作成のための学習法として,support vector machine (SVM),K-neighbors classifier,Random Forest classifierの3種類で実験し,どの学習方法が適切か明らかにした.その結果,Random Forest classifierが最も精度が高かった.さらにRandom Forest classifierで用いるデータセットを編集し,より精度を高める方法を検討した.
|