Research Abstract |
チャットユーザが望むチャットの雰囲気をユーザの発言から推測し, ユーザの分身であるCGキャラクタが表出する表情や視線などといった非言語情報を, その雰囲気が再現されるよう自動的に制御することを目標としてシステムの実装および複数の調査を行い, 以下の成果が得られた. 1. チャットにおけるユーザの入力と雰囲気との関連について, ある雰囲気が強く感じられるときには, 単位時間あたりの文字数の増加, 返信までの時間の短縮, 顔文字出現頻度の上昇が見られた. この結果は, 非言語情報の数値化に重要な役割を果たす. 2. 調査により判明した, チャットで頻出する雰囲気である歓喜・愛慕, 悲嘆, 驚嘆の3カテゴリに加え, 怒り, 通常状態, 頷き・視線を向けるなど感情を伴わない行動のカテゴリの顔文字を用意し, 日常会話を想定してチャット実験を行ったところ, 用いたカテゴリはユーザの感情や雰囲気を伝えるのに十分であった. 3. 実験から得られた入力データをもとにキャラクタによる会話映像を作成し, 盛り上がりの度合, 雰囲気の表現方法について調査した結果, 以下の知見が得られた. (1) チャット非参加者は, 参加者がチャット時に感じた雰囲気を生成映像から感じ取ることができた. (2) チャット参加者は, チャット時に感じた盛り上がり・感情表現が, 生成映像においても一致していると感じる傾向があった. (3) 本手法により, 対話相手との心的距離が近くなると感じる半面, 暗喩などにより文章そのものの意味と感情カテゴリが一致していない部分では違和感を与えた. (4) 雰囲気, 表情などが変化する際の補間が不十分であったため, 被験者から改善を求められた. 4. チャットに組み込むために, 表出量の計算の高速化が必要であることがわかった. 以上より, チャット入力からキャラクタが表出する非言語情報および対話雰囲気の再現は可能であり, 完全自動化及び医療現場への応用にむけての基礎技術が確立された.
|