研究概要 |
2011年度の目標は視線・表情データに基づく相互注視成立判定方式の提案であったが,相互注視の成立だけを扱うのではなく,コミュニケーションにおいて相互注視が担う機能に着目し,相互注視が成立することにより,コミュニケーションにおいて具体的どのような効果が得られるかを中心に研究を進めた.その結果を,以下2点にまとめる. (1)会話参加態度推定:ユーザがエージェントとの会話に積極的に参加しているか否かを推定する方式の改良を行った.今年度は,従来の注視対象の遷移パターンに加え,エージェントとの相互注視を含む各注視対象への注視時間や瞳孔径等の情報,さらには頭部動作の情報も加え,非積極的態度の検出精度F値0.753を達成し,従来の我々の提案方式よりも精度を向上させることに成功した. (2)受話者推定:ユーザ2名とエージェントとの多人数会話を想定し,ユーザが誰に話しかけているのかを推定する受話者推定方式の研究に取り組んだ.受話者推定には,話者が受話者の方を見ているという顔向きの情報に加え,情報提供者であるエージェントと友人同士であるもう一人のユーザに対してとでは話し方が異なることによる韻律的な特徴が利用可能であると考え,SVMを用いた韻律情報と顔向き情報による受話者推定モデルを作成した.その結果,受話者推定精度80%を達成した. また,もう1つの目的である,コミュニケーション障害の解明や支援への応用については,認知症患者とエージェントとのコミュニケーションを分析し,次のような成果を得た.まず,患者であるユーザに,体調や日々の生活について質問をすることにより,ユーザの話を聞く,聞き手エージェントを作成し,エージェントからの語りかけにどの程度よい反応をしていたかを応答までにかかった時間,頭部の動き,頷き回数等を指標に分析した.その結果,反応性の良さには人により違いがあることがわかり,コミュニケーションの問題点を発見する評価指標として利用できる可能性を見出した.
|
今後の研究の推進方策 |
24年度は予定通り,23年度に開発した技術を実装し,全自動の会話エージェントを開発することを目標とする.また,コミュニケーション障害への応用については,会話エージェントを通した,コミュニケーション状態の自動評価・診断を研究の中心的テーマとし,実用化に向けた検討を進める.
|