研究領域 | 学際的研究による顔認知メカニズムの解明 |
研究課題/領域番号 |
23119723
|
研究種目 |
新学術領域研究(研究領域提案型)
|
配分区分 | 補助金 |
審査区分 |
複合領域
|
研究機関 | 東京電機大学 |
研究代表者 |
武川 直樹 東京電機大学, 情報環境学部, 教授 (20366397)
|
研究期間 (年度) |
2011-04-01 – 2013-03-31
|
研究課題ステータス |
完了 (2012年度)
|
配分額 *注記 |
6,240千円 (直接経費: 4,800千円、間接経費: 1,440千円)
2012年度: 2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
2011年度: 3,510千円 (直接経費: 2,700千円、間接経費: 810千円)
|
キーワード | 顔表情 / 微妙な表情 / 表情モデル / 表情認識 / 対話システム |
研究実績の概要 |
会話中の視線,顔の向き,微妙な表情・仕草に着目して,相互に表出される仕草と発話交替,発話意図の時間発展を定量的に分析して,以下の成果をあげた. 前年度の成果である3名3組の女性による実空間,映像会話のシーン270分の収録データを用いて顔表情・仕草の書き起こしを継続した.次に,会話中の人の表情とその人の感情などの内部状態や意図を関連付けるため,「信念」「認知」「感情」などのコミュニケーション機能を果たすと考えられる34カテゴリ,具体的には,会話中に参与者から表出される内部状態(「考えている」「理解している」など),や意図(「伝えたい」「話したい」など)をPoggiらのMind marker(2004)を参考に用意した.このカテゴリに基づき,会話映像を使って,評定者が実際の参与者の仕草に上記カテゴリを付与,さらに言語内容,視線,頷き,表出のタイミングなどのシグナルを付与した.以上のデータを定量的,事例的に分析し,心的状態は時間発展の中でいくつかのシグナルの組合せで表現されること,話し手,聞き手の参与役割に応じてカテゴリの表出頻度に特徴があることを明らかにした.これらは会話エージェント,会話ロボットの表情動作生成,表情認識の設計に寄与する成果であると考える. さらに,ロボットと人の円滑な会話を実現するため,発話交替時に人が表出する「話したい」,「話さなければ」,「聞きたい」,「聞かなければならない」,「無表情」の態度を表情から認識するシステムを検討した.主成分分析,SVMを用いて表情画像から認識を行ったところ,入力データに対して63.5%の認識率を得た.これは人とロボットが会話を行うために,最低限必要な性能水準にあると考える.また,平均顔を可視化した結果,認識にとって口の変化が重要な特徴であることを示した. 「顔を科学する―適応と障害の脳科学―」を分担執筆し,成果に寄与した.
|
現在までの達成度 (段落) |
24年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
24年度が最終年度であるため、記入しない。
|