表情分析技術を用い、複数視聴者の顔情報から自動的に講演会等の評価分析を行う技術を構築した。開発されたシステムは、講演会中の視聴者の様子を映した動画データから表情・視線・顔向きの情報を抽出する技術(マシンビジョン)を用い、多人数の時系列データを基にして各時点における講演の評価を自動化を可能にした。 評価方法の高精度化と利便性は相反する要素であったが、今回の研究開発によって両立が実現された。網羅的に表情データを取得できる機構を内包することで、認識された各時点における顔情報の統合データの時系列情報から、講演等の全体構成に対する評価を実施することが可能になった。一方、表情・視線・顔向きの高精度データを取得する場合に、特定の聴衆の顔はシーンごとによって複数のIDに分割されてしまうが統合を可能にするインターフェースを開発したことで、全体の評価情報と個々またはグループごとの比較分析の機能の向上がはかられた。 研究目的に示した『場の空気』を解析する手法の開発として、視聴者の視線を統合し分析できるシステムを構築した。抽出された頭部および両眼部分の同一時刻の向き情報を統合し、その時点での演者の位置に合致しているか評価する機能である。この機構によって、講演中の視線の引き込み、または拡散の状況を定量的に把握することが可能になった。 さらに、分析可能な表情情報を笑顔(リラックス)だけでなく、驚き、怒り、悲しみ、無表情などの多様な情報を取得できる機能を実装し、新たな講演評価分析方法の開発を行った。学習的内容の講演に対する分析では、一定以上に関心が高まっていくとそれまで現れていた表情の多様性が減り、無表情(真顔)の出現率が高まるという傾向が取得された。
|