研究概要 |
計算機による人間の表情の理解は,よりよいユーザインタフェースの構築のために重要な技術である。ユーザは装置(たとえば計算機)を自由に利用し,計算機側はビデオカメらをとおしてユーザの表情を実時間認識してユーザの反応(操作方法がわからず困惑している,など)を確かめ,必要なサポート(たとえばヘルプメッセージの表示)を行なうことが可能になる。 本研究では,個人ごとに採取したテンプレート群を利用して実時間マッチングを行なうことで,表情構成要素の追跡と認識を行なった。多数のテンプレートを利用することで,的確な認識が可能になるとともに,より多様な情報の取得も可能になる。さらに,テンプレート空間内での軸跡を用いて,表情の動的変化の認識も可能となる。しかし,その際に問題になるのが,それら多数のテンプレートについて,それぞれが表わしている状態を付与することが困難になる点である。 これを解決するために,多数のテンプレート群に対して,相互の相関値をもとに自動的に状態値を付与するためのアルゴリズムを考案した。次にそのアルゴリズムの収束性を実験的に確認したのち,実際に採取したテンプレート群にそれを適用して結果を得ることができた。具体的には,様々な視線方向をもつ目の画像群を,その視線方向にしたがって並べなおすことに成功した。 このアルゴリズムを利用することで,テンプレートの自動採取,自動組織化が可能となり,表情認識における個々のユーザの相違を吸収することができると考えている。
|