研究概要 |
顔面筋に基づく顔構成要素モデルを用いた表情の認識手法を開発し,表情の時間的変化の認識について研究した. 顔モデルは,眉・目・口それぞれの顔構成要素の可変モデルから成る.各モデルは数個の制御点と顔面筋の収縮方向のベクトルで構成される.制御点の移動方向は顔面筋が収縮する方向と一致しているため,モデルの変形は実際の顔構成要素と同じ変形規則を持つ. 顔動画像にモデルをマッチングさせることで,顔構成要素の動きの追跡ができ,顔面筋の収縮度が求められる.得られた収縮度を要素とする表情パターンと,あらかじめ決定されている表情標準パターンとを比較することで各表情の表出度が得られる.表情表出度は,顔に表れている表情の明瞭さを示しており,値の大小から表情を識別する.また,表情表出度の時間的変移から表情の発生・持続・終了を検出できる. 実際の顔動画像に対して実験を行った結果,顔構成要素の動きを正確に検出できた.表情表出度から4種の表情について87%の認識率を得た.また,表情表出度の増減から表情の発生と終了を検出できることを示した.このような表情の発生過程の検出は,コンピュータとの対話や作業において,どのようなことを行った時に人の表情が変化したかを機械が理解するために重要であり、マンマシンインターフェースの向上に寄与するものである.
|