本研究の目的は、動画像情報をコンパクトに表現する新たな枠組みを開発し、それをマルチメディア信号の符号化・圧縮、コンピュータビジョン、人工知能などの様々な技術に応用することである。本年度は特に、これらの基礎となるアピアランスモデルによる動画像のモデル化手法について検討した。得られた成果は以下の通りである。 1.2次元隠れマルコフモデルを用いた動画像のモデル化に関する検討 アピアランスモデルとは、入力された画像の見た目をそのままモデル化するものであり、動画像に含まれるオブジェクトの動きは、基本となるモデルを変形させることで表現される。本研究では2次元隠れマルコフモデル(2DHMM)を用いることで基本となるモデルを生成(学習)し、オブジェクトの動きは2DHMMの状態系列の変化として表現可能であることを明らかにした。 2.アピアランスモデルの動画像符号化への応用に関する基礎的検討 2DHMMを用いて動画像をモデル化することで、情報は基本となるモデルと各シーンの状態系列によって表現されることになる。モデル自体の情報量は非常に小さいため、状態系列をいかにコンパクトに表現できるかが重要となる。ここでは、従来のエントロピー符号化を用いることでも十分に情報をコンパクトに表現できることを示した。また、空間的な情報をウェーブレット変換によって予め圧縮しておくことで、さらに符号化効率が向上することが明らかになった。 3.アピアランスモデルの顔アニメーションへの応用に関する基礎的検討 提案した符号化手法は広い意味でのモデルベース符号化であるため、用いるモデル間の対応関係が正しく成り立つ場合、復号化の際に異なるモデルを使用することが可能である。本研究ではこのアイディアを顔の変換に応用することを検討した。つまり、ある人の顔のモデルによって、その人物の顔アクションを符号化し、復号化の際には他人のモデルを用いることで、顔アクションをあたかも他人が起こしたかのように再生することができる。この技術は、ビデオチャットなどへの応用が期待できる。
|