研究概要 |
マルチメディア技術の進歩に伴い,人間-計算機間の対話において,様々なメディアの利用が可能となったが,あるメディアを用いて意図がどのように表現されるかは,目的や個人によっても異なるため,ユーザの意図が計算機に適切に伝達されるには,ユーザ・計算機双方において,メディアと意図との対応付けを一致させる必要がある本研究では,視覚メディアを対象として,ユーザと計算機との対話を通じて,ユーザ自身の意図表現モデルを計算機が学習・獲得することを目指し,以下のような課題に関する研究を行った. (1) 仮想物体操作を通じた視差画像からの個人立体知覚情報の獲得 仮想物体操作における立体形状表示のためのメディアとして,視差画像が広く利用されているが,人間の立体知覚は両眼視差以外の要因にも影響されるため,仮想空間の視差画像からユーザが知覚する空間と元の仮想空間とは厳密には一致しないことが知られている.そこで,ユーザによる仮想物体操作の過程を通じて,その操作が成功するように仮想空間を変形することにより,両者を一致させる処理を実現した. (2) 表情コミュニケーションのための個人表情表現モデルの獲得 仮想都市や遠隔会議等でのコミュニケーションにおいては,少ないデータ量や匿名性が実現可能な表情伝達のためのメディアとして,合成顔が利用される場合が多い.この際,ユーザの顔の実画像から合成顔への変換が必要となるが,個人の顔の特徴は様々に異なるため,元の顔画像に幾何学的に最も近い合成顔を利用したとしても,ユーザが本来意図した表情が表現されるとは限らない.そこで,実顔画像と合成顔画像の正しい対応付げをユーザとのインタラクションを通じて対話的に獲得する処理を実現した.
|