研究概要 |
本研究では,複合現実感を実現する副作用として欠落する視覚情報を補完し,さらに一層増強するためのパターン認識・理解技術を研究する。具体的には,複数の人間の視覚的な情報交換の基本である,(1)互いの顔や動作を視認することによる相手の状態把握のための視覚支援,(2)指差しなどによる第三物体への注目の共有のための視覚支援,の2点について,これらを自然なかたちで支援できる複合コミュニティ空間のプロトタイプ構築を通して,人間が中心の実時間対話環境を前提とした新しいパターン認識・理解の枠組みを追求する。 本年度は,HMDを装着した人間どうしのアイコンタクトを可能にするためのリアルタイム顔画像加工技術,動作及び発話からの指示物体認識技術の開発を並行して行った。これらの処理を高速・高精度で行うために必要となる位置姿勢センサを導入した。 〇以前からの研究の蓄積を持っている,実写画像を基にした任意方向・任意表情の顔画像の合成手法をベースに,本年度は,HMDをかけた人物の顔にHMDをかけていない状態の顔画像を重ね合わせるために必要となる,顔映像合成のリアルタイム化を研究した。 ○人間のコミュニケーションにおいて特に重要である指示動作・例示動作を注目共有に利用するため,昨年度に研究を進めたプレゼンテーションにおける指示動作・例示動作を抽出する方法をベースとして,リアルタイムで注目物体を追尾する手法について研究した。
|