研究概要 |
23年度は,22年度に構築した基本機能を統合し,遠隔地間の共同注意を支援するための基本システムを構築した.具体的には,相手の姿を映すディスプレイを眼前に設置し,手元の情報を提示するために,ディスプレイのスクリーンを上に向けて設置してテーブル型ディスプレイとした環境を2組構築した.このテーブル型ディスプレイを拡張空間とローカルの実空間との間で幾何的整合性を持つような仮想現実空間を構築した.まず,対面ディスプレイの上に対話者に向けて設置した深度センサで対話者の様子を観測し,深度マップを獲得する.獲得した深度マップから三次元点群データを求める.遠隔地の対話者の環境で得られた三次元点群データは深度センサを原点とする座標系で表現されている.これを自分の実環境の延長上の仮想空間に,通信及び座標変換しながら再構成し,仮想現実空間を構築する.また,対話者に対して視覚的整合性を持った提示を実現するために,構築された仮想現実空間を対話者の運動視差に基づいて提示を行う.このような提示は,対話者の視点位置を推定し,この視点位置から観測可能なシーン映像を人物提示ディスプレイの画面上にレンダリングすることで実現した. 構築した基本システムについて,視覚的共同注意がどの程度支援できているかを評価するために,対話者の状況である運動視差を反映しなかった場合と反映した場合の2つ場合について実験により評価を行った.遠隔地の対話者が見ているオブジェクトが分かるかを,視線方向,指差し,の2つの指示方法で評価した.その結果,運動視差を反映しなかった提示では視線方向のみでは33%,指差しのみでは80%の正答率であったのに対して,運動視差を反映した提示では,視線方向のみでは47%,指差しのみでは100%と正答率が向上した.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
23年度までに,対話者の状況を三次元点群データとして獲得し,獲得したデータを用いて仮想現実空間を構築し,対話者の運動視差情報に基づいて映像提示を行う,一連の基本的な機能を持ったシステムが構築できている.
|
今後の研究の推進方策 |
今後は,GPU(Graphics Processing Unit)などを用いることで,処理性能の向上や,遅延の軽減など,リアルタイム性の実現を目指す.また,深度センサの台数を増やすことで,映像上の欠損のない,より自然な映像表現の実現を目指す.
|