前年度までに構築した基本システムでは,対話者の様子を,深度センサを用いてリアルタイムに点群データとして獲得する機能,獲得した点群データを,ネットワークを通して共有し,それぞれの対話者の実空間を拡張する空間に射影する機能,及び,仮想的に拡張された空間を自分の視点位置に応じてレンダリング表示することで運動視差に応じて提示する機能を持っている. 本年度は,まず,前年度までに構築したシステムでは,各対話者を観測する深度センサが1台であり,提示時に視線方向が大きく変化すると深度センサから見えていない部分が欠損し,違和感が大きくなるという問題があるため,これを解決するために,各対話者に対して複数の方向から観測できるように,深度センサを増設し,これらのセンサで得られる点群データを統合することで,欠損の少ない映像提示ができるように改良した. 次に,リアルタイム性の向上を行った.基本システムでは,現状では,提示する映像の更新頻度が約1Hzであり,特に運動視差に応じた映像を提示する場合に,視点位置に応じた映像が提示されるまでに大きな遅延が生じていた.これは,これまでのアンケート結果からも,違和感が生じる要因の一つとなっている.そこで,基本システムで実現している点群データの座標変換処理やレンダリング処理を,GPU (Graphics Processing Unit)を用いて超並列処理することでリアルタイム性能を向上した. さらに,指示の共有について,3DCGで構成した仮想物体を遠隔地間で情報共有する際に,物体への指示に関する情報を互いに送受信して提示することで,本研究課題の目標である,遠隔コミュニケーション下での視覚的共同注意が成立しやすくなることを検証した.
|