研究概要 |
本年度は,ポータブルな教授環境を構築するために,遠隔地の教授者が装着したヘッドマウントデイスプレイにジヤイロセンサを搭載し,講義室に見立てた部屋に設置した全方位カメラの映像を直感的なジェスチャに基づいて獲得するシステムの構築,及び,話者としての受講者の位置を推定するシステムの構築を行った.具体的には,ジャイロセンサで獲得した頭の向きに関する情報を遠隔地の計算機に送信し,全方位カメラで獲得される全方位画像から,顔の向きに相当する部分のみを切り出して,ヘッドマウントカメラが接続された計算機に送信するシステムを構築することによって,遠隔地に存在し,かつヘッドマウントディスプレイを装着した講師が,講義室内の自分が見たい受講者を見ることができるシステムを構築した.また,遠隔地から講義室の様子を確認するために,講義室における話者を自動認識し,被写体として撮影するシステムを構築した.このシステムは,音源位置同定のために前年度に構築したマイクロホンアレーにCSP法を採用し,複数のマイクロホンの対に対する音源方向推定の結果を統合することにより,ロバストな音源位置推定を実現する.前年度までに構築した,状況統合ソフトウェアの推定結果に基づくパン・チルト・ズームが可能なカメラを制御する自動撮影制御ソフトウェア,及び,情報獲得,情報統合,自動制御の各ソフトウェアをクライアントとするサーバクライアントモデルに基づくシステムと,本年度構築したシステムを組み合わせることにより,遠隔地に存在する講師の映像を受講者が確認できるだけでなく,講義室に存在している受講者の様子を講師が確認できる,双方向コミュニケーションが可能なポータブルな教授環境のプロトタイプシステムを構築することができた.
|