Budget Amount *help |
¥2,900,000 (Direct Cost: ¥2,900,000)
Fiscal Year 2005: ¥1,000,000 (Direct Cost: ¥1,000,000)
Fiscal Year 2004: ¥1,900,000 (Direct Cost: ¥1,900,000)
|
Research Abstract |
様々な"時・所・人"において獲得された多視点映像の間の"時間・空間・人間"の連続性を復元し,それらの映像の閲覧作業を支援するシステムに関する研究開発を行った.本年度は,これまで獲得・提示を実現した多視点映像間の時間・空間の連続性に加え,人間,つまり画像を撮影した者の意図に由来する連続性の獲得・提示について取り組んだ.その際,「実空間は従来の研究で扱ってきた撮影スタジオのような空間とは異なり,被写体の位置姿勢や照明条件の制御がほぼ不能である」という問題に主眼をおいて,研究を進めた.具体的には,映像撮影と同時に,撮影空間の状況認識・理解を行うためのアノテーション情報の獲得を行うことを目的に,人体から放射される熱線を用いて識別情報を発信する方式を開発した.特殊機器の装着など識別対象者への身体的負荷が不要で,かつ安定した識別を可能であるため,日常生活におけるアノテーション情報の獲得が行える.また,被写体への制約がより少ないアノテーション獲得技術の開発を目的として,街角に設置された監視カメラを用いた個人誌別技術の開発を行った.被写体が何気なく空間中を散策する間に,その見え方情報を獲得・更新し,より精度が高い識別が可能になると言う特長を有する.獲得したアノテーション情報を用いて,撮影者や映像製作者の意図を表現する手法を開発した.自由視点映像を撮影する仮想カメラの位置姿勢,ズーム値などのカメラパラメータを,アノテーションによって記述された撮影対象空間のコンテキストに依存して設定する方式を開発した.この際,仮想カメラのカメラワークに映画の文法に基づいた拘束条件を与えることにより,視聴者が生成映像から受ける印象を向上させることが可能である.
|