研究概要 |
本研究では,カメラに搭載された車両群を動的なユビキタスカメラ群とみなすことにより,これらの道路上の大量の動的カメラを協調し,3次元道路情報を復元、提示することを目的としている。 平成19年度は,前年度に導出した3次元空間に時間軸を加えた4次元空間における多視点幾何を発展させ,4次元空間においてカメラ同士が互いに投影し合う相互投影状態が生じた場合において成り立つ新たな多視点幾何の性質を明らかにした。この結果,カメラ同士の相互投影が2時刻間観測できる場合には,その他の対応点を一切用いずに,カメラ間の多視点幾何が計算可能であることが明らかになった。この方法は,カメラ間の校正を対応点を一切用いずに安定に実現できる非常に優れた方法である。なお,この研究のベースとなる4次元空間における多視点幾何理論は国内外の学会で発表し,国内最大のコンピュータビジョン会議である「画像の認識理解シンポジウム(MIRU2007)」においては特別セッション賞を受賞した。 また,これらの多視点幾何研究をベースに,車載カメラより得られた多視点画像より,お互いの視点から死角となっている箇所をシースルー表示する仮想死角映像生成技術を開発した。特に互いのカメラ間の幾何学的な関係を複数の幾何学的な変換によって近似することにより,適切なドライバー視点変換が可能であることを示した。実際に車載カメラから得られた映像を用いた実験により,ドライバーにとって非常に有益な死角シースルー映像が適切に生成できることを確認した。 さらに,多視点幾何情報を用いて時空間においてカービングを行うスペースタイムカービング法を開発し,多視点画像情報から対象物の静的な3次元形状や位置のみでなく,対象物の時間的変化を復元することに成功した。このスペースタイムカービング法により複雑な形状を持つ時間的に変化する物体を対応点を用いずに復元することが可能となった。
|