本研究では、多数存在するカメラ同士が相互に投影し合う相互投影に関する画像幾何を詳しく解析し、このような相互投影情報を積極的に用いることにより、従来では難しかった大量のカメラを精度良く校正する方法や、安定な3次元情報の取得、さらにはこれを応用した安定な仮想映像の生成やロボットの協調的視覚誘導の実現を目指している。 平成16年度は、5台以上の大量のカメラ間の関係をbifocal tensorを複数用いて表現する方法とtrifocal tensorを複数用いて表現する方法を解析し、カメラの相互投影情報を用いた大量カメラの安定な校正法を開発した。この結果、相互投影が存在する状況下においては、5台以上の大量カメラを校正するためには、最低4点の対応点が存在すれば良いことが明らかになった。 さらに、相互投影に基づく複数カメラの校正理論を基に、大量カメラを用いて任意視点映像を生成する方法を研究した。この結果、複数の固定カメラにより撮影した動きのあるシーンを、カメラの相互投影情報を用いてユーザカメラに幾何学的に正しく合成する方法を開発し、任意視点における仮想映像を従来法より安定に生成することが可能となった。また任意視点映像を生成するためには一般にシーン中の特徴点の対応を複数得る必要があるが、提案した方法では、従来より少ない対応点から任意視点映像が生成できることを示した。 一方で、提案した相互投影による複数カメラ校正法をロボットの視覚誘導に応用する研究も合わせて行った。この結果、複数のカメラ付き移動ロボットが互いのカメラに投影し合っている状況下において、これらのロボットが作るフォーメーションを常に保存するような協調的視覚誘導が、カメラの相互投影情報を用いることにより安定に実現可能であることが明らかになった。
|