本研究では、空間中に多数存在するカメラ同士が相互に投影し合う相互投影に関する画像幾何を詳しく解析し、このような相互投影情報を積極的に用いることにより、従来では難しかった大量のカメラを精度良く校正する方法や、安定な3次元情報の取得、さらにはこれを応用した安定な仮想映像の生成やロボットの協調的視覚誘導の実現を目指した。 この結果、相互投影情報を用いることにより2台から4台までのカメラ間の関係を表すMultifocal Tensorがより少ない対応点からより安定に計算できることが明らかになった。さらに、5台以上の大量のカメラ間の関係をMultifocal tensorの連鎖により表現する方法を示し、カメラの相互投影情報を用いた大量カメラの安定な校正法を開発した。 さらに、カメラの相互投影情報を用いて任意視点映像を幾何学的に正しく生成する方法を開発し、任意視点における仮想映像を従来法より安定に生成できることを示した。また、提案した相互投影による複数カメラ校正法をロボットの視覚誘導に応用する研究も合わせて行った。この結果、複数のカメラ付き移動ロボットが互いのカメラに投影し合っている状況下では、ロボットが作るフォーメーションを常に保存するような協調的視覚誘導が、カメラの相互投影情報を用いることにより安定に実現可能であることが明らかになった。一方で、相互投影情報を用いるためには、どのカメラ同士が相互投影し合っているかを判別する必要がある。そこで本研究では、多視点幾何の不変性を用いて相互投影されているカメラを自動識別する方法も合わせて開発した。 以上の通り、この2年間の研究により、カメラの相互投影に基づく3次元情報のより安定な復元方法が構築でき、また多くの応用システムにおいてその有用性を確認することができた。
|