研究概要 |
空間内に無作為に配置された多数の視覚センサが, それらの視野の隣接関係に基づく論理的なネットワークを自律的に構成するための基本技術を確立することを目指し, 複数の視覚センサ間で共通の対象を観測していることを検出し, そのセンサ間の対応づけを, ブロードキャストに頼らずに実現するための手法の検討を行った. 前年度は, 画像内のSIFT (Scale-Invariant Feature Transformation)特徴点の対応付けによる隣接関係推定を行う際に, その特徴量空間を分割することで対応付け処理の分散化を行う手法を提案した. 本年度はこの手法をより詳細に検討しその評価を行った. まず, 特徴量空間を分割する際に主成分分析によって低次元空間に射影してから格子状に分割することとし, その低次元空間の基底および分割境界を事前に学習する場合における学習画像と分割結果の関係について調べた. その結果, 屋内の画像や建物等の人工物を多く含む屋外の画像の場合は同一の学習画像による学習結果で十分な性能が得られることがわかった一方, 森林のようなシーンでは分割結果に偏りが生じるため, 別途の学習が必要なことがわかった. また, 特徴量空間の分割数やノード数をさまざまに変えて評価を行ったところ, 空間分割数を20前後にした場合が推定精度と通信負荷のトレードオフのバランスが最も良いことがわかった. ノード数の増加に対しても十分なスケーラビリティを有することがわかった. 実際の視覚センサを用いて視野の隣接関係を積極的に利用した協調システムに関しては, 共通の照明光によって照らされた領域を観測する視覚センサが自動的に同期することの可能なシステムを実現した.
|