研究概要 |
生体の視覚系は, 長年の進化の過程で獲得された独自のアーキテクチャを用いて, 複雑な視覚情報を極めて効率的に処理している. この脳視覚系に学ぶことは, 新しい高機能ロボットビジョンをデザインするための重要なアプローチのひとつである. 本研究課題では, 両眼立体視計算に関わる脳視覚野細胞の計算モデルを基に, 両眼視差, 特にロボットの環境認識に有用な, 注視点に依存しない対象物の奥行き情報を実時間で計算する集積視覚システムを構築することを目的としている. 平成20年度においては, 目的のシステムにおける計算モデルの考案および開発した視覚システムの評価に用いるための両眼ロボットビジョンを構築した. 両眼ロボットビジョンは, 撮像および空間フィルタ演算を行うシリコン網膜と, それ以降の画像処理を実行するFPGAにより構成される. 左右両眼に対応する2つのカメラはそれぞれステッピングモータにより回転できる. さらに, ネコやサルの視覚野で見つかった両眼視差選択性細胞のモデルである視差エネルギーモデルをベースにして, 輻輳眼球運動(左右両眼を互いに逆向きに回転させることで注視点を変化させる眼球運動)を制御するアルゴリズムを考案し, これを両眼ロボットビジョンに実装した. このシステムを用いることで, 輻輳眼球運動による注視点の変化が両眼視差など視覚計算に与える影響を実際の環境で実時間シミュレーションすることができるようになった. また, このシステムの有効性を確認するために, 奥行き運動検出細胞のモデルを実装し, 輻輳眼球運動時の応答を検証した.
|