研究概要 |
生体の視覚系は,長年の進化の過程で獲得された独自のアーキテクチャを用いて,複雑な視覚情報を極めて効率的に処理している.この脳視覚系に学ぶことは,新しい高機能ロボットビジョンをデザインするための重要なアプローチのひとつである.本研究課題では,両眼立体視計算に関わる脳視覚野細胞の計算モデルを基に,ロボットの環境認識に有用な奥行き情報を実時間で計算する集積視覚システムを構築することを目的としている.平成21年度においては,前年度までに開発した両眼ロボットビジョンを用いて,網膜細胞および視覚野細胞の計算モデルをFPGAにより実装し,視覚入力に対する細胞応答の空間分布(ニューラルイメージ)を実時間で再現した.特に,これらの視覚細胞の空間特性だけでなく時間特性を組み込むことで,動的なシーンに対する応答を再現できるようになった.また,生体の光受容細胞の応答特性は入力光強度に対して対数的であることから,両眼ロボットビジョンのフロントエンドに位置するシリコン網膜について,その光センサの応答特性を対数型にする技術を組み込んだチップを製作した.実験により,光センサのダイナミックレンジが拡大したこと,シリコン網膜が明るさ恒常性(照明強度が変化してもチップの空間フィルタ出力は変化しない)を持つことを確認した.これにより,実環境における広い範囲の照明強度変化に対応できるようになっただけでなく,左右画像の応答強度のばらつきが小さくなり両眼視差計算の精度が向上した.
|