移動体に搭載されたカメラで観測された連続画像の中から、ボトムアップ処理による3次元空間の抽出とモデルベースト(トップダウン)な対象抽出処理の協調により、3次元行動空間および対象の認識・把握を行う。 移動ロボットの目や車両に搭載されたカメラのような移動視覚系で観測された画像の中からの、3次元構造および対象物の認識・把握を目的として、広方位カメラの周辺部の画像からの自己移動によるフロー情報、および主に中心部の画像からのモデルベーストな対象抽出を行なう。更に両者の協調により、対象物認識と3次元構造把握を行う。 ボトムアップ処理による3次元空間の抽出に関しては、運動視差からの自己運動抽出、およびステレオカメラからの距離情報抽出を行った。カメラからの距離情報抽出に関しては、全方位カメラを上下方向に移動させ、隣接する画素間を対象(エッジ)が横切るタイミングを計測することを基本技術とする運動視差抽出法により、距離情報を出した。次に自己運動する移動進行方向正面に中心を向けた広方位レンズの水平広方位画像の視差から自己運動の抽出を行った。 トップダウン(モデルベースト)処理に関しては、移動する情景の例として歩行動作をする人体をとりあげ、モデルベーストな手法により、各部品(手・足・頭)の位置を同定し、姿勢を認識・追跡する。その際、一定間隔で大局解をサーチし、その間では、局所解で追跡することにより、処理時間と性能の折り合いを満たす方式とした。
|