2007 Fiscal Year Annual Research Report
動画像より物体の動きの意味を抽出する行動分析VLSIイメージセンサ・システム
Project/Area Number |
17206030
|
Research Institution | The University of Tokyo |
Principal Investigator |
柴田 直 The University of Tokyo, 大学院・工学系研究科, 教授 (00187402)
|
Co-Investigator(Kenkyū-buntansha) |
三田 吉郎 東京大学, 大学院・工学系研究科, 准教授 (40323472)
|
Keywords | VLSI / 生体情報処理 / 動き場生成 / 動作認識 / ジェスチャー認識 / ego-motion認識 / 動きベクトル検出 / エッヂ情報 |
Research Abstract |
本研究は「動作・行動の意味理解」を目指しているが、高精度な動き場の検出が最も基本となる。動画像からの動き場の検出は極めて計算コストが高く、実時間処理実現のため、我々は生体情報処理にヒントを得た独自のハードウェアアルゴリズムを実装したVLSIテップ群を開発した。 前処理として4方向エッジ情報(縦・横・±45°)を抽出するが、対象物の大きさ変化にも柔軟に対応できるよう、可変解像度エッジフィルタ処理VLSIを開発した。このチップは、自己相似演算アーキテクチャと呼ぶ新たな演算方式を採用し、同様の演算をフラクタル的に規模を拡大して行うことにより、1/2、1/4・・と順次解像度を落とした画像に対しエッジ抽出が高速に実行できる。64×64ピクセルのチップを試作し、毎秒500フレーム以上の処理性能を実証した。 こうして抽出したエッジ情報を元に物体認識を行うためには、画像の特徴ベクトル生成が重要であるが、これも従来の我々のアーキテクチャに機能キャッシュメモリと呼ぶ新たな演算ユニットを導入し更なる高速化を実現。従来のチップで、既に汎用CPUの処理に比較して10,000倍の高速化を実現していたが、ハードウェア量の大幅削減とともに、さらに30倍の高速化を達成した。 エッジ情報を基にその空間分布ヒストグラムを生成、フレーム間のシフト&マッチング演算で高速に動き場を生成するVLSIチップを開発した。独自の並列マッチングアーキテクチャにより、動きベクトル検出を画像の任意の位置において、1クロックで連続的に実行できる。20MHzの動作で2.8GHzのCPUでのソフトウェア処理に比較し1000倍以上の高速処理が可能であることを、試作チップの実測により実証した。 また、勲作を表現するための新たなベクトル表現を開発、ego-motionの認識、ジェスチャーの認識等に対し高い確度で実行できることを示した。
|