研究概要 |
自律移動ロボットの脳型知性を専用のハードウェアで実現することを目標とし, 以下の事を行った. 1. オンライン学習型自己組織化マップハードウェアの開発と応用 自律移動ロボットへの応用を考えた場合, 時々刻々と入力されるセンサ情報をリアルタイム学習する必要がある. この解決のために, 記憶してある情報と外部から得られた情報との差分を元に学習度合いを決定する仕組みを持つオンライン学習型自己組織化マップを採用し, ハードウェア化に適した形へアルゴリズムを改良, そのハードウェアアーキテクチャを開発した. 小型のField Programmable Gate Array(FPGA)ボード上へ実装し, 移動ロボット"WITH"の視覚として応用した. 2. ハードウェア化に適した高階の自己組織化マップの開発 強力なパターン認識能力を持つ高階の自己組織化マップをハードウェア化に適した形へとアルゴリズムを改良, そのハードウェアアーキテクチャを開発した. 81個のProcessing Elementを持つ小規模な高階の自己組織化マップをFPGAへ実装し, 基礎実験を行った. 3. ロボットの視覚応用を目指した動画像圧縮伸張ハードウェアの開発 カメラから得られる動画像は周辺環境や対象物に関する情報を多く含む. これを実時間学習するためには, ハードウェアによる実時間処理が不可欠である. ロボットの視覚応用を目指し, ウェーブレット変換とテンプレートマッチングによる動きベクトル検出を組み合わせたアルゴリズムを, CardBusインタフェースを持つ小型FPGAボード"hwModule VC"上へ実装し, 基礎実験を行った.
|