本研究では、ロボットの視覚と動作を新しい枠組のもとで融合することにより、実時間立体視能力を持つ高性能知能ロボットシステムを実現した。 ロボット視覚の面では、並列処理される多数のプログラマブルな注視領域を持つマルチウインドウ視覚システムと、画像内の線素抽出ハードを備えた視覚用前処理装置を結合し、高性能かつユニークなロボット視覚ハードウェアを構築した。そして、この装置の各種機能を有効利用するシステムソフトを開発して、ネットワーク環境のもとで柔軟に利用可能な画像処理サーバとしてまとめた。更に、このサーバを用いて、三次元カメラパラメータの自動キャリブレーション、両眼立体視による三次元物体認識、実時間追跡処理に基づく三次元運動の追跡及び監視など、実時間立体視機能を実現する為の基礎アルゴリズムの研究とソフトウェアの開発を行った。 一方、ロボットの動作制御系として、パラレルマンピュレータ、各種エンドエフェクタ、カメラユニット等を装着し、様々な作業制御環境を実現しうる直交型デュアルアームセルを開発し、ネットワークノードとして組込んだ。 上記の画像処理サーバ、直交型デュアルアームセル、プログラム言語、等を統合して、知能ロボットプログラム環境COSMOS-IIとしてまとめた。COSMOS-IIでは、視覚及び作業制御をモデルベースで行う為に、幾何モデル管理機能を組込んだオブジェクト指向Lisp上にシステムは構築されており、多くのWSや各種ロボットサーバを統合したネットワーク環境で資源を共有しつつ効果的なプログラミングを行うことを可能としている。 このCOSMOSーIIを用いて、立体視を利用するハンドアイ実験や、各種の視覚フィードバック実験を行なって、当初の目的どうり、知能ロボットに実時間立体視機能を与えることができた。今後は、この視覚を用い自律的学習機能の実現へと研究を発展させたい。
|