研究概要 |
本研究の成果として (1)人間の視覚機能を規範とし、その顕著な種々な特長をロボットへ導入するため,知能ロボットの視覚機能の高度化を目指し,人間の視線機能を考慮して作業環境の注目領域の濃淡画像および距離画像をセンサフュージョン的処理を行うことにより作業目標を効率よく達成できる認識システムを構成した。 (2)プロトタイプとして,2台のCCDカメラ,レーザスキャンニング装置,高速画像処理装置及びUNIXワークステーションによるロボットビジョン装置を構成した。 (3)この装置において,ロボットの作業環境を画像入力し,リアルタイム処理によって濃淡画像によるエッジ情報およびレーザスポット光の3次元情報を得ることが可能となった。 (4)人間が指示する様々な作業目標に対して,ロボットが持つ数種の認識手法を最適に選択し,組み合わせるトップダウン的認識方式の開発を行った。 (5)ロボットがコップの取っ手を掴もうとする状態を想定し、CCDカメラから取り込んだ画像から作業目標を抽出し、その視覚情報を得る実験を試みた。 (6)具体的な成果として、(a)対象物体の注目領域を抽出し、作業目標を注目領域に限定することによる処理の効率化を図った。(b)個数計数機能により、複数物体の個数計数ができた。(c)レーザビジョンによる3次元情報取得機能を開発した。(d)センサフュージョン機能を有する画像処理システムの構築を行い、複数センサの情報のセンサフュージョン的な統合を行う基礎実験を行い良好な結果を得た。 (7)本研究を基礎として目標とする知能ロボットの視線制御による視覚機能の高度化へ向けて研究を行う予定である。
|