人間の実演による作業教示のアルゴリズム的側面について、作業の分節化を実時間で行なうための手法を研究した。動作の分節化のための基本的な事象の集合を定め、これらを視覚によって直接取得するための高速で効率的な方法および環境モデルの上で幾何学的関係を計算することによりこれを補助する方法の開発を行なった。また、作業プログラムの最適化について、教示された基本動作列をそのままの順序で記憶するだけではなく、上位の目標との関連づけ等によって構造化を行なう手法を開発した。 追跡や監視などの下位プロセスを担当する視覚データ処理装置については、相関演算機能を有する視覚ユニットの並列化を試み、移動物体の発見、両眼立体視による距離情報の取得等の実験を行なった。 総合実験として、人間の組立作業を観察して作業プログラムを生成し実際にコンピュレータで教示された作業を実行することを行なった。手指や物体の動きを実時間で観察、理解し最適な作業プログラムを自動生成するシステムと、視覚による環境の初期状態認識システムとを組み合わせることにより、自動生成した作業プログラムを、教示時の物体配置とは異なる環境のもとでも実行できるような、高度の知能を有するロボットシステムとしてまとめあげた。 なお、新たに得られた知見として、局所相関演算を基礎におく実時間視覚処理装置の並列処理化による高速化が物体の発見・追跡等に非常に強力であることが判明したことが挙げられる。今後は、局所相関演算による特徴点抽出機能を、これまで研究してきた注視点制御アルゴリズムを改良して新しいハードウェア上で利用できるようにシステムを更新することを検討している。
|