研究概要 |
視覚サ-ボ系は画像情報にもとづくフィ-ドバック制御系で,未知の環境で作業する知能ロボットの運動制御の中核となる。従来の視覚フィ-ドバック系では環境認識と運動制御が別々のステップで分離して逐次的に行われてきたが,作業を高速化し精度を上げるにはこの方式では不十分である。 本研究では,制御理論的観点から環境認識と運動制御を動的に結合し,認識の深化と作業の実施が相互に補完しあいながら一体となって進行する新しい視覚サ-ボの方式が確立することを目指した。その結果,画像ベ-スの動的視覚サ-ボという新しい方式を提案し,その方式により従来の視覚フィ-ドバックに比べて確段に精度よくロボットマニピュレ-タが制御できることをわかった。この方式は視覚サ-ボ系のダイナミクスを表す状態方程式をもとに最適レギュレ-タを構成することにより系の安定化を図るものである。 上記の制御器を実現するためには,きわめて高速な演算装置が必要となる。そこで本研究においては,10個の32ビットマイクロプロセッサ「トランスピュ-タ」を用いて並列処理システムを構築した。このハ-ドウェアシステムとPUMA560により実時間動的視覚サ-ボ系が実現できた。実用的な作業を行うにはいたらなかったが,いくつかの基礎的実験において画像ベ-スの動的視覚サ-ボが有効であることが確認できた。 本研究の視覚サ-ボ系は画像ベ-スの視覚フィ-ドバック系に既存の制御理論を組み合わせて実現されたものであり,視覚フィ-ドバック制御において新しい制御理論的枠組みを与えるものではない。そのためには,視覚サ-ボ系の内部にロボットのダイナミクスを統合して組み入れ,全体をひとつの動的システムとして取り扱う必要があることがわかった。本研究で得られた成果は,今後の発展に対して基礎的な足がかりとなるものと思われる。
|