1.視覚センサによる位置情報の取得 2台のCCDカメラから成るロボット・ビジョンを構成し、支保部材の供給点を含む画像情報からは部材のグリップ点を、また先受レール上の支保設置予定点を含む画像情報からは部材のリリース点を決定するプログラムを作成し、実験によりその有効性を確認した。なお画像情報から対象図形の幾何学的特徴を抽出する演算処理では、画像走査を圧縮し、演算処理時間を通常の1/60に短縮した。 2.力覚センサによる力・モーメント情報の取得 ロボット・マニピュレータのハンドに4成分の力覚センサを構成し、ハンドに加わる力とモーメントの情報をロボットに与えた。これによりロボットはグリップ点で支保部材を把持したことが確認できるだけでなく、リリーズ点で部材と先受レールの接触を知覚できるようになった。 3.グリップ点からリリーズ点に至る軌道生成 視覚センサからの位置情報は支保部材搬送経路の始点と終点を与える。これら2点を通る無数の経路の中から、搬送中に支保部材がトンネル内壁ともマニピュレータ本体とも接触もしくは衝突しない軌道を生成するアルゴリズムを考察した。この衝突回避軌道計画はグリップ点とリリーズ点を結ぶスパイラル軌道によって実現されることを確認した。 4.視覚・力覚センサを用いたトンネル支保のマニピュレーション実験 室内で5自由度のロボット・マニピュレータを用い、ロボット・ビジョンと力覚センサを実装して、支保部材の把持から設置に至る全工程のマニピュレーション実験を行なった。その結果、本研究で提案した位置と力のハイブリッド制御の方法により、支保工程を自動化、さらにはロボット化し得ることが実証された。
|