研究概要 |
ロボットが人の作業の補助を行う際、ロボットは、現在人により何が行われているかを正確に認識・理解し、それにあった補助を行う必要がある。そこで,本研究では,ロボットは視覚を用いて,現在の作業対象物や人間による把持の有無を認識し,作業目的・作業モデルに基づいて,必要な補助作業を計画・実行した. 具体的には,カラートラッキングビジョンを用いて,見え方モデル,微小テンプレートのクラスタリング,サブピクセル・ステレオ視覚による3次元物体認識システムを構築した.この手法の特徴を以下に示す. (a)クラスタ組を作る過程においてTrackabilityの大きい微小領域についてのみ相関演算によるMatchingを行うので,高速・安定に結果を得ることができる. (b)オクルージョンがある場合も部分のMatchingが得られる. (c)幾何学的拘束判定に幅を持たせることにより,奥行き変化による画像上での見かけの大きさ変化や,姿勢変化によるテンプレート間のゆがみにも,ある程度対応できる. (d)Trackabilityの大きい微小領域についてのみステレオ計測を行うので,いわゆる「画像間対応点問題」が緩和され,高速・安定に結果を得ることができる. さらに,作業モデルの枠組を定義した上で,人が単独で行う動作に対して事象とstate bufferによる解析を行い,作業モデルを自動生成した.そして,人とロボットの協調作業時に,同様な手法で人の動作解析を行い,作業モデルに基づいて,人の作業とロボットの作業を分離し,ロボットの具体的な協調動作を生成した.以上を用い,人とロボットハンドによるおもちゃパ-ツの組み立て実験を行い,動作の認識に基づく人間・ロボット協調システムの可能性を示した.
|