Budget Amount *help |
¥2,100,000 (Direct Cost: ¥2,100,000)
Fiscal Year 1999: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 1998: ¥1,300,000 (Direct Cost: ¥1,300,000)
|
Research Abstract |
実演によるロボットヘの作業教示への第一歩として,オンラインで人間の上半身姿勢を視覚で認識するシステムを開発した.また,ロボットが広範囲の環境の空間的構造とその時間的変化を理解するための広範囲環境記述法を開発した。これは,領域(ラベル)をべ一スとした環境記述法であり,環境は領域を貼り合わせたものとして記述される.そして,各領域について様々な時空間的情報が記録される.記録された変化情報は,記憶容量が足りなくなると,古いもの,重要でないものから消去される.これは,認知心理学において,作業記憶,視空間的記銘メモなどと呼ばれるような,人間の視覚の短期的な記憶に相当するものである. 開発した広範囲環境記述法と平成10年度に開発した人間の連続姿勢変化認識アルゴリズムを組み合わせ,人間が実演するピックアンドプレース作業を認識し,ロボットアームの軌道を生成する実験を行なった.ロボットから2[m]離れた位置に人間が正対して座り,人間とロボットの間には作業台を置く.作業台の上にはあらかじめ記憶してある三つの物体(飲料缶)を置いておく.人間はこの三つの物体のどれかをつかみあげ,他の位置に移動するという作業を実演する. 実験では,人間は左手側の物体を右手でつかみあげ,右手方向へ移動するという作業を実演した.物体を「つかみあげる」,「置く」という作業内容の認識は人間の手の中心と物体との距離,環境の変化から判断した.認識した作業,そのときの人間の関節角度軌道および手先軌道をもとに,ロボットアームの動作軌道生成を行なった.
|