研究概要 |
本研究の目的は,従来のAR技術の発展を取り込みながら,マルチモーダルで人間にとって優しく柔らかなヒューマン・ロボシトインタフェース技術を開拓することである。具体的には,(1)ロボット側から情報提示を行うための情報投影部と,(2)人間の動作監視・理解機能をもつ動作認識部,とを主な構成要素とするヒューマン・ロボットインタフェースのプロトタイプシステムを構築し,柔軟なインタフェースの実現を図ることである。本研究により得られた成果を以下にまとめる: (1)作業机の上の仮想パネルへの接触動作の認識に加えて3次元空間で対象物を指さして指示を行うための拡張機能を構成した。これにより,指さした先にポインタ(スポット光)をプロジェクタでリアルタイムに投影し,レーザポインタを手に持っているかのようにオペレータが指示することができる。従って,指さしの位置をスポット光を見ながら修正するということが可能である.人間がロボットに対象物を掴んで別の場所に置く作業(pick-and-place作業)に適用し,本システムの有効性を確認した. (2)上記の教示システムが人間からロボットへの作業教示であったのに対して,これとは逆にロボットが人間の行う作業を支援する機能(AAF : Adaptive Annotation Function)を構成した。AAFでは、プロジェクタを利用したレンジファインダにより検出した対象物、また、赤外カメラで検出した手の状態を監視する。これに基づきプロジェクタによる投影機能を用いて次に行うべき作業を文字で机上に指示したり操作すべき箇所を矢印で指示する等により、人間の行う作業をシステムがガイド・支援する。このプロトタイプシステムを構成し、システムの有効性を確認した。 (3)対象物の視覚追跡のために構成したアフィン変換テンプレート群を用いたビューベースト・ビジュアルトラッキングシステムにおいて「分割テンプレート法」を提案し、他物体や人間の手で追跡対象が隠されてもロバストに追跡を行う機能を構成した。人間とロボットの間で物の受け渡しをする実験を行い、本ビジュアルトラッキングシステムのヒューマン・ロボットインタフェースへの有効性を確認した。
|