研究概要 |
本研究では,人間の行うコミュニケーション手段と同様の考えで,観察と対話を通して,対話者(以後ユーザ)の現時点の行動目的(意図)を理解し,その人に複雑な操作を強いることなく,ユーザの意図に沿った支援や作業,行動を行うロボットシステムの実現を目指し、新しいロボットシステムの設計並びに本システムの基本機能の構築を行った。 設計したロボットシステムは、全方位視を持つロボットと両眼視を持つロボットの2つの身体を持ち、2台のロボットの連携により人間とのコミュニケーションを行う。全方位視は視覚誘導に優れたセンサであり、このセンサを用いた人間とのコミュニケーションの一例として、美術館などでの案内ロボットシステムを構築し、環境に対するロボットの自己位置の同定に加え、ユーザとの一定の距離関係を保った走行機能を実現することでロボットの行動として人間の行動を表現した。また全方位視における人物像の発見として、差分処理による動物体検出、逆透視変換による立体物検出、色彩処理による人物領域特定、顔,手,体などの領域の性質(大きさ,周囲長,アスペクト比など)の4つの専門家エージェントにより人物候補を発見する協調分散処理機能のための諸機能を構築した。次年度は、これらの構築したシステムを統合することでロバストに人物の発見を行う。 また詳細は情報を獲得しやすい両眼視を持つロボットによるコミュニケーションとしては、決められたサイン(ジェスチャ)の認識方法に関して、アスペクトグラフを用いる方法を構築、検討した。またより一般的な手の認識方法として、予め用意された手の3次元モデルと入力画像との照合により,指同士の重なり(遮蔽)がある場合でも,手の姿勢推定ができる方法を提案した.
|