本研究では、「1台の普通の小型CCDカメラを人間の頭部(顔)に装着する」ことにより、人間から発せられる多様な非言語情報を実時間で認識・理解するヒューマンインタフェースの構築を目指している。本年度は、その第1段階として、床面上を走行する移動ロボットに対して、顔の姿勢(注目点)、指差し(指示対象)、手振り(指示内容)により、目標地点への移動、姿勢変化(回転)などの指示を行うことを想定し、顔装着型カメラの利用を前提として、以下の3つの要素技術の開発を重点的に行った。 ・注目点の計測:「4点のマーカからカメラの移動前後の位置・姿勢の相対的な変化を求める方法」を用い、ロボット上部に5個のマーカを円周上に配置することで、高精度で指示者の注目点を検出する方法を確立した。 ・手振り認識:色を用いた手先検出と、昨年度に開発した「動きの変化に基づく動作パターンの1次元符号化に基づく身振り認識手法」を組み合わせることで、数種類の動作種を頑健に認識する方法を確立した。 ・ポインティング手法:顔装着型カメラを利用すると、人間に備わっている高度なポインティング能力がうまく活用できること、その結果、低い計算コストで指示対象を正確に検出できることを確認した。 次に、これら3つの要素を、それぞれの機能が干渉、破綻することがないように有機的に統合する手法を開発・実装し、「1台のカメラ+1台の汎用コンピュータ」という簡素な機器構成により、人間の多様な非言語情報が入力・認識できることを移動ロボットの簡単な誘導実験を通して実証した。
|