2008 Fiscal Year Annual Research Report
人間・環境とのマルチモーダルなインタラクションに基づく日常環境中での物体認識
Project/Area Number |
20700186
|
Research Institution | Tokyo Denki University |
Principal Investigator |
中村 明生 Tokyo Denki University, 未来科学部, 准教授 (00334152)
|
Keywords | 知能ロボット / コンピュータビジョン / インタフェース / サービスロボット |
Research Abstract |
頼まれた物をもってくるサービスロボットを想定し, そのために必要なマルチモーダルインタフェース及び物体認識について研究する. まず, 人からロボットへの情報伝達・指示に関して, ジェスチャ認識に基づくインタフェースを考えた.一般環境中でユーザの指先位置を検出し, その軌跡が描く円・四角形・三角形といった基本的な図形の識別を可能とした.それとは別に, 高次局所自己相関特徴HLACを用いて手形状を識別, TV, オーディオ等の家電操作指令入力に利用する手法を提案した.今後はこれらを組み合わせ, 物体指示に応用する予定である.ロボットから人間への情報提示に関しては, 顔及び服色の情報に基づき個人を認識する手法を提案した.また, パン・チルト機構付きプロジェクタにより, 空間中の任意の位置に情報投影するシステムを開発している.これらを組み合わせ, 周囲の状況・個人に応じた情報を投影提示するシステムを考えている. 物体認識に関しては, 一般環境を撮影した画像からの個別物体切り出し(セグメンテーション)を目指して研究している. 色相の分散値を利用することにより, 照明条件の変化や, 物体上の模様の影響に比較的ロバストな物体の境界抽出が可能となった.さらに, 小型レーザレンジファインダ(LRF)を併用して, 色情報と3次元情報を組み合わせて物体境界を判断することも行った.以上の処理の結果, ある程度まで物体境界を検出できるが, それでも画像処理のみでは「物体の実際の境界」と, 「表面上の模様の境界」との判別が困難であり, 曖昧性が残る.そこで, ロボットアームが物体に物理的に接触して動かすことで視覚情報を変化させ, その様子を観察し, 曖昧性を改善することを考える.
|