Research Abstract |
人間と共存するサービスロボットを想定し,そのために必要なマルチモーダルインタフェース及び物体認識について研究した.昨年度に開発した基礎的システムの性能向上・統合を図った. まず,人からロボットへの情報伝達・指示に関して,ジェスチャ認識インタフェースを構築した.一般環境中でユーザの指先位置を検出し,その軌跡が描く円・四角形・三角形といった基本的な図形の識別を可能とした.それとは別に,高次局所自己相関特徴HLACを用いて手形状を識別,TV・オーディオ等の家電操作指令入力に利用する手法を提案した.ロボットから人間への情報提示に関しては,まず,顔及び服色の情報に基づき個人を特定・追跡する手法を研究した.また,パン・チルト機構付きプロジェクタにより,空間中の任意の位置に情報投影するシステムを開発,これとジェスチャ認識を組み合わせ,空間中のどこにいても情報を入出力できるシステムの基礎を構築した.これを人物追跡と融合させ,システムとしての完成度を向上させる予定である. 物体認識に関しては,一般環境を撮影した画像からの個別物体切り出し(セグメンテーション)を目指して研究した.色相の分散値を利用することにより,照明条件の変化や,物体上の模様の影響に比較的ロバストな物体の境界抽出が可能となった.さらに,小型レーザレンジファインダ(LRF)を併用して,色情報と3次元情報を組み合わせて物体境界を判断することも行った.以上の処理を施しても,依然として画像処理のみでは「物体の実際の境界」と,「表面上の模様の境界」との判別が困難であり,曖昧性が残った.そこで,ロボットアームが物体に物理的に接触して動かすことで視覚情報を変化させ,その様子を観察し,曖昧性を改善することを考えた.背景差分・オプティカルフローを使って物体の微小動作を検出した.しかし,一般環境において複数物体が乱雑に存在する環境におけるセグメンテーションに関してはまだ基礎段階にとどまっており,今後の改良が必要である.
|