Humatornics Oriented Interactive Network Robot System base on Joint Attention
Project/Area Number |
18500154
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Single-year Grants |
Section | 一般 |
Research Field |
Perception information processing/Intelligent robotics
|
Research Institution | Tokyo Metropolitan University |
Principal Investigator |
YAMAGUCHI Toru Tokyo Metropolitan University, システムデザイン学部, 教授 (40251079)
|
Project Period (FY) |
2005 – 2008
|
Project Status |
Completed (Fiscal Year 2008)
|
Budget Amount *help |
¥4,100,000 (Direct Cost: ¥3,800,000、Indirect Cost: ¥300,000)
Fiscal Year 2008: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2007: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2006: ¥2,800,000 (Direct Cost: ¥2,800,000)
|
Keywords | 意図認識 / オントロジー / ネットワークロボティクス / ネットワークロボット / ヒューマンロボットインタラクション / 意図認識共同注視 / インテリジェントスペース / アンコンシャス型ロボット / バーチャル型ロボット / ビジブル型ロボット |
Research Abstract |
情報インフラストラクチャの整備が進む一方、社会的な情勢として少子高齢化が進み、それに伴い情報弱者とのIT格差が進んでいるのが現状である。情報弱者のインフラ利用の妨げになっているのは、情報機器の操作が困難であることが大きな要因となっている。 そこで本研究では、以下の二点を研究目的とし、達成した。 1) ロボット操作におけるユーザーの意図認識方共同注視機構の構築 2) ネットワークを介してロボット間でユーザーの意図・環境情報を共有 1) 空間に配置された、複数のアンコンシャス型ロボット(カメラ+オブジェクト認識モジュール)により、ユーザーの動きを観察し、位置座標および顔の向きや指差し動作の計測を行なった。本研究では正確な位置座標を求めることに重点を置くのではなく、ロバストを含んだ状態でのエリアとしての認識に留め、オントロジーを利用し直接ユーザーが行なうコマンドに加え状況を考慮することによりユーザーの意図を認識した。主インターフェイスとして、実際の部屋を模して作成されたバーチャルルームを用いた。顔の向きと立ち位置からユーザーがロボットに意識が向いているか否か認識した。 Java3Dを用いてバーチャルルームを構築し、床・壁・物体などが個々のオブジェクトとして配置され、それぞれのオブジェクトの性質(移動可能・不可能、重量、色、等)を把握できるバーチャルロボットとした。顔の向き、立ち位置、指差されている方向・エリアの推定及びオブジェクトの性質から、ユーザーが注視するオブジェクトの推定を実現した。さらに推定したオブジェクトを強調表示することで、そのオブジェクトにロボットも注視しているということをユーザーに示した(共同注視)。 2) ビジブル型ロボットは、ユーザーの意図及びバーチャル空間上で注視されたオブジェクト情報を、ネットワークを介して獲得し、実空間に実在するオブジェクトを持ち上げる、または指定場所まで移動する、というサービスを提供した。ネットワークを介してロボットに指示を出すため、遠隔地に存在するロボットの操作も可能とした。 さらに、1)、2) を統合した全体システムを構築した。全体システムでは、ロボットにオントロジーを用いることにより、人が注意を向けている対象からロボットが人に提供するべきサービスを推測した。人が起こす行動はある程度その場によって振り分けられると考えられている。従ってロボットが提供するべきサービスもある程度その場に依存すると考えられる。しかしひとつのロボットにサービスを提供するための情報を全て格納することは不可能である。そこで個々のロボットには個々の基本的なオントロジーを用い、その場その場で必要とされる細かい知識は、環境に記述するシステムを構築した。システムはユーザーが指差し動作によりロボットにコマンドを送り、それに対してロボットがサービスを提供する。指差し動作は同じ動きであっても、状況によって異なる意味を持つため、オブジェクトのプロパティ等環境情報を考慮することで、指差しの意図を理解する人とロボットの共同注視型対話ネットワークロボットシステムを実現している。 本研究ではアンコンシャス型、バーチャル型、ビジブル型ロボットがオントロジカルネットワークを介して環境情報を共有する。ロボットが個々のオントロジーを用いて環境情報からその状況を判断し自らの行動を決めることによってサービスを提供する。ロボットがサービス提供に必要な環境情報をその都度参照することにより、個々のロボットの情報量を軽減し、またロボット間での情報共有が可能となった。ロボットが人の注意対象である場所や物の性質から人の指差し動作の意図を推測しサービスを提供することにより、より状況に即したサービスを提供する例を実機実験で検証し、評価実験を行い、その有用性を示した。
|
Report
(4 results)
Research Products
(40 results)