研究課題/領域番号 |
26240038
|
研究機関 | 埼玉大学 |
研究代表者 |
久野 義徳 埼玉大学, 理工学研究科, 教授 (10252595)
|
研究分担者 |
小林 貴訓 埼玉大学, 理工学研究科, 准教授 (20466692)
加地 大介 埼玉大学, 教養学部, 教授 (50251145)
山崎 敬一 埼玉大学, 教養学部, 教授 (80191261)
|
研究期間 (年度) |
2014-04-01 – 2019-03-31
|
キーワード | 画像、文章、音声等認識 / 知能ロボティックス / ユーザインタフェース / オントロジー / エスノメソドロジー |
研究実績の概要 |
研究代表者は介護ロボットの実現に向けて、哲学者と共同でオントロジーを用いて対話を通じて物体を認識する研究と、社会学者と共同で人間とロボットの非言語行動を通じたインタラクションについて研究を行ってきた。前者では、状況に応じて意味の変化する多様な人間の自然言語表現を扱えるオントロジーを構築した。後者では、人間の非言語行動も状況により多様な意味をもつことを明らかにしてきた。そこで、本課題では、前者で検討したオントロジーの枠組をさらに発展させ、後者の非言語行動も加えた介護ロボットの世界を記述するオントロジーを構築し、それをもとに実際の介護施設で動作するロボットの開発を目指して研究を進めている。 平成26年度は、オントロジーの構成について検討した。特に物体認識のための属性の記述の部分について検討を進めた。これまでに形や色について人間の用いる表現と実際の物理的属性の間の関係を記述することを検討したが、これに加え、物体の位置関係についてもオントロジーを構築した。人間は特定の物体については固有の方向を考えて位置を表現する。例えば、「あの人の右」と言えば、その人が話し手や聞き手から見てどちらを向いていても、その人の前方を基準にして右の方を表す。それに対し、「そのコップの右」と言った場合は、話し手や聞き手の位置により、実際の世界で右の示す方向は変わってくる。このような表現を適切に解釈できるようなオントロジーを構築した。 また、カラー画像と距離画像を取得できるセンサ(マイクロソフト Kinect)を用いて、テーブル上の物体を検出して、その形状、色を求めるとともに、そこにいる人間を検出してその姿勢を求める画像処理法を開発した。これにより、ロボットは相手と自分の位置関係を考慮して、位置関係に関する人間の言語による指示を理解できるようになった。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
平成26年度は人間の言語表現に対するオントロジーの検討が中心になった。これについては、これまでの形や色に加えて、位置関係についても検討し、成果を得た。ただし、人間の非言語行動については、指さしなどの意識的・意図的なものは言語行動に付随したものとして考えればよいが、自然に発現する行動をどう扱うかについては、まだ検討が進んでいない。実際の介護施設で観察は行ったが、今年度はその分析まで進んでいない。 画像処理についてはKinectを使った基本的なものが開発でき、現有のロボットにより、聞き手の位置も考慮して対話を通じて指示された物体を認識する初期的な実験を行うことができ、予定どおり進行している。 以上のことから、おおむね順調に進展していると判断する。
|
今後の研究の推進方策 |
今後は、非言語行動に関することに注力していく。ただし、ここで考えている非言語行動はジェスチャによるサインのようなものだけでなく、自然に表れるすべての行動を含む概念なので、サービスロボットが考慮する必要のあるような行動にしぼらなければ、実際的な検討は行えない。介護施設での観察をさらに行い、サービスロボットが直面すると思われるような状況をとらえて、分析を進める。そして、それをもとにオントロジーを構築する。また、そのような状況であることを認識するための画像処理法を検討していく。
|