2008 Fiscal Year Annual Research Report
ヒューマノイドの視聴覚環境理解による状況認識に基づく人間行動予測と自律的支援実現
Project/Area Number |
08J10605
|
Research Institution | The University of Tokyo |
Principal Investigator |
得津 覚 The University of Tokyo, 大学院・情報理工学系研究科, 特別研究員(DC1)
|
Keywords | 状況認識 / ヒューマノイド / 視聴覚処理 / 自律支援 / 能動的認識 / 確率的推論 / 動作認識 / 知能ロボット |
Research Abstract |
本研究は,等身大ヒューマノイドの視聴覚機能に基づいた状況の認識機能と,それに基づき自律的に生活支援を行う機能の実現をテーマとしている.家庭環境における状況認識において生活音を利用することが本研究の特色でもあり,それによってカメラの視覚情報だけでは捉えきれない豊富な情報に基づく状況認識が可能となる.本年度は研究初年度として以下の内容に従事し,成果を残した.1.時間という概念をキーとし,短時間記憶としてのセンサ情報履歴をベイジアンネットワークの手法の中で利用することで,台所にいる人間の状況を認識する機能を,実際のヒューマノイドを用いて実験・検証した.(1)状況認識において最も問題になるのが,「状況」という概念の表現方法となるが,本年度は認識すべき各状況における各生活音の発生頻度・人の場所ごとにおける存在確率を,ベイジアンネットワークにおける離散的な確率分布で表すことで,状況を表現した.(2)センサ情報履歴を利用することで,変化しやすい視聴覚情報に直接影響されずに,より長期的な情報によるロバストな状況認識を実現した.(3)生活音認識機能(水道の音や食器の音など)が状況認識に有効であることを確認した.2.状況認識機能に基づく間違えやすい状況下における支援行動選択機能の実現(1)台所に同じ食器が出てくるシーンであっても,皿洗い・調理中といった状況に応じて,ロボットが支援行動を選択する機能を状況認識機能に基づいて実現した.3.ロボットの持つ環境を表現した幾何モデルと行動プランニングの統合による環境の変化に対応できる支援行動の実現(1)行動プランニングを利用し,環境の状態を行動中に断続的に確認することで,プランとの矛盾検出に基づく行動再計画機能を実現した.(2)簡単なテーブル上の状況判定処理と組み合わせることで,原理的には半永久的に状況に応じた支援行動を行い続けることが可能なシステムを構築した.
|
Research Products
(3 results)