研究概要 |
本研究は,拘束視覚追跡機能を有する視覚処理システムを応用し,人間と共棲するロボットに必要な人間行動理解のための基礎的技術である動作認識モデルを実現することを目的としていた。 それに関し,動きの追跡処理,動作の注視処理,行動の識別処理の三段階層からなるモデルを提案し,人間の発見・部位追跡処理,多注目点の注視処理による動作認識,人間行動モデルベースに基づく識別処理により行動理解を具体的な例で実現し,検証を行った。 まず対象として,医師の診察室での治療行為の理解を行う視覚認識システムにおける実験を行い,動作の定性的記述のための,動き情報の時間方向の分節化と空間方向の分割手法を確立した。また,医師の基本行動の意味解析を行い,それに基づいた患部検査動作の認識,薬剤塗布動作の認識実験を行った。 さらに,確立した手法を,病院に入院している患者の支援システムヘと適用した。看護婦,介護人がいない際にも,-人で出歩けない患者がちょっとしたものを欲した際に,指で差し示すものをとり渡す支援作業を実現した。ここでは,本研究の動作認識モデルに基づき,両手,指,顔など複数個所の発見追跡および注視処理に基づき動作認識を行い,「指差し」という行為のモデルに基づいた行為把握を実現した。 本研究を通じ,人間と共存・協調するための最も基礎的な技術となる人間行動理解の枠組みの基本的モデルに関する知見が得られた。
|