2014 Fiscal Year Annual Research Report
行動理解とデータマイニング技術を適用した人物意図推定・行動予測
Project/Area Number |
13J03633
|
Research Institution | The University of Tokyo |
Principal Investigator |
片岡 裕雄 東京大学, 情報理工学系研究科, 特別研究員(PD)
|
Project Period (FY) |
2013-04-01 – 2015-03-31
|
Keywords | 行動予測 / 行動理解 / データ解析 |
Outline of Annual Research Achievements |
本提案では、人物行動の高精度な認識のみならず人物行動の事前予測を実現した。行動認識については特徴量のグルーピングや人物行動を理解するための特徴を多数実装し、有効な特徴の見極めを行った。固定カメラによる定点観測下で十分な行動履歴データベースが用意できているという条件のもとで約80%の予測精度を実現した。行動理解と行動予測について以下にそれぞれ説明する。 【行動理解】人物の身体から多数の特徴点検出を行い、特徴点周辺において形状・動作などの特徴量取得を施行し、人物行動を識別した。さらに、時系列や空間的に意味のあるまとまり(トピック)に収集するトピックモデリングを実装してより意味のある、高次な特徴量へと昇華した。形状・動作など行動における最小単位の特徴量を統合することにより「姿勢」や「ジェスチャ」などに近似することが判明しており、トピックの適応的な組み合わせにより従来では分離が困難であった細かい動作の違いを見極めるに至っている。特徴点検出ミスによるノイズや行動認識において重要度が低い特徴などを除くことも可能である。また、特徴量を追加して人物認識に適した特徴量の評価も行った。形状や動作を見る特徴量だけでなく、画素間の共起性により記述する特徴が最も有効であることが判明した。また、形状・動作・共起性の組み合わせにより特徴量を構成する連結特徴量が最も高い精度を示した。 【行動予測】「前の行動」「現在の行動」「時間帯」の3つの要素を入力としてベイズモデルにより確率的に予測するフレームワークを採用した。さらに、予測時間の統計量を求めた結果、平均で約5秒、最大で約20秒もの行動予測を実現した。現在では行動予測の入力として「画像特徴量(low-level)」「トピック特徴(middle-level)」「時系列タグ(high-level)」という階層的な入力が可能となり、より高次な予測が可能となる。
|
Research Progress Status |
26年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
26年度が最終年度であるため、記入しない。
|
Research Products
(5 results)