2010 Fiscal Year Annual Research Report
動画像からの形状・運動・作業文脈抽出に基づく物体操作のモデリング
Project/Area Number |
21700224
|
Research Institution | Kyushu University |
Principal Investigator |
小川原 光一 九州大学, 大学院・工学研究院, 特任准教授 (70452810)
|
Keywords | 知能ロボティックス / 画像、文章、音声等認識 / ユーザインターフェース |
Research Abstract |
日常生活環境においてロボット技術を利用した生活支援を実現するためには,対象となる人間の行動を認識する技術が不可欠である.従来は,既知の行動を想定し認識器を事前に設計・学習する方法が一般的であったが,未知の行動に対処することはできなかった.本研究では,観測データに内在する普遍的な構造を抽出することによって,未知の行動やその因果関係を学習し,またこれを元にして行動認識器を自動生成することを目的とする.平成22年度は以下の研究項目を実施した.(1)昨年度に開発した近似最近傍探索の枠組みに基づく時系列データからの高頻度パターン探索法について,時系列データの間引き率とハッシュ空間のバケットサイズの最適値を実験的に求めた.また,この最適パラメータに基づいて,従来法との比較の観点からモーションキャプチャデータおよび動画像データそれぞれについてデータ量と計算時間の関係を定量的に評価し,提案手法の優位性を確認した.(2)操作物体と被操作物体の間の相対運動として物体操作を表現し,物体の見えと運動に基づいて高頻度パターンに対応する動画像クリップの集合から物体操作の切り出しと分類を行うことによって物体操作を学習する手法を開発した.また,動的計画法を用いて未知の動画像から物体操作を識別する手法を開発した.この結果,動画像中に高頻度で出現する物体操作を自動的に発見・分類し,またこれに基づき動画像から物体操作を識別することが可能になった.
|
Research Products
(8 results)