研究課題/領域番号 |
14J11435
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
研究分野 |
マルチメディア・データベース
|
研究機関 | 電気通信大学 |
研究代表者 |
DO HANGNGA (2015) 電気通信大学, 情報理工学研究科, 特別研究員(PD)
DO HangNga (2014) 電気通信大学, 情報理工学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2014-04-25 – 2016-03-31
|
研究課題ステータス |
完了 (2015年度)
|
配分額 *注記 |
1,700千円 (直接経費: 1,700千円)
2015年度: 800千円 (直接経費: 800千円)
2014年度: 900千円 (直接経費: 900千円)
|
キーワード | 動作モデル / データの多様性 / 大規模なデータ |
研究実績の概要 |
本研究は動詞概念と、動作対象もしくは動作主体の名詞概念との視覚的な関係に関する分析を行い、その関係を考慮した動作モデルを学習する。このモデルを利用することで、動詞と名詞の関係を考慮した、それぞれ単独で認識していた従来の手法より精度の高い動作および物体の同時認識の実現が期待できる。 そのモデルの学習には指定キーワードに対応する動画ショットが大量に必要である。我々がすでに提案したデータ収集フレームワークを用いて100種類のキーワードに関して大規模な実験を実施し多くの動作の動画ショットが得られた。ただし、動作の多様性に対応できなかった場合もある。例えば同じ「swing」(ブランコで遊び)でも、個人で行う場合と、二人で行う場合の動作は見た目が違う。さらにどの場合でもビューポイントなどの違いによりまた動作が異なるように見えることがわかる。このように多様性の大きい動作でも今まで提案した手法を利用することよって見た目が同じのショットしか得られなかった。それで今年度は結果の精度と多様性の改善を目的とし、新しいショット選択手法を提案した。 動作の多様性に対応できるようにショットランキングの前にショットクラスタリングを行う。各クラスタは動作の異なる様相を表す。ショットランキングはクラスタごとに行われ、多くのショットと視覚的に類似したショットは上位にランキングされる。その結果、動作の様々な角度から撮った動画ショットが得られた。これらの結果はすでに国内外学会で発表し、雑誌に投稿中である。
|
現在までの達成度 (段落) |
27年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
27年度が最終年度であるため、記入しない。
|