• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2015 Fiscal Year Research-status Report

ディープラーニングを用いたビデオデータベースの自動アノテーションに関する研究

Research Project

Project/Area Number 15K00159
Research InstitutionKogakuin University

Principal Investigator

陳 キュウ  工学院大学, 工学部, 准教授 (00400292)

Co-Investigator(Kenkyū-buntansha) 小谷 光司  東北大学, 工学(系)研究科(研究院), 准教授 (20250699)
Project Period (FY) 2015-04-01 – 2018-03-31
Keywordsアノテーション / マルチメディア / データベース / ディープラーニング / アルゴリズム / 情報システム
Outline of Annual Research Achievements

近年、ネットワック接続速度の向上や、カメラ付きモバイル端末の普及および大容量ストレージ装置の価格が下落に伴い、インターネット上で公開される映像の数が急速に膨らんでいる。テレビで放送される映像や、ビデオカメラなどで撮影された映像などには、内容を説明したテキスト情報が存在しないため、キーワードなどを用いて簡単に意味に基づいた映像検索を実現のに、映像内容を表すメタ情報をテキスト形式で付与する自動ビデオアノテーションが必要である。本研究では、ディープラーニングの方法を取り組み、自動的にビデオアノテーションを高精度かつ高速に実現する手法を試みた。今年度の研究成果は以下のようになる。
本研究において、ディープラーニングを用いてビデオの自動アノテーションシステムを実現するため、まず畳み込みニューラルネットワーク(CNN)を利用して、ビデオシーケンスの各フレームのシーンラベルを付与する。それから、時系列での特徴を抽出し、意味的にまとまりを持つ連続したショット列であるシーンを認識し、学習により高精度かつ高速にビデオデータベースの自動アノテーションを行う。本年度はフレーム画像のラベリング手法、ショートの認識手法、及び自動アノテーション手法からなるビデオデータベースの自動アノテーションアルゴリズムを確立した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

現在までは当初の予定通り、ディープラーニングを用いたビデオデータベースの自動アノテーション手法を確立した。共同研究者と定期的研究の打ち合わせを行っており、良好な連携がとれていた。研究実施体制が当初に計画した体制を組めた。

Strategy for Future Research Activity

これからの研究は当初の予定通りで、アノテーション手法の検討、及びビデオの編集による影響を対応できる手法を検討するなどの研究へ展開する。また、研究共同研究者と定期的研究の打ち合わせなどを行い、研究実施体制を維持する予定である。

Causes of Carryover

次年度使用額が生じた理由としては、ビデオのアノテーション評価装置を試作のために用いる電子機材類の納品遅延により、支払いは次年度にずれ込むことになった。

Expenditure Plan for Carryover Budget

平成27年度未使用額と平成28年度助成金を併せて、システム評価用のために用いる電子機材類を購入し、評価装置を試作する。

  • Research Products

    (6 results)

All 2016 2015

All Journal Article (1 results) (of which Int'l Joint Research: 1 results,  Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (5 results) (of which Int'l Joint Research: 3 results)

  • [Journal Article] An Improved Histogram-based Features in Low-frequency DCT Domain for Face Recognition2015

    • Author(s)
      Qiu Chen, Koji Kotani, Feifei Lee, and Tadahiro Ohmi
    • Journal Title

      International Journal of Machine Learning and Computing

      Volume: 5 Pages: 404-408

    • DOI

      10.7763/IJMLC.2015.V5.542

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Presentation] ヒストグラム特徴を用いたビデオデータベースの高速探索2016

    • Author(s)
      鏡翔太, 山部未葵, 陳キュウ
    • Organizer
      2016年電子情報通信学会総合大会
    • Place of Presentation
      福岡, 日本
    • Year and Date
      2016-03-17 – 2016-03-17
  • [Presentation] ヒストグラム特徴量を用いた画像検索手法の検討2016

    • Author(s)
      藤井祐輔, 小林積博, 佐藤祥, 陳キュウ
    • Organizer
      2016年電子情報通信学会総合大会
    • Place of Presentation
      福岡, 日本
    • Year and Date
      2016-03-17 – 2016-03-17
  • [Presentation] An Improved Face Recognition Algorithm Using Histogram-based Features in Spatial and Frequency Domains2016

    • Author(s)
      Qiu Chen, Koji Kotani, Feifei Lee, and Tadahiro Ohmi
    • Organizer
      18th International Conference on Knowledge, Intelligence and Security Informatics
    • Place of Presentation
      London, UK
    • Year and Date
      2016-02-26 – 2016-02-26
    • Int'l Joint Research
  • [Presentation] A Fast Search Algorithm for Large Video Database Using HOG Based Features2016

    • Author(s)
      Qiu Chen, Koji Kotani, Feifei Lee, and Tadahiro Ohmi
    • Organizer
      5th International Conference on Signal and Image Processing
    • Place of Presentation
      Sydney, Australia
    • Year and Date
      2016-02-06 – 2016-02-06
    • Int'l Joint Research
  • [Presentation] Image Retrieval Using Features in Spatial and Frequency Domains Based on Block-Division2015

    • Author(s)
      Kazuhiro Kobayashi, Qiu Chen
    • Organizer
      2015 International Conference on Computational Science and Computational Intelligence
    • Place of Presentation
      Las Vegas, USA
    • Year and Date
      2015-12-09 – 2015-12-09
    • Int'l Joint Research

URL: 

Published: 2017-01-06  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi