• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2013 Fiscal Year Final Research Report

Development of moving object extraction method considering depth Information and the applied technology

Research Project

  • PDF
Project/Area Number 23760331
Research Category

Grant-in-Aid for Young Scientists (B)

Allocation TypeMulti-year Fund
Research Field Communication/Network engineering
Research InstitutionKanazawa University

Principal Investigator

IMAMURA Kousuke  金沢大学, 電子情報学系, 准教授 (00324096)

Project Period (FY) 2011 – 2013
Keywords信号処理 / 動画像処理 / 動オブジェクト抽出
Research Abstract

Moving object extraction from a video sequence has been researched from many approaches since before. However, a general purpose technique with high performance has not yet been established. This study developed a novel moving object extraction considering depth distance information from camera, and the developed method is based on level set method which is a type of active contour model. In addition, I studied the applied technique of the novel method such as stereoscopic vision.

  • Research Products

    (13 results)

All 2014 2013 2012 2011 Other

All Journal Article (3 results) (of which Peer Reviewed: 1 results) Presentation (9 results) Remarks (1 results)

  • [Journal Article] Moving Object Segmentation Method Based on Motion Information Classification by X-means and Spatial Region Segmentation2013

    • Author(s)
      Kousuke Imamura
    • Journal Title

      International Journal of Computer Science and Network Security

      Volume: Vol.13, No.11 Pages: 1-7

    • URL

      http://paper.ijcsns.org/07_book/201311/20131101.pdf

    • Peer Reviewed
  • [Journal Article] 奥行き情報を考慮したレベルセット法による動オブジェクト抽出2013

    • Author(s)
      稲野宏樹,北村明大,今村幸祐
    • Journal Title

      映像情報メディア学会技術報告

      Volume: Vol.37, No.27 Pages: 29-32

  • [Journal Article] 動き情報の時間相関性を考慮したx-meansクラスタリングによる動オブジェクト分割法の精度改善2012

    • Author(s)
      今村幸祐
    • Journal Title

      オーディオビジュアル複合情報処理研究会技術報告

      Volume: Vol.2012-AVM-19 Pages: 1-6

  • [Presentation] エッジ上の奥行き情報を考慮したレベルセット法による動オブジェクト抽出の精度改善2014

    • Author(s)
      稲野宏樹,今村幸祐
    • Organizer
      2014年電子情報通信学会総合大会
    • Place of Presentation
      新潟大学
    • Year and Date
      20140300
  • [Presentation] 奥行き情報を考慮したレベルセット法による動オブジェクト抽出の精度改善2013

    • Author(s)
      稲野宏樹,今村幸祐
    • Organizer
      平成25年度電気関係学会北陸支部連合大会
    • Place of Presentation
      金沢大学
    • Year and Date
      20130900
  • [Presentation] 奥行き情報を考慮したレベルセット法による動オブジェクト抽出2013

    • Author(s)
      稲野宏樹,北村明大,今村幸祐
    • Organizer
      映像情報メディア学会研究会
    • Place of Presentation
      金沢大学
    • Year and Date
      20130600
  • [Presentation] 単眼カメラからの領域ベース視差画像生成に関する一検討2013

    • Author(s)
      上野僚太,今村幸祐
    • Organizer
      2013年電子情報通信学会総合大会
    • Place of Presentation
      岐阜大学
    • Year and Date
      20130300
  • [Presentation] 動き情報の時間相関性を考慮したx-meansクラスタリングによる動オブジェクト分割法の精度改善2012

    • Author(s)
      今村幸祐
    • Organizer
      第79回オーディオビジュアル複合処理研究会
    • Place of Presentation
      福井市地域交流プラザ
    • Year and Date
      20121200
  • [Presentation] 単眼カメラ画像の焦点ボケに基づく領域ベースのデプスマップ作成2012

    • Author(s)
      上野僚太,今村幸祐
    • Organizer
      平成24年度電気関係学会北陸支部連合大会
    • Place of Presentation
      富山県立大学
    • Year and Date
      20120900
  • [Presentation] Geodesic Active Contourによる動オブジェクト抽出の精度向上及び高速化2012

    • Author(s)
      北村明大,今村幸祐
    • Organizer
      2012年電子情報通信学会総合大会
    • Place of Presentation
      岡山大学
    • Year and Date
      20120300
  • [Presentation] Level Set Methodを用いた動オブジェクト抽出におけるDepth推定を使用した収束精度の改善2011

    • Author(s)
      北村明大,今村幸祐
    • Organizer
      平成23年度電気関係学会北陸支部連合大会
    • Place of Presentation
      福井大学
    • Year and Date
      20110900
  • [Presentation] x-meansクラスタリングを用いた動オブジェクト抽出の改善2011

    • Author(s)
      久保尚輝,今村幸祐
    • Organizer
      平成23年度電気関係学会北陸支部連合大会
    • Place of Presentation
      福井大学
    • Year and Date
      20110900
  • [Remarks] 金沢大学学術情報リポジトリ

    • URL

      http://dspace.lib.kanazawa-u.ac.jp/dspace/

URL: 

Published: 2015-06-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi