• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2007 Fiscal Year Annual Research Report

視覚的注意への概念・空間関係導入に基づく不変・多態認識のための確率競合連想モデル

Research Project

Project/Area Number 18500121
Research InstitutionSoka University

Principal Investigator

渥美 雅保  Soka University, 工学部, 准教授 (00192980)

Keywords視覚的注意 / 画像ピラミッド / 顕著性マップ / マルコフ確率場 / セグメンテーション / 知覚体制化 / 物体認識 / 視覚作業記憶
Research Abstract

視覚情報処理の重要な課題の1つである不変・多態認識の問題に,画像ピラミッド上での選択的注意に基づく確率的なセグメンテーションと知覚体制化による空間階層的な物体知覚の形成,それら空間階層的な物体知覚の事例集合の族からの物体知覚の不変・多態符号化,及びそれら符号の概念階層空間への連想的埋め込みによる視覚情報と言語情報の統合(シンボル接地)という側面からアプローチし,新しい不変・多態認識方式の構築の研究を行っている.本年度は3年計画の研究の第2年度であり,第一に,動画像の各フレームに対して視覚特徴量の画像ピラミッド,及び視覚注意ピラミッドと名づけた多レベル顕著性マップを求め,視覚注意ピラミッド上での選択的注意に基づき画像ピラミッド上にマルコフ確率場を階層的に動的生成して図地セグメンテーションを継時的に遂行し,視覚作業記憶内に物体知覚をセグメントツリーの形式で再構成・体制化し維持する方式を開発した.そして,視覚ポップアウト課題,図地反転課題,知覚体制化課題,及び注意を引くべく設計された物体を含む実世界シーンに対する注意とセグメンテーションのダイナミクスと性能を,ビデオクリップを用いた実験により評価し,本方式の有効性を確かめた.第2に,空間階層的な物体知覚の事例集合の族を不変・多態的に符号化する手法の定式化を行った.第3に,物体の符号を概念階層空間へ連想的に埋め込むための概念階層操作機構をEDR電子化辞書の単語辞書と概念辞書を用いて構築した.

  • Research Products

    (3 results)

All 2008 2007

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (2 results)

  • [Journal Article] Stochastic Selective Attention and its Shift on the Visual Attention Pyramid2008

    • Author(s)
      Masayasu Atsumi
    • Journal Title

      Proceedings of 14th Korea-Japan Joint Workshop on Frontiers of Computer Vision

      Pages: 463-468

    • Peer Reviewed
  • [Presentation] 画像ピラミッド系列上での選択的注意に基づくセグメンテーションとグルーピング2008

    • Author(s)
      渥美雅保
    • Organizer
      第22回人工知能学会全国大会論文集(CD-ROM), 2J1-3,4p.
    • Place of Presentation
      旭川市ときわ市民ホール
    • Year and Date
      2008-06-12
  • [Presentation] 視覚注意ピラミッド上での確率的な注意選択とシフト2007

    • Author(s)
      渥美雅保
    • Organizer
      第21回人工知能学会全国大会論文集(CD-ROM), 3C0-3, 4p.
    • Place of Presentation
      宮崎市ワールドコンベンションセンターサミット
    • Year and Date
      20070618-22

URL: 

Published: 2010-02-04   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi