• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2007 Fiscal Year Annual Research Report

高次特徴空間での判別に基づく実画像からの3次元復元の高精度化とその応用

Research Project

Project/Area Number 19500146
Research InstitutionToyohashi University of Technology

Principal Investigator

金澤 靖  Toyohashi University of Technology, 工学部, 准教授 (50214432)

Keywords未校正ステレオカメラ / 3次元復元 / 高次特徴空間 / 画像認識
Research Abstract

本研究の目的は,実際のシーンを自由に撮影した2枚の画像から,その被写体である物体やシーン全体の高精度な3次元復元を行うことである。
3次元復元を行うには画像間の対応を決定する必要があるが,撮影したカメラに関して何の情報も得られない場合,多くの場合,その復元形状は大きく歪んでしまう。本研究では,その画像間の対応に含まれる,形状の歪みの原因となる対応を,高次特徴空間において判別し,除去することにより,高精度な復元を行おうと試みている。
本年度は,判別に有効な特徴量を実験的に検討することを主な目標とし,研究を進めた。その結果従来筆者らが特徴量として使っていたテンプレートマッチングの残差に比べ,近傍領域内のカラーヒストグラム間のバタチャリヤ係数が有効であることがわかり,その結果を査読付きの国際会議で発表することができた。発表した論文においては1クラスSVMを用いたが,グラフカットによる判別も同時に試み,現在研究を進めている。同時に,本研究に関連する研究として,繰り返しテクスチャを含むシーンに対して有効な対応付け法を提案し,査読付き国際会議および国内会議にて発表を行った。従来,繰り返しテクスチャはその周期性から,他の対応へも悪影響を与え,対応付けは困難とされていたが,提案法では,その繰り返しテクスチャの持つ情報を有効に利用し,かつ正確な対応付けが出来ることを示した。

  • Research Products

    (3 results)

All 2008 2007

All Presentation (3 results)

  • [Presentation] Accurate image matching in scenes including repetitive patters2008

    • Author(s)
      S.Kamiya, Y.Kanazawa
    • Organizer
      2nd International Workshop Robot Vision (Rob Vis2008)
    • Place of Presentation
      Auckland University, Auckland, New Zealand
    • Year and Date
      2008-02-20
  • [Presentation] 繰り返しパターンを含むシーンに対する画像間の対応づけ2007

    • Author(s)
      神谷 直, 金澤 靖
    • Organizer
      第10回画像の認識・理解シンポジウム
    • Place of Presentation
      広島市立大学
    • Year and Date
      2007-07-31
  • [Presentation] Improving accuracy of 3-D reconstruction by classifying correspondences2007

    • Author(s)
      Y.Takanashi, Y.Shibata, Y.Kanazawa
    • Organizer
      IAPR Conf. Machine Vision Applications (MVA2007)
    • Place of Presentation
      IIS, Tokyo University, Tokyo, Japan
    • Year and Date
      2007-05-17

URL: 

Published: 2010-02-04   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi