• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

1998 Fiscal Year Annual Research Report

多元的冗長性を削減する新しい実写環境伝達方式の研究

Research Project

Project/Area Number 09750408
Research InstitutionNagoya University

Principal Investigator

藤井 俊彰  名古屋大学, 工学研究科, 助手 (30273262)

Keywords3次元実写環境情報 / 光線空間 / 測地ドーム / 光線空間データ取得装置 / 多元的冗長性 / 情報圧縮 / 視差補償予測符号化 / スケールパラメータ
Research Abstract

1. 前年度で得られた知見をもとに,縦方向の視差を有する光線空間の場合に必要とされる解像度や取得装置の分解能について検討した.
(1) 4次元光線空間において光線密度を一様にする光線パラメータの取り方について検討し,測地ドームを利用した角度方向の離散化を導入することにより,これが近似的に実現できることを示した.
(2) NTSC相当の解像度をもつテレビカメラと標準レンズによる撮像系を用いて視距離600mmで撮影する場合,光線の空間方向の分解能として1mm程度,角度方向の分解能として0.25゚程度の精度が必要であることを明らかにした.
2. 4次元光線空間が持つ多元的冗長性を検討し,効率的な情報圧縮アルゴリズムの開発,評価を行った.
(1) 光線空間データには(i) 空間方向の冗長性,(ii) 角度方向の冗長性,の異なる性質を持つ2種類の冗長性が存在することが分かった.さらに,光線密度が高くなるほど冗長性も大きくなることが明らかとなった.
(2) 2枚の視差画像に幾何学的な変換を施すことにより,水平方向視差のみを有するステレオ画像対に帰着できることを示した.また,視差補償予測に用いるブロック形状としては横長のブロックを用いるとともに水平方向の拡大縮小を可能とするスケールパラメータを導入することが効果的であることを実験的に示した.さらに,複数画像からの視差補償予測として,正20面体の頂点に相当する方向に参照画像を配置し,1枚の画像に対してその周辺の3枚の参照画像を用いて視差補償を行う方式を提案した.
(3) 立方体の表面にテクスチャを張りつけたものを被写体とし,(2)の圧縮アルゴリズムの評価を行った.その結果,すべての方向において平均28dBのPSNRで200分の1程度の圧縮率を達成できた.
3. 以上を統合し,実物体の全方向からの画像情報を取り込み,情報圧縮・蓄積し,観察者から指定された方向の画像を再構成できるシステムを構築した.これにより,提案する実写環境伝達方式の基本原理の実証に成功した.

  • Research Products

    (7 results)

All Other

All Publications (7 results)

  • [Publications] Toshiaki Fujii: "A New Ray-Space Method for 3-D Spatial Information Processing and Handling" EVA-GIFU'98. 19-1-19-11 (1998)

  • [Publications] 小林丈之: "多視点画像からの光線データ補間に関する基礎検討" 平成10年度電気関係学会東海支部連合大会. 337-337 (1998)

  • [Publications] 藤井俊彰: "光線空間の統計的性質の定式化の試み" 映像メディア処理シンポジウム. I-4.09. 65-66 (1998)

  • [Publications] 藤井俊彰: "3次元映像メディア" 第11回情報伝送と信号処理ワークショップ. 11-16 (1998)

  • [Publications] Toshiaki Fujii: "A New Acquisition System of Arbitrary Ray-Space" SPIE Electronic Imaging'98. 3639. (1999)

  • [Publications] 藤井俊彰: "光線空間符号化に基づく3次元空間情報の圧縮" 画像ラボ. 10・3. 45-49 (1999)

  • [Publications] 小林丈之: "適応フィルタを用いた光線空間データ補間" 1999年電子情報通信学会総合大会. (1999)

URL: 

Published: 1999-12-11   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi