• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Improvement of Depth from Defocus technique based on neural networks

Research Project

Project/Area Number 21K11935
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61010:Perceptual information processing-related
Research InstitutionUniversity of Fukui

Principal Investigator

吉田 俊之  福井大学, 学術研究院工学系部門, 教授 (50240297)

Project Period (FY) 2021-04-01 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥3,120,000 (Direct Cost: ¥2,400,000、Indirect Cost: ¥720,000)
Fiscal Year 2023: ¥520,000 (Direct Cost: ¥400,000、Indirect Cost: ¥120,000)
Fiscal Year 2022: ¥130,000 (Direct Cost: ¥100,000、Indirect Cost: ¥30,000)
Fiscal Year 2021: ¥2,470,000 (Direct Cost: ¥1,900,000、Indirect Cost: ¥570,000)
KeywordsDepth from Defocus / depth推定 / ニューラルネットワーク CNN / CNN / 誤差低減 / 高精度化 / ニューラルネットワーク
Outline of Research at the Start

Depth from Defocus(DFD)法は,対象物体上の焦点面を変化させて撮像した多焦点画像群を用いて物体各点までの距離値を推定する手法として知られ,シンプルハードウエア構成で高精度の距離推定が可能な一方,シミュレーションと比べ実画像に対する推定精度が大きく低下する問題が残されている.そこで本研究では,ニューラルネットの汎用性に着目し、ニューラルネットの学習を通じてボケ生成モデルやレンズの非理想性を間接的に補正することで、DFD法の精度改善を図る.

Outline of Annual Research Achievements

Depth from Defocus(DFD)法は,対象物体に対する多焦点画像群を用いて物体各点までの距離(depth)値を推定する手法で,種々の手法が提案されている一方,既存の手法はシミュレーションと比べ実画像に対する推定精度が大きく低下する問題が残されている.本研究ではニューラルネットワークの汎用性に着目し,畳み込みニューラルネットワーク(CNN)の学習を通じてDFD法の推定誤差を低減するCNN-DFD法の研究開発を目的とする.
3年目の令和5年度は,昨年度までに確立したDFD-CNNの学習方法について,用いるレンズに対するパラメータの最適化,表面テキスチャに対する汎化性の検討,また実物体に対する形状復元精度の評価を行った.具体的には,提案するDFD-CNNは,対象ブロックに対して空間隣接する8ブロック,およびdepth方向に一定距離離れた同一座標の1ブロックの,合計10ブロックを用いて学習するが,空間およびdepth方向の距離について最適な値を検討すると共に,教師画像の表面テキスチャを複数用いて学習させ,表面テクスチャに対する汎化性の強化を図った.これらにより,提案法は,従来のDFD法における平均的なdepth推定誤差を大きく改善することを確認した.最後に,実物体に対して提案手法を適用して形状復元精度を主観的に評価し,従来法よりも高精度で形状復元が可能となることを確認した.
以上により,本研究においては,当初計画で目指した目標はほぼ完全に達成できた.なお,当初計画では研究期間を3年間としていたが,現時点で得られた成果を論文投稿するには至っていないため,研究期間を1年間延長し,次年度に成果を論文投稿する予定である.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本研究における最も重要な目標は,厳密なdepth値を用いないDFD-CNNの学習方法の確立であり,本研究を通じて当該目標は達成され,またパラメータの調整や汎化性の評価等についても計画に沿って進められたため,概ね順調に進んだと判断される.

Strategy for Future Research Activity

研究期間を延長した4年目は,これまでに得られた成果である,DFD-CNNの学習法,および適当なCNN構造に適用した場合の精度評価やパラメータの最適化等を論文としてまとめ,適当な論文誌に投稿する予定である.

Report

(3 results)
  • 2023 Research-status Report
  • 2022 Research-status Report
  • 2021 Research-status Report
  • Research Products

    (4 results)

All 2023 2022 2021

All Presentation (4 results) (of which Int'l Joint Research: 1 results)

  • [Presentation] レンズの非理想性を考慮した CNN-DFD 法の高精度化2023

    • Author(s)
      吉田俊之
    • Organizer
      2023年度画像符号化・映像メディア処理シンポジウム
    • Related Report
      2023 Research-status Report
  • [Presentation] CNN-DFD 法における実画像に対する学習手法2022

    • Author(s)
      杉本佑斗,吉田俊之
    • Organizer
      2022年度画像符号化・映像メディア処理シンポジウム
    • Related Report
      2022 Research-status Report
  • [Presentation] CNN-based realization of Depth from Defocus technique2022

    • Author(s)
      Mizuki Kaneda and Toshiyuki Yoshida,
    • Organizer
      2022 International Workshop on Advanced Image Technology
    • Related Report
      2021 Research-status Report
    • Int'l Joint Research
  • [Presentation] CNN を用いた Depth From Defocus 法の高精度実現2021

    • Author(s)
      金田 瑞基,吉田 俊之
    • Organizer
      2021年画像符号化シンポジウム/映像メディア処理シンポジウム
    • Related Report
      2021 Research-status Report

URL: 

Published: 2021-04-28   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi