• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2021 Fiscal Year Annual Research Report

写実的な画像合成のための高速なレイトレーシング

Research Project

Project/Area Number 19F19759
Research InstitutionThe University of Tokyo

Principal Investigator

梅谷 信行  東京大学, 大学院情報理工学系研究科, 准教授 (10893604)

Co-Investigator(Kenkyū-buntansha) MEISTER DANIEL  東京大学, 情報理工学(系)研究科, 外国人特別研究員
Project Period (FY) 2019-10-11 – 2022-03-31
Keywordsモンテカルロ積分 / 光輸送シミュレーション
Outline of Annual Research Achievements

2021年度は,主に「Neural Sequence Transfer」という研究を行った.この研究はコンピュータグラフィックス分野で,レイトレーシングを用いた光輸送シミュレーションにより,写実的な画像を生成する際に重要となるモンテカルロ積分法を,深層学習によって高速化するというものである.
モンテカルロ積分は被積分関数をいくつかの点でサンプリングしてその加重平均によって,積分値を近似的に求める.加重平均する際の重みは一般的には,シーンを構成する材質や光源によって定まる.本研究では加重平均の重みについて,重みが最適になるように,シーンごとに前もって学習をさせておくことで,モンテカルロ積分の収束を高速化するというものである.具体的には,Sequence Transferと呼ばれるある値に収束する数列に対して,数学的な変換を適応することでより早い収束が得られる既存の方法に着想を得て,これを深層学習によってさらに一般的な問題に適応できるようにした.モンテカルロ積分は乱数を使って関数の積分を近似するので,一般的に,収束が滑らかではなくゆらぎをもっていて,既存のSequence Transferのアプローチは適応できない.しかし,深層学習によって変換を学習させることで収束における乱数のゆらぎを吸収できることを期待したものである.
本研究の実験では,深層学習を用いてモンテカルロ積分の収束がある程度向上することが分かった.本研究はコンピュータ・グラフィックス分野の代表的な国際学会の一つである「Pacific Graphics」に論文が採択された.

Research Progress Status

令和3年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和3年度が最終年度であるため、記入しない。

  • Research Products

    (2 results)

All 2021

All Journal Article (1 results) (of which Int'l Joint Research: 1 results,  Peer Reviewed: 1 results) Presentation (1 results) (of which Int'l Joint Research: 1 results)

  • [Journal Article] Neural Sequence Transformation2021

    • Author(s)
      Sabyasachi Mukherjee,Sayan Mukherjee,Binh-Son Hua,Nobuyuki Umetani,Daniel Meister
    • Journal Title

      Computer Graphics Forum

      Volume: 40 Pages: 131-140

    • DOI

      10.1111/cgf.14407

    • Peer Reviewed / Int'l Joint Research
  • [Presentation] Neural Sequence Transformation2021

    • Author(s)
      Sabyasachi Mukherjee
    • Organizer
      Pacific Grahics
    • Int'l Joint Research

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi