Project/Area Number |
17K12689
|
Research Category |
Grant-in-Aid for Young Scientists (B)
|
Allocation Type | Multi-year Fund |
Research Field |
High performance computing
|
Research Institution | University of Tsukuba (2017, 2019) Toyohashi University of Technology (2018) |
Principal Investigator |
Endo Yuki 筑波大学, システム情報系, 助教 (00790396)
|
Project Period (FY) |
2017-04-01 – 2020-03-31
|
Project Status |
Completed (Fiscal Year 2019)
|
Budget Amount *help |
¥4,160,000 (Direct Cost: ¥3,200,000、Indirect Cost: ¥960,000)
Fiscal Year 2019: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2018: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2017: ¥2,210,000 (Direct Cost: ¥1,700,000、Indirect Cost: ¥510,000)
|
Keywords | コンピュータグラフィックス / 画像処理 / 深層学習 / ニューラルネットワーク / 畳み込みニューラルネットワーク / CNN / LSTM / 生成モデル / コンピュータグラフィクス / 画像 / 画像生成 / 人工知能 |
Outline of Final Research Achievements |
There have been many researches that tackle a problem of understanding and generating videos using AI, but this is still challenging because videos contain much more complicated information than images. Our technique can efficiently train videos by decomposing complicated components into simple ones. Specifically, we train two neural networks separately, each of which trains either motion such as moving cloud or appearance such as day-and-night variation. Our technique can easily create higher-quality videos from landscape images on the Web than prior work.
|
Academic Significance and Societal Importance of the Research Achievements |
AI の代名詞とも言えるディープラーニングの進歩により、一枚の静止画像から未来の動きを予測することが可能となってきた。しかし現在の最先端の技術でさえ、出力となる動画の解像度が 128×128 画素程度という低解像度であったり、出力できるフレーム数が 32 程度とごく短かったりと、低品質な出力に留まっていた。今回開発した技術では、例えば 640×360 画素で 1,000 フレーム以上といった、従来技術よりも格段に高品質な動画を出力できるようになった。本技術は、エンターテイメント用途に加え、景観予測シミュレーションなどへの応用も期待される。
|