2020 Fiscal Year Annual Research Report
Project/Area Number |
20H00615
|
Research Institution | Waseda University |
Principal Investigator |
石川 博 早稲田大学, 理工学術院, 教授 (60381901)
|
Project Period (FY) |
2020-04-01 – 2025-03-31
|
Keywords | CNN |
Outline of Annual Research Achievements |
畳み込みニューラルネットワーク(CNN)は、一般のニューラルネットワークの構造に加えて、変数に空間的な意味を与え、近傍や対称性の概念をその構造に反映させている。CNNは通常、大量の教師データで学習させるが、その性能は学習だけでは説明できない。実際CNNは、全く学習することなくある種の画像変換問題を解くことさえできる。これをDeep Image Prior (DIP)と呼ぶが、これはCNNのネットワーク構造自体が、自然画像の統計をかなりの程度体現していることを示唆する。本年度はこのDIPのCNN構造設計への応用の可能性を模索するために、同一のネットワーク構造の、通常の学習によるタスクにおける性能と、DIPとしての学習をしないタスク性能との相関を調べた。これは、DIPとしての性能の方が学習の必要がないため短時間で測定でき、もし相関があれば、学習により使用するCNNの構造設計を高速に行えるためである。そのために、ノイズ除去タスクにおいての両者の性能を調べた。調査した構造は、いわゆるEncoder-Decoderアーキテクチャと呼ばれるもので、Encoderが画像の特徴を抽出しボトルネックを通してDecoderで画像に戻す。この基本構造に、スキップコネクション(SC)と呼ばれる、ボトルネックをバイパスする経路を付加する。これらEncoderやDecoderの深さや、SCの有無、またSCを入れる層の深さの違いによる様々な構造を調査した。その結果、学習によるタスクの性能は主に、最も浅いSCの深さに関係し、DIPとしての学習をしないタスク性能は、ネットワークの深さに関係することが判明した。これらの2要素は独立に変化させることができ、実際にこれらを変化させると2つの方法によるタスク性能をコントロールすることができるので、当初の目論見であるCNN構造設計には単純には使えないことが判明した。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
計画通り本年度はこのDIPのCNN構造設計への応用の可能性を模索するために、同一のネットワーク構造の、通常の学習によるタスクにおける性能と、DIPとしての学習をしないタスク性能との相関を調べた。
|
Strategy for Future Research Activity |
計画通り推進していく。
|
Research Products
(1 results)