深層学習モデルはその高い表現能力で知られるが,入力に微小な変動をうまく加えることでその振る舞いを大きく変化することが知られている.特にこの微小変動は,複数の深層学習モデルに対し悪影響を与えることが知られている.これは敵対的転移性と呼ばれ,深層学習モデルの信頼性に関する大きな課題となっている.この課題に関して本研究では主に二つの成果を得た.一つは深層学習モデルの構造を進化計算で探索し,いくつかモデルに悪影響を与える微小変動に対して頑健な関数を学習できるような構造が存在することを示した.敵対的転移性と深層学習モデルの構造はこれまで深く議論されておらず,この関係を示したという点に新規性がある.敵対的転移性は深層学習で学習される関数の特性に関わり,統計的・幾何的理解が求められており,また産業的にも人工知能システムの信頼性に深く関わる問題であり,これに貢献できたと考える. 二つ目の成果として,微小変動を利用し,あるドメインでの学習結果を別のドメインの学習に活用できるという新たな応用を物体認識タスクにおいて示した.これはあるドメインで微小変動に頑健になることで,そのドメイン特有の特徴を学習することを避けることで,別ドメインの学習に転用しやすくするというメカニズムに基づく.従来は頑健性と精度にはある種のトレードオフが存在していたが,ドメイン適応というタスクでこれを回避できた点が興味深い. 一つ目の成果は国際論文誌IEEE Accessに採択され,二つ目の成果は同論文誌で査読中である.またそれぞれ国内の研究会での発表も行った.
|