研究課題/領域番号 |
18K11487
|
研究機関 | 一般財団法人ファジィシステム研究所 |
研究代表者 |
石川 眞澄 一般財団法人ファジィシステム研究所, 研究部, 特別研究員 (60222973)
|
研究期間 (年度) |
2018-04-01 – 2022-03-31
|
キーワード | 深層学習 / 積層自己符号化器 / スパースモデリング / 疎構造 / 情報圧縮 / ブラックボックス / 冗長表現 |
研究実績の概要 |
①近年、深層学習の進展が著しくその認識性能の高さが注目を浴びているが、認識結果を人が理解することは困難である。積層自己符号化器を対象としてスパースモデリングによりブラックボックスを解消し、人が理解できるようにすることが研究の目的である。 ②積層自己符号化器を3層の自己符号化器に分割し、胎児心拍数陣痛計データを用いてスパースモデリングを用いた貪欲学習により5層の積層自己符号化器を学習する。学習結果がスパースであれば、入力層から出力層への経路を調べることにより情報圧縮機構を解明できる。この経路には大別して恒等写像と疑似恒等写像がある。前者は情報損失が無いのに対し、後者は情報損失があることをデータで実証し、2種類の写像と情報圧縮ロスの関係を明らかにした。情報圧縮機構の解明を妨げるのは、一つの入力素子が複数の隠れ素子と結合するという冗長表現の存在である。この存在の有無を統計的検定により判定し、L1ノルム重みが小さい範囲では結合数が増え相関係数が零であるという帰無仮説が棄却され冗長表現が存在することを、L1ノルム重みが大きくなると棄却されず冗長表現が存在しないことを実証した。 ③深層学習と同様、主成分分析(PCA)における各主成分も人が理解し難い。より高い説明力(累積寄与率)と関連変数の少なさという観点から主成分分析を捉え直し、L1ノルムに加えて選択的L1ノルムも併せ用いてより疎構造で説明力の高い自己符号化器を求め、L1ノルムのみを用いる「スパースPCA」に対する優位性を示した。 ④2020年に説明できる(explainable)AIに関する論文が急増した。説明できるAIは深層学習の学習法には手を加えず入出力間の関係を分析するものが多いのに対し、スパースモデリングは疎構造が得られるように学習法に工夫を加えるという相違点があることを明らかにした。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
当初3年間の研究計画であり令和2年度で終了予定だったが、「②補助事業の目的をより精緻に達成するための研究の実施(追加(再現)実験の実施や学会参加、論文投稿など)」を理由として延長申請を行い、延長を承認され4年間となった。研究実績の概要②に示した内容により「おおむね順調に進展している」を選択した。 なお当初の研究計画には含まれていないが、「人が理解できる深層学習」のために重要と考えられるスパースな主成分分析に対してもスパースモデリングのアプローチを適用し、従来の「スパースPCA」よりも優れた性能が得られることを実証した。
|
今後の研究の推進方策 |
これまで赤ワインデータ及び胎児心拍数陣痛計データを対象として積層自己符号化器の学習をスパースモデリングを用いて実施してきた。今後はこれらとは別のビッグデータを用いて更なる研究を推進し、人が理解できるという視点からスパースモデリングの有効性を実証したい。別のビッグデータとしては、たとえばデータ数がより多いデータ、あるはこれまで連続値入力のみを扱ってきたがカテゴリ値を持つ入力も取り入れるなどが考えられる。 また、説明できる(explainable)AIという視点からスパースモデリングの位置づけを明確にし、両者の融合の可能性についても検討を行い、人が理解できる深層学習に向けて更なる取り組みを進めたいと考えている。
|
次年度使用額が生じた理由 |
当初3年間の研究計画で令和2年度で終了予定だったが、「②補助事業の目的をより精緻に達成するための研究の実施(追加(再現)実験の実施や学会参加、論文投稿など)」を理由として延長申請を行い、延長を承認され4年間となり、次年度が最終年度となる。新型コロナウイルス蔓延のため、令和2年3月以降の学会発表がすべてオンラインとなり、当初想定していた旅費経費が不要となったのが、次年度使用が生じた主要な理由である。 次年度使用計画としては、研究成果の学会発表等に必要な経費に加えて、研究遂行において追加的に必要となる備品・消耗品購入を予定している。
|