研究概要 |
能動学習とは,ニューラルネットワーク自身が学習の途中経過をみながら次の訓練データを積極的に選んでいく学習であり,基本的な問題が2つある.第1は追加学習の問題である.ある訓練データに対して最適な汎化能力をもつニューラルネットワークが既に得られている状態で新しく訓練データが追加されたとき,既に得られている学習結果と新しい訓練データだけを用いて効率よく学習を行う問題である.子の問題に対して,古い訓練データと新しく追加された訓練データを併せた全訓練データに対して最適な汎化能力と全く同じ汎化能力を得る追加学習の方法を確立した.第2の問題は訓練データの選び方の問題である.同じ数の訓練データに対して最大の汎化能力を獲得できるような訓練データの設計法を与えた. ニューラルネットワークの学習によく使われる誤差逆伝搬法では,訓練誤差があまりにも小さくなるまで学習を続けるとかえって汎化能力が低下するという過学習現象が知られている.これは,学習のために用いた誤差逆伝搬法の評価基準と,学習が終了した後で汎化能力を議論するときに用いる評価基準が異なっていることに起因する.後者を本来の評価基準,前者をその代替評価基準とみなすことにより,"本来の評価基準の代替評価基準に対する許容性"という概念を導入して,この問題を理論的に解決した.即ち,各種許容性が成立するための必要条件を求め,過学習を防ぐための訓練データの設計法を与えた.また,許容性の問題を能動学習の立場からみなおし,許容化問題という新しい問題を提起した.これは,ある訓練データに対して許容性が成立しないとき,更に訓練データを追加・削除することにより,許容性を成立させる問題である.汎化能力が最大になるような許容化教材の構成法を与えた.
|