研究概要 |
既に提案した忘却付き構造学習は,学習によりできるだけ単純なネットワークを生成できるという利点がある.この「節約の原理」により,モジュールの形成を説明できる.すなわちあるタスクの学習時に,潜在的に利用可能なニューロン群の中から,できるだけ少数のニューロンが選択され,これを当該タスクに対応するモジュールの形成と考えることが可能である. 形,大きさ,位置などが異なる図形の認識の課題において,モジュール数や各モジュールの大きさに関する情報を何も与えることなく,忘却付き構造学習により適切な数の適切な大きさのモジュールが自動的に生成されることを示した.しかも形,大きさ,位置のそれぞれに対応するモジュールが生成され,タスクが自動的に分割可能であることを示している.このタスク分割も上記学習法の「節約の原理」に基づくものであり,ジョルダンらの方法のような調整モジュールを要しない画期的なものである.タスク分割のもう一つの利点として,一般化能力の向上が考えられるが,これに関しては未検討である. タスクの分割にはこれ以外にも,入力空間の分割,訓練パターンの分割などがある.また対象とするタスクとして比較的単純な例しか用いていないが,より現実的な課題についても取り組みたい.これらは今後の課題として残されている. さらに既に提案したエントロピー最小化学習とモジュール構造ネットワークの関連として,全体ネットワークのエントロピーを,モジュール内ネットワーク,モジュール間ネットワークおよびマクロエントロピーの和として定式化できることを示した.
|