研究概要 |
本研究では,平均ひずみの最小化の視点に立ち,あらかじめ設定された数の条件の基で,神経細胞の削除による新たな2つの手法を提案した.第一の手法は適応削減法である.これは,局所的情報(部分ひずみ)による適応的な学習であり,次のように記述される.まず,あらかじめ多くの参照ベクトルが用意され,競合学習により処理される.そして,参照ベクトルは,部分ひずみの基準に従って,設定された数まで,逐次的に削除される.第二の手法は感応削減法である.これは,大域的情報(平均ひずみ)による学習過程での神経細胞の貢献度により,冗長な参照ベクトルを削減する方法である.はじめに,多くの参照ベクトルが準備され,競合学習により処理される.つぎに,参照ベクトルは,一旦削除され,最小の平均ひずみを与えるように,冗長な参照ベクトルが削減される. 数値実験として,様々な2次元パターンに対して,従来モデルと比較した.結果として,平均ひずみ及び部分ひずみの標準偏差に基づいて,提案手法は従来手法より有効であることが分かった.特に,適応削減は感応削減より,少ない計算量で処理できる.また,感応削減は適応削減より平均ひずみが小さくなる.更に,両手法に関して,初期のベクトル数に対する平均ひずみへの影響を調べた.これらに関しては,様々な入力パターンに対して,平均ひずみは異なる結果を示すことが分かった.ただし,削減手法を有することにより,従来手法より良い結果を示すことも分かった. 更に複雑な入力パターンへの実験を継続中であり,パターンによる平均ひずみへの影響や,数に対する影響も調査中である.また,この問題に関しては,不連続かつ複雑な入力に対しても有効であると考えられる.このことは今後の課題としたい.
|