研究概要 |
アナログニューラルネットの連想記憶能力は、ニューロン間のシナプス相互作用を学習則にもとづいてどの様にとるかということだけではなく、ニューロンの入出力関係を表わす伝達関数の形にも大きく依存するわけであるが、自己無憧着なシグナルノイズ解析(SCSNA)と呼ぶ独自に開発した方法を用いて記憶容量と伝達関数の形の間の相関を調べた。 並列分散型の連想記憶モデルの本質がとらえられる点で、ヘブの局所学習則の仮定が行なわれることが多いが,そのような場合には,ニューラルネットの平衡状態としての性質である記憶容量には各ニューロンのつくる非ガウス的な局所場分布が重要な役割を果すものであることがわかり、伝達関数の形がSCSNAの枠組の中でどの様に局所場分布に影響を与え記憶容量を決定するに至るかという点が明らかにされた。特に非単調伝達関数の場合には、非ガウス局所場分布の起源である「出力比例項」のために,単調な伝達関数の場合に比べ記憶容量の大巾な増大がもたらされるだけではなく、局所場ノイズの凝縮に伴なう相転移現象がおこり、スーパーリトリーバル相と呼ぶ特異な相が出現し、局所学習則の下であっても誤差のない完全記憶想起が実現されることになる点についても、その条件等も含めて系統的な理解をすることが可能になった。
|