連想メモリを含む多くのニューラルネットワークは、情報をニューロン間の重みに分散して記憶するため、一旦学習が終了した後に新規な情報のみを記憶させようとすると、それまでに記憶した情報に破局的な忘却をもたらす。すなわち、追加学習が極めて困難である。本研究では、入力層からマップ層への重みの学習に改良を加えた、連想メモリとして動作可能な自己組織化特徴マップに、シナプス硬直条件およびシナプス半硬直条件を導入することで、追加学習が可能な連想メモリを構築した。従来の連想メモリでは、パターンの次元に合わせてニューロンを用意するため、必然的に記憶容量は学習に用いるパターンの次元によって制限されてしまう。これに対し本モデルは、特徴マップ上のニューロンの重みで記憶を行なうため、マップ上のニューロンを大きくすることで極めて大きい記憶容量が得られることがこれまでの研究で明らかになっている。また、計算機シミュレーションの結果から、従来の連想メモリに比べ、優れた耐雑音性を有していることも明らかになっている。 本モデルは以上のような特徴から長期記憶のモデルとみなすことができる。一方、短期記憶の有力なモデルとしては、記憶容量は小さいが学習を高速に行うことのできる従来の相互結合型連想メモリが挙げられる。本研究では、短期・長期両方を統合した連想メモリの構築を目指し、相互結合型連想メモリの連想能力の改善に関する研究も行った。具体的には、相互結合型の連想メモリの学習を幾何学的に再検討することで、従来法に比べ記憶パターンの引き込み領域を大きくすることのできる学習法の開発を行い、曖昧連想の能力を大幅に改善することに成功した。
|