相関型の連想記憶モデルではシナプスを切断するとシナプス一本あたりの記憶容量が増大することが知られている。しかしその場合、ネットワーク全体の記憶容量は減少してしまう。この困難を解決するために、リカレントニューラルネットワークに遅延シナプスを導入し、シナプス本数は定にしながら、シナプスの結合率を小さくすることを提案した。まず、シナプスに遅延を有するリカレントニューラルネットワークのモデルを設定した。このとき、解析を容易にするため、ネットワークは離散時間同期型で動作するものとし、また、各要素が±1をそれぞれ50%の確率でとるようなランダムパターンの系列を相関学習で記憶するものとした。次に、このようなモデルの巨視的状態遷移方程式を統計神経力学を用いて導出した。導出された理論を用いて、シナプスが全結合している場合、すなわち、シナプスに切断がない場合について、ネットワークの初期状態によるダイナミクスや記憶容量の違いについて検討した。さらに、無作為切断と系統的切断の2通りのシナプス切断について理論的な解析を行った。その結果、いずれの場合においても、シナプス総本数一定の条件下でシナプスの結合率を下げながら遅延段数を増すと記憶容量が増大することがわかった。また、その増大の傾向は、無作為切断の場合よりも系統的切断の場合により顕著であることがわかった。これらの結果は計算機シミュレーションとの比較により検証された。今回得られたこれらの知見は、脳がシナプスの過剰生成と刈り込みを行うという事実の理論的な裏付けとなるものである。また、脳内においては平衡状態よりも系列やリミットサイクル等の動的なアトラクタを記憶する方が望ましいことを強く示唆するものである。
|