• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

1995 Fiscal Year Annual Research Report

大規模動的ニューラルネットワークの安定平衡解の構成とその連想記憶への応用

Research Project

Project/Area Number 07650464
Research Category

Grant-in-Aid for General Scientific Research (C)

Research InstitutionTokyo Denki University

Principal Investigator

稲葉 博  東京電機大学, 理工学部, 教授 (40057203)

Co-Investigator(Kenkyū-buntansha) 伊藤 直治  東京電機大学, 理工学部, 助手 (90246661)
Keywords動的ニューラルネットワーク / 安定平衡解 / 連想記憶 / 引き込み領域 / 結合係数行列 / しきい値ベクトル / モジュールニューラルネットワーク
Research Abstract

本研究は,いくつかの特別な構造を持つ動的ニューラルネットワークを複数個結合してえられる大規模ネットワークに対し,(i)記憶すべきパターンベクトルを安定な平衡解に指定し,(ii)安定な平衡解の引き込み領域をできるだけ広くし,かつ,(iii)不要な安定な平衡解をできるだけ減少させるために,動的ニューラルネットワークを特徴付ける結合係数行列としきい値ベクトルをどのように構成するかという連想記憶の基本的問題を解明することを目的としている.本年度は,特に,(a)動的ニューラルネットワークに指定した安定な平衡解を構成する理論およびその引き込み領域を調整する理論の確立,(b)特別な構造をもつモジュールニューラルネットワークの構成理論およびその引き込み領域に関する理論の確立,について研究を進めた.
(a)については,記憶すべきパターンベクトルが平衡解となるようにあらかじめ構成されている動的ニューラルネットワーク(McCulloch-Pittsモデル)に対し,各記憶パターンベクトルの引き込み領域を広げるための結合係数行列としきい値ベクトルの再構成法について考察し,1つの方法を提案した.この方法を用いて結合係数行列としきい値ベクトルを再構成すると,引き込み領域が拡大するということがコンピュータ・シミュレーションによって確認できた.
(b)については,与えられた記憶すべきパターンベクトルの任意の2つのベクトルのハミング距離が3以上であれば,すべての記憶すべきパターンベクトルが安定な平衡解となるようなモジュールニューラルネットワークの結合係数行列としきい値ベクトルの構成法を求めた.さらに,コンピュータ・シミュレーションによってその有効性を確認した.また,与えられた記憶すべきパターンベクトルが平衡解となるようなマルチモジュールニュートラルネットワークの構成方法を求め,記憶すべきパターンベクトルのほとんどが安定平衡解となっていることをコンピュータ・シミュレーションによって確認した.以上の成果を,IEEE International Conference on Neural Networks and Signal Processing(1995年12月)において2編の論文として発表した.

  • Research Products

    (2 results)

All Other

All Publications (2 results)

  • [Publications] H. Inaba: "Equilibrium solutions of neural networks with a special structure" Proc. IEEE Int. Conf. Neural Networks and Signal Processing. 1. 75-78 (1995)

  • [Publications] H. Inaba: "Multi-module neural networks and their application to associative memories" Proc. IEEE Int. Conf. Neural Networks and Signal Processing. 1. 110-113 (1995)

URL: 

Published: 1997-02-26   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi