2017 Fiscal Year Annual Research Report
Formation of information representation in self-organizing neural networks
Project/Area Number |
26330280
|
Research Institution | University of Miyazaki |
Principal Investigator |
伊達 章 宮崎大学, 工学部, 准教授 (60322707)
|
Project Period (FY) |
2014-04-01 – 2018-03-31
|
Keywords | 神経回路モデル / 数理モデル / 自己組織化 / 数理脳科学 / ニューラルネットワーク / 学習 |
Outline of Annual Research Achievements |
ニューラルネットには,いくつかの典型的な要素モデルがある.教師なし学習の回路は,教師信号が与えられない.外界の信号だけを見て,その時間・空間的な規則性を抽出,内部(脳)に写し取る.これは自己組織化という.自己組織のモデルはたくさんある.それらのモデルに共通な面は多い.本研究は,いくつかの基本的な自己組織のモデルの性質を解析し,神経回路モデルでなぜ精度の高い機械が実現できるのか,その手がかりを得ることを目的とした. 日常生活においては,学習に値する新しい情報が与えられることは滅多にない.一方,人間は,その滅多にない機会を逃さないで学習している.最終年度である平成29年度においては,本質的に予測が不可能な入力も与えられる状況を想定した予測器の開発に取り組んだ.このモデルは推定器Pと推定可能性判定器Dの二つの回路からなる.Pは実数,Dは0または1を出力する.D=1のとき,それはPの出力が予測推定値として有効であることを意味する.この2つの回路モジュールは相互に作用しながら学習が進む.その様子は,最近活発に研究がされているGAN (Generative Adversarial Nets) と類似しているが学習目的が異なる.GAN はボルツマンマシンと同様,入力信号空間の確率分布を近似する生成モデルである.学習に使えないデータが例題の中に大量に混ざっている中,データを選別して学習を進める必要がある点が,ここで考えるモデルとは本質的に異なる. これまでに人工的に生成した単純な例題に対しては,回路の有効性を示すことができた.モデルの構造が単純であるため,本手法は各研究者が熟知している既存のさまざまなモデルをそのままP回路として利用できる.また,多数のP・Q回路を用意し競合学習させるなど,発展が期待できる.
|