• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

階層型ニューラルネットワーク統計的性質に関する研究

Research Project

Project/Area Number 11780170
Research Category

Grant-in-Aid for Encouragement of Young Scientists (A)

Allocation TypeSingle-year Grants
Research Field Statistical science
Research InstitutionMie University

Principal Investigator

萩原 克幸  三重大学, 工学部, 助手 (60273348)

Project Period (FY) 1999 – 2000
Project Status Completed (Fiscal Year 2000)
Budget Amount *help
¥2,300,000 (Direct Cost: ¥2,300,000)
Fiscal Year 2000: ¥1,200,000 (Direct Cost: ¥1,200,000)
Fiscal Year 1999: ¥1,100,000 (Direct Cost: ¥1,100,000)
Keywords階層型ニューラルネットワーク / 識別可能性 / 最小二乗推定 / 学習誤差 / 汎化誤差 / 極値理論 / ε-covering / Radial Basis Functionネットワーク / 非線形回帰モデル / モデル選択規準
Research Abstract

階層型ニューラルネットワークが識別可能性を失う場合の統計的性質として、現在までに、二乗誤差規範の下で、データを正規雑音列とした場合について、学習誤差の期待値の上界と汎化誤差の期待値の下界および確率的な意味での学習誤差の上界と汎化誤差の下界が、Hagiwara(2000)により漸近的な意味で得られていた。一般的な最尤推定の場合については、Fukumizu(2001)が学習誤差の上界の確率的オーダーを導いている。しかしながら、最小二乗推定あるいは最尤推定の下での学習誤差および汎化誤差の期待値のオーダーは明らかにされていなかった。本研究では、平均値パラメータを学習データの入力点の集合の中で動かした場合の制約のあるGauss型動径基底関数素子について、二乗誤差規範の下で、ε-coveringの概念と極値理論を組み合わせる形で、データを正規雑音列とした場合の学習誤差と汎化誤差の期待値のオーダーおよび学習誤差と汎化誤差の確率的オーダーを漸近的な意味で導いた。通常の漸近論では、データ数をLとすると、これらのオーダーはl/Lであるが、ここで解析した制約のあるGauss型動径基底関数素子の場合、それよりも大きいオーダーであるlog(L)/Lとなることが明らかとなった。これまでに、Bayes推定の場合では、パラメータ空間のコンパクト性とネットワークの決める関数の解析性の仮定の下で、Bayes推定の意味での汎化誤差が、Watanabe(2000)により計算されている。一方、パラメータ空間のコンパクト性など、良い性質を仮定すれば、最尤推定の場合に、学習誤差がl/Lのオーダーとなることが、Watanabe(2001)およびFukumizu(2001)により示されている。本研究では、パラメータ空間のコンパクト性や関数の有界性を仮定しない場合には、学習誤差がこれより大きいオーダーとなり、パラメータ値の極限において、通常とは異なる振る舞いの生じることが確認されたことになる。

Report

(2 results)
  • 2000 Annual Research Report
  • 1999 Annual Research Report

URL: 

Published: 1999-04-01   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi