• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2005 Fiscal Year Annual Research Report

識別可能性が失われる場合の多層パーセプトロンの統計的性質に関する研究

Research Project

Project/Area Number 15700187
Research InstitutionMie University

Principal Investigator

萩原 克幸  三重大学, 教育学部, 助教授 (60273348)

Keywords多層パーセプトロン / 特異モデル / 学習誤差 / モデル選択 / モデルの識別可能性 / 統計的漸近理論
Research Abstract

本研究では,パラメトリックな関数の線形結合で表される関数のクラスについて,VC次元が有界であるという緩い仮定の下で,関数に対するある種の制約が最尤推定の下での学習誤差のオーダーに直接関係することを示した.このクラスの関数は,有界な関数gの定数倍として,パラメトリゼーションを変えても尤度の値は不変であることから,入力が与えられた下での関数gのノルムが下からδ(n)で抑えられるという制約を考え,学習誤差の上界がこのδ(n)にして,O_p(log(n))やO_p(loglog(n))となることを示した.ただし,nはデータ数である.特異でないモデルの場合,統計的漸近論に基づく一般的な結果では,学習誤差はO_p(1)であるが,多層パーセプトロンを含む上記の関数のクラスのような特異モデルの場合,学習誤差はO_p(log(n))であることが示されていた.本研究の結果は,こうした学習誤差の振る舞いが上記の制約と直接関係することを示したものであり,この制約が特異モデルの性質を特徴付ける上で本質的であることが明らかとなった.また,この結果に基づき,ガウシアン素子の学習において,幅パラメータの推定値はいくらでも小さくなりうることが示された.これは,経験的に知られていた事実であり,正則化の導入の根拠となるものである.したがって,本研究では,それに対する理論的証証拠を与えたことになる.この結果は,現在,Neural Netwrorks誌に投稿中である.多層パーセプトロンを含む一般的な場合についてのモデル選択規準については,まだ,研究中であるが,パラメトリックな基底関数の線形結合で表される比較的単純なモデルについては,縮小推定の下でのモデル選択規準を与え,それが強い意味での選択の一致性をもつことを示した.この結果は,Journal of Statistical Planning and Inferenceに掲載された.また,同じモデルに対する縮小推定の下での学習誤差・汎化誤差の期待値の評価については,IEICE Transactionに投稿中である.

  • Research Products

    (2 results)

All 2006 2005

All Journal Article (1 results) Book (1 results)

  • [Journal Article] A consistent model selection for orthogonal regression under component-wise shrinkage2006

    • Author(s)
      Katsuyuki Hagiwara
    • Journal Title

      Journal of Statistical Planning and Inference 136

      Pages: 1181-1195

  • [Book] 学習システムの理論と実現2005

    • Author(s)
      渡辺, 萩原, 赤穂, 本村, 福水, 岡田, 青柳
    • Total Pages
      195
    • Publisher
      森北出版

URL: 

Published: 2007-04-02   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi