研究概要 |
本研究計画の初年度として,それぞれの分担者のこれまでの研究の延長線上で,Kullback-Leibler情報量の有効性の検証を開始した. 1.モデル選択 統計的モデル選択に対してKullback-Leibler情報量が有効であることは,すでにさまざまな場面で検証されているが,離散的のモデルの場合にはAICのように漸近近似に依存する方法はあまり有効でない.その代りとなるブートストラップ法を提案し,その有効性を検証した. 2.ニューラルネットワーク 学習アルゴリズムの一つとしてのニューラルネットワークでも最大の問題はモデル選択であり,Kullback-Leilber情報量が重要な役割を果たすことを実証した. 3.実験計画 実験計画においても,情報量によって取得できる情報の量を評価する試みを開始した. 4.統計的推測 松下の類似性の距離など,Kullback-Leibler情報量と類似の量があるが,それとの有効性の比較をおこなった.
|