Research Abstract |
本研究では,発見というタスクを,既存の知識では説明が十分にできない事象に遭遇したときにその説明を可能にするような仮説的知識を生成することと捉え,その基本モデルとしてブースティングスキーマを用いて,知識発見の原理を解明しようとするものである.ブースティングとは,精度の低い複数の仮説をうまく統合することによって精度の高い仮説を構成する手法であり,計算学習理論の分野における最も重要な成果の1つにあげられる. ところが,これまで開発されてきたブースティング技術は,本質的に概念学習のための技術であり,仮説として2値を取る関数(あるいは2値を取る関数に還元できるもの)しか取り扱っていないため,知識発見の道具として用いるには不十分である.そこで,本研究では,実数やベクトルなど,より一般的な数学的概念を値として取る関数に対して,統一的に論じることのできるブースティングのモデルを提案し,その上で,仮説の表現によらないブースティングの一般的な手法を確立しようとしてきた. そのため,仮説の性能を表す尺度として,従来のブースティング技術の基盤となっている仮説の誤り確率に代わり,仮説と目標関数との間の相互情報量を採用した.相互情報量は,対象とする関数の取る値がN値でも,加算無限でも,あるいは実数でも定義される量なので,関数のクラスに依存しない統一的な議論が可能となる.さらに,ブースティングは,目標関数との間の相互情報量が小さい(弱)仮説をうまく統合して相互情報量が十分大きい仮説を構成することと自然に定義できる. このモデルの下で,本研究では,トップダウン型決定木生成アルゴリズムが,情報量に基づくブースティングアルゴリズムに拡張できることを示した.また,情報量を与えるエントロピー関数として,Shannonエントロピー関数に代わり,より凸性の強い関数を提案し,これを用いると弱学習の条件をさらに緩めることができることを示した.
|