研究概要 |
1.本研究では,まず,学習アルゴリズムが出力する仮説の良さの基準を次のように見直した.すわわち,学習対象である関数に関して仮説が与える情報の量(相互情報量)に着目し,これを仮説の良さの基準として採用することによって,より一般的で自然な学習モデルが構築できることを示した.特に,相互情報量に基づく学習モデルでは,概念の学習や多値論理関数の学習を区別することなく,同列に扱うことができる.今後は,ブ-スティングなどの従来の学習モデルにおいて適用可能な学習の戦略が,相互情報量に基づく学習モデルにおいても適用可能かどうか調べる予定である. 2.積和形論理式(DNF式)のクラスが学習可能か否かという問題は,古くから研究されているにもかかわらず,未だに解決されていない.最近,DNF式の学習問題がl-k-ホーン式と呼ばれる.ある制限された和積形論理式(CNF式)のクラスの学習問題に帰着されることが示された.本研究では,これをさらに制限した直交l-k-ホーン式という概念を導入し,この論理式のクラスが所属質問を併用することによって学習可能となることを示した.ここで用いた学習の手法は,DNF式の学習問題を攻略するための有望なアプローチの一つの考えられる. 3.項の数が高々定数kであるDNF式(k項DNF式)を拡張したk項関数という論理関数のクラスは,仮説の表現を制限しなければ学習可能となることが知られているが,仮説を同じk項関数に制限した場合は学習可能(真に学習可能)かどうか知られていない.本研究では,例題の生起する確立分布をp-スムーズ分布に制限すると,k項関数が真に学習可能となることを示した.また,確立分布をさらに制限して,一様分布と仮定すると,単調log n項関数のクラスが真に学習可能となることを示した.
|