2年目にあたる本年度は前年度の成果をより発展させ、以下の2つの側面から研究を行った。 1. 2クラス問題として定式化されているSVMの複数クラス問題への拡張について、前年度に提案した手法を再度見直して厳密な定式化と解法を示した。また、凸二次計画問題を解くプログラムとして前年度に用いたCPLEXに代えてMINOSを採用することによって信頼性の向上をはかった。UCIデータを用いた評価実験の結果では、従来法と比較して優位な差は得られなかった。原因については調査中であるが、実験試料数が少ないこと、および、最適解がうまく得られていないことが主要な原因であると考えられる。 2. 誤分類の定式化においては、従来のSVMが学習資料に対する誤認確率を推定する代わりに誤分類データの識別境界からの距離を指標に用いている問題に着目した。Vapnikの提案するSRM理論(Structural Risk Minimization)による枠組でSVMの学習を行う場合、誤分類率を求めることが要求されるが、誤分類データが識別境界面から遠くに位置する場合に従来法は近似の精度が非常に悪くなり、学習に悪影響を与えると予想される。この問題に対して、誤分類数を数え上げて誤認識率を求めるための定式化を新たに2種類提案した。誤分類数を直接数え上げるための厳密な定式化自体は可能であるが、最適化問題としては滑らかな関数とならないため解くことが難しい。提案手法は滑らかな関数を用いた近似手法となっており、従来の距離を用いた手法と比較して近似の精度が高い。公開されている手書数字認識データベース(MNIST)およびUCIデータベースを用いた評価実験を行った結果、従来法と同等以上の識別性能が得られることが示された。
|