• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2011 Fiscal Year Annual Research Report

データ横断的機械学習手法の理論と応用

Research Project

Project/Area Number 22700289
Research InstitutionThe University of Tokyo

Principal Investigator

鈴木 大慈  東京大学, 情報理工学(系)研究科, 助教 (60551372)

Keywords統計的学習理論 / multiple kernel learning / スパース学習 / 正則化 / スパース加法モデル
Research Abstract

MKL (Multiple Kernel Learning) はLassoやGroup Lassoを含む広い枠組みであり, L1-ノルムを正則化項とした正則化学習法であるとみなすことができる.拡張としてLp-ノルムやElasticnet型の正則化を用いた手法が提案されてきたが,興味深い事実として,近年多くの数値実験により,p>1におけるLp-MKLやElasticnet-MKLが普通のL1-MKLを精度の面で上回ることが知られるようになってきた.この事実は,Corinna CortesがICML 2009の招待講演で紹介し,広く知られるようになった.「なぜ密な学習方法が疎なL1正則化を上回るのか」という問いは非常に重要な問題である.この問いに対する理論的解答を与えるため,一般的な枠組みを構築して包括的な考察を行った.これは全ての単調増加な混合ノルム型正則化に適用できるという点で特徴的である.我々の学習レートは局所化の技術を使っており,そのため大域的なバウンドよりもタイトである.また,その枠組みによって導出されるレートがミニマクスレートを達成することも示した.そして,「なぜL1正則化を密な正則化が上回るのか」という問いへの解答として,RKHS の"複雑さ"が一様に等しいわけではないとき,密な正則化が疎なL1正則化を上回ることを示した."複雑さ"が不均一という状況は実問題では自然な設定である.
また,真が疎な場合の解析も行った.Elasticnet型の正則化項に注目し,L1と比べてどのような違いがあるかを調べた.結論として,Elasticnet型正則化を使うことにより真の関数の滑らかさに応じて速い収束レートを達成できることが示された.一方,L1正則化を用いると,推定量がより疎になるため真の非ゼロ要素数に関するオーダーが小さくなることが示された.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

MKLの理論解析は当初の予定よりも多くの重要な結果をもたらしている.事実,我々の成果は当初想定していなかった新しい知見をもたらしており,それらはNIPSやAISTATSといったトップレベル国際会議に採択され高い評価を受けている.一方,効率的な推定アルゴリズムの開発やマルチタスク学習に対する研究は現在進行中であり次年度も継続して行う方針である.

Strategy for Future Research Activity

研究計画通り研究を進める.次年度からはマルチタスク学習や構造学習といった枠組みにも研究の幅を広げ,理論・アルゴリズム両方の研究を行ってゆく.アルゴリズムは適宜ソフトウェアを公開し,広く一般に使えるようにしてゆく.

  • Research Products

    (13 results)

All 2012 2011 Other

All Journal Article (6 results) (of which Peer Reviewed: 6 results) Presentation (5 results) Book (1 results) Remarks (1 results)

  • [Journal Article] Statistical analysis of kernel-based least-squares density-ratio estimation2012

    • Author(s)
      Takafumi Kanamori, Taiji Suzuki, and Masashi Sugiyama
    • Journal Title

      Machine Learning

      Volume: 86 Pages: 335-367

    • DOI

      10.1007/s10994-011-5266-3

    • Peer Reviewed
  • [Journal Article] f-divergence estimation and two-sample homogeneity test under semiparametric density-ratio models2012

    • Author(s)
      Takafumi Kanamori, Taiji Suzuki, and Masashi Sugiyama
    • Journal Title

      IEEE Transactions on Information Theory

      Volume: 58 Pages: 708-720

    • DOI

      10.1109/TIT.2011.2163380

    • Peer Reviewed
  • [Journal Article] Density ratio matching under the Bregman divergence: A unified framework of density ratio estimation2011

    • Author(s)
      Masashi Sugiyama, Taiji Suzuki, and Takafumi Kanamori
    • Journal Title

      Annals of the Institute of Statistical Mathematics

      Volume: 11 Pages: 1-36

    • DOI

      10.1007/s10463-011-0343-8

    • Peer Reviewed
  • [Journal Article] SpicyMKL: A Fast Algorithm for Multiple Kernel Learning with Thousands of Kernels2011

    • Author(s)
      Taiji Suzuki and Ryota Tomioka
    • Journal Title

      Machine Learning

      Volume: 85 Pages: 77-108

    • DOI

      10.1007/s10994-011-5252-9

    • Peer Reviewed
  • [Journal Article] Least-Squares Two-Sample Test2011

    • Author(s)
      Masashi Sugiyama, Taiji Suzuki, Yuta Itoh, and Takafumi Kanamori
    • Journal Title

      Neural Networks

      Volume: 24 Pages: 735-751

    • DOI

      10.1016/j.neunet.2011.04.003

    • Peer Reviewed
  • [Journal Article] Super-Linear Convergence of Dual Augmented Lagrangian Algorithm for Sparse Learning2011

    • Author(s)
      Ryota Tomioka, Taiji Suzuki, and Masashi Sugiyama
    • Journal Title

      Journal of Machine Learning Research

      Volume: 12 Pages: 1537-1586

    • Peer Reviewed
  • [Presentation] Multiple Kernel Learningの効率的計算法と統計的性質について2011

    • Author(s)
      鈴木 大慈
    • Organizer
      応用数理学会若手の会単独研究会
    • Place of Presentation
      早稲田大学
    • Year and Date
      20111226-20111226
  • [Presentation] Unifying Framework for Fast Learning Rate of Non-Sparse Multiple Kernel Learning2011

    • Author(s)
      Taiji Suzuki
    • Organizer
      Advances in Neural Information Processing Systems 24 (NIPS2011)
    • Place of Presentation
      Granada, Spain
    • Year and Date
      20111212-20111217
  • [Presentation] Statistical Performance of Convex Tensor Decomposition2011

    • Author(s)
      Ryota Tomioka, Taiji Suzuki, Kohei Hayashi and Hisashi Kashima
    • Organizer
      Advances in Neural Information Processing Systems 24 (NIPS2011)
    • Place of Presentation
      Granada, Spain
    • Year and Date
      20111212-20111217
  • [Presentation] Relative Density-Ratio Estimation for Robust Distribution Comparison2011

    • Author(s)
      Makoto Yamada, Taiji Suzuki, Takafumi Kanamori, Hirotaka Hachiya and Masashi Sugiyama
    • Organizer
      Advances in Neural Information Processing Systems 24 (NIPS2011)
    • Place of Presentation
      Granada, Spain
    • Year and Date
      20111212-20111217
  • [Presentation] 疎でないマルチプルカーネル学習の速い収束レートおよび最適な正則化に関して2011

    • Author(s)
      鈴木 大慈
    • Organizer
      第14回情報論的学習理論ワークショップ (IBIS2011)
    • Place of Presentation
      奈良女子大学
    • Year and Date
      20111109-20111111
  • [Book] Density Ratio Estimation in Machine Learning2012

    • Author(s)
      Masashi Sugiyama, Taiji Suzuki, and Takafumi Kanamori
    • Total Pages
      329
    • Publisher
      Cambridge University Press
  • [Remarks] http://www.simplex.t.u-tokyo.ac.jp/~s-taiji/

URL: 

Published: 2014-07-24  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi