• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2019 Fiscal Year Research-status Report

一般化ベイズ学習法の情報論的解釈と設計

Research Project

Project/Area Number 19K11825
Research InstitutionToyohashi University of Technology

Principal Investigator

渡辺 一帆  豊橋技術科学大学, 工学(系)研究科(研究院), 准教授 (10506744)

Project Period (FY) 2019-04-01 – 2024-03-31
Keywordsレート歪み関数 / 最適再構成分布 / 板倉・斎藤距離 / ミニマックス予測 / 変動二値情報源 / 頑健性
Outline of Annual Research Achievements

レート歪み関数は歪み有りデータ圧縮の限界を示すが、その評価に必要な最適再構成分布の導出は、ごく少数の歪み尺度、情報源の例に限られていた。音声信号処理等に広く用いられる板倉・斎藤距離を歪み尺度とした場合のレート歪み関数を達成する再構成分布を調べ、情報源がガンマ分布以外の場合には離散分布となることを示した。
ベイズ学習による系列の予測は一定の最適性を持つが、観測データ系列の出方によっては、全てのデータを観測した際の最適な予測との乖離が大きくなってしまう可能性がある。実数値データの予測問題において近年提案された、この乖離に関する最適性を持つ予測法を、二値データからの生成確率の変動を予測する方法に拡張した。ベイズ学習で用いられる近似法が有効であることを示し、近似の下で最適性を持つ予測法を開発した。
データ中の外れ値への頑健化や最大誤差の最小化への対応など、問題に応じた従来の機械学習法の改良を、関数fの選択により実現するf分離可能歪み尺度に基づく学習法について共同研究を行った。クラスタ数をデータから推定することができ、かつ効率的な計算量で実現可能なクラスタリング法であるディリクレ過程平均法を、f分離可能歪み尺度を用いて拡張し、アルゴリズムの収束性や外れ値への頑健性を評価する影響関数を詳細に解析した。また、学習法の望ましい性質の一つである推定方程式の不偏性に着目し、最も基本的かつ幅広い応用を持つ二乗距離や板倉・斎藤距離について、それらのf分離性による拡張では、一般的な条件の下で不偏性が成り立つことを明らかにした。
また、ベイズ学習の効率的近似法として広く用いられている変分ベイズ法について、その理論解析の研究成果をまとめた著書(共著)が出版された。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

レート歪み関数を達成する最適再構成分布を導出することができた。これには、既存研究において明らかにされた二乗距離基準の下で、ガウス情報源以外の情報源一般について成り立つ性質が板倉・斎藤距離の場合にも同様に成立することを示しており、ガンマ分布に従う情報源以外の情報源一般に対する結果を与えている。ミニマックス最適性を持つ予測法の開発では、ベイズ学習において有効であると知られていた近似法が、この問題でも有効に利用できることを示しており、二乗距離以外の損失関数を扱う際の一つの指針を与えている。
f分離可能歪み尺度を用いた際の推定方程式の不偏性の議論は、基本的かつ重要な知見を与えており、今後この知見に基づき機械学習法を問題に応じて改良することが期待できる。

Strategy for Future Research Activity

レート歪み理論における最適再構成分布の性質や、f分離可能性による機械学習法の拡張における不偏性の議論は、共通して板倉・斎藤距離の場合に研究が進展しているが、両者の関係は定かではない。共同研究者との議論を深め、両者の関係を考察することで、より一般の距離尺度や複雑な学習モデルへの拡張可能性を探る。情報論的な目的関数を用いたベイズ事後分布やその近似の構成は、国外の研究グループにおいても進展しており、オンライン国際会議への参加などを通じて、情報収集と調査を行う。

Causes of Carryover

参加を予定していた国内学会が中止となったため次年度使用額が生じた。翌年度に学会参加(オンラインも含め)による情報収集のために使用することを計画している。

  • Research Products

    (9 results)

All 2020 2019 Other

All Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (6 results) (of which Int'l Joint Research: 2 results,  Invited: 1 results) Book (1 results) Remarks (1 results)

  • [Journal Article] Minimax Online Prediction of Varying Bernoulli Process under Variational Approximation2019

    • Author(s)
      Kenta Konagayoshi, Kazuho Watanabe
    • Journal Title

      Proc. of the 11th Asian Conference on Machine Learning (ACML 2019)

      Volume: 101 Pages: 141 - 156

    • Peer Reviewed / Open Access
  • [Presentation] Rate-distortion theoretic interpretation of Bayesian learning coefficients2020

    • Author(s)
      Kazuho Watanabe
    • Organizer
      Information Theory and Applications Workshop
    • Int'l Joint Research / Invited
  • [Presentation] f分離可能Bregman歪み尺度における推定方程式の不偏性と推定量の性質2019

    • Author(s)
      小林真佐大, 渡辺一帆
    • Organizer
      電子情報通信学会情報理論研究会
  • [Presentation] Unbiased Estimation Equation Under f-separable Extension of Squared and Itakura-Saito Distances2019

    • Author(s)
      Masahiro Kobayashi, Kazuho Watanabe
    • Organizer
      Data Science, Statistics and Visualization (DSSV)
    • Int'l Joint Research
  • [Presentation] ε不感応損失関数におけるεパラメータの推定量とその性質2019

    • Author(s)
      沖本卓也, 渡辺一帆
    • Organizer
      電気・電子・情報関係学会東海支部連合大会
  • [Presentation] Discreteness of Optimal Reconstruction Distributions in Lossy Compression under Itakura-Saito Distortion2019

    • Author(s)
      渡辺一帆
    • Organizer
      第42回情報理論とその応用シンポジウム
  • [Presentation] f分離可能ブレグマン歪み尺度に基づくロバストな非負値行列分解2019

    • Author(s)
      小林真佐大, 渡辺一帆
    • Organizer
      第42回情報理論とその応用シンポジウム
  • [Book] Variational Bayesian learning theory2019

    • Author(s)
      Shinichi Nakajima, Kazuho Watanabe, Masashi Sugiyama
    • Total Pages
      558
    • Publisher
      Cambridge University Press
  • [Remarks] 豊橋技術科学大学学習推論システム研究室ホームページ

    • URL

      http://www.lisl.cs.tut.ac.jp/

URL: 

Published: 2021-01-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi