• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2016 Fiscal Year Annual Research Report

Variable Selection for Small Sample and High Dimension Case by Semi-supervised Learning and Its Application to Super-Resolution

Research Project

Project/Area Number 25870503
Research InstitutionKyushu University

Principal Investigator

川喜田 雅則  九州大学, システム情報科学研究院, 助教 (90435496)

Project Period (FY) 2013-04-01 – 2017-03-31
Keywords最小記述長原理 / 超解像 / スパースコーディング / 共変量シフト / 半教師付き学習 / リスクバウンド / 重み付き尤度法
Outline of Annual Research Achievements

従来Barron and Cover理論を用いた乱数計画における教師付き学習のリスク評価はパラメータ空間の量子化及び厳しい条件が満たされていなければならなかった.しかし昨年度我々はその困難をある程度緩和する方法を提案し,実際に乱数計画におけるlassoのリスクバウンドの導出に成功した.今年度は同様のアイデアを用いて,共変量シフト(転移学習)が起きている場合のlassoのリスクバウンドの導出を試みた.その結果としてパラメータ空間の量子化を許せばリスクバウンドを導出できることがわかった.
次に研究計画に記したように,超解像に用いられている(低解像度画像xと高解像度画像yの)同時辞書学習(同時スパースコーディング)が半教師付き学習か,または共変量シフトの問題設定と合致することを利用して,ラベル付きデータとラベルなしデータの密度比を重みに用いた重み付き付き尤度を用いたスパースコーディングについてのリスクバウンドを導出した.Barron and
Cover理論によるリスクバウンドの導出は最小記述長原理に基づくスパースコーディングにおける正則化パラメータの調整に繋がることが期待される.
また,この重み付き尤度を用いたスパースコーディングにより学習された辞書をYangらの超解像に用いたとき,数値実験により超解像の性能がどの程度向上するか確認を行った.その結果として超解像の性能が向上する画像が確認された一方で,あまり性能が変わらない画像も認められた.
また理論的な成果としてセミパラメトリック理論を用いて上記の重み付き尤度を用いた半教師付き学習が,有限次元の基底展開に基づく最適推定量の最良近似になっていることを示した.

  • Research Products

    (2 results)

All 2017 2016

All Presentation (2 results) (of which Int'l Joint Research: 1 results,  Invited: 1 results)

  • [Presentation] スパースコーディングの転移学習と超解像への応用2017

    • Author(s)
      川喜田雅則
    • Organizer
      JST CRESTシンポジウム「ビッグデータ利活用のための基盤構築とその応用」
    • Place of Presentation
      名古屋工業大学
    • Year and Date
      2017-02-16 – 2017-02-17
    • Invited
  • [Presentation] Barron and Cover’s Theory in Supervised Learning and Its Application to Lasso2016

    • Author(s)
      M. Kawakita and J. Takeuchi
    • Organizer
      International Conference on Machine Learning 2016
    • Place of Presentation
      New York, U.S.A.
    • Year and Date
      2016-06-20 – 2016-06-22
    • Int'l Joint Research

URL: 

Published: 2018-01-16  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi