研究課題/領域番号 |
22K17946
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 東京大学 |
研究代表者 |
石田 隆 東京大学, 大学院新領域創成科学研究科, 講師 (80888462)
|
研究期間 (年度) |
2022-04-01 – 2027-03-31
|
研究課題ステータス |
交付 (2022年度)
|
配分額 *注記 |
4,550千円 (直接経費: 3,500千円、間接経費: 1,050千円)
2026年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2025年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2024年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2023年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2022年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
|
キーワード | 機械学習 / MU学習 / 教師あり学習 |
研究開始時の研究の概要 |
本研究では、少数データ環境であっても汎化性能及び信頼性を高めることを可能とする機械学習技術の研究を行い、2つのアプローチで研究を進める。1つ目は過剰適合を抑制するための方法論の研究であり、機械学習モデルの学習においてさらなる性能の改善を達成することを目指す。2つ目は教師情報における工夫を行うことである。近年、弱教師ラベルの扱い方は盛んに研究されてきたが、本研究では弱教師に限らず強教師も考慮し、汎化性能改善や信頼性向上に向けた新たな問題設定・手法の提案、理論解析を行う。
|
研究実績の概要 |
本年度の研究では、少数データ環境下での機械学習の汎化性能と信頼性の向上を目指しました。具体的な研究活動として、機械学習の国際会議に参加するなど、関連する最新研究のサーベイを行いました。これらの活動を通して、知識蒸留や弱教師・強教師情報など、従来とは異なるデータからの学習方法や、性能向上のためのアイデアを得ることができ、その理論や実装についての研究を進めています。その一例として、Mediated uncoupled(MU)学習に関する研究に取り組みました。MU学習は、入力変数Xから出力変数Yを予測する通常の教師あり学習と同じ目標を持ちつつ、訓練データセットが(X,Y)の組み合わせサンプルを持たず、代わりに中間変数Uを介して独立に観察された(X, U)および(U, Y)のサンプルのみを有するという特性を持つような方法です。MU学習のフレームワークを提案し、Bregman divergenceを用いることで、様々なタスクに有用な広範な損失関数を統一的に扱うことを可能にしました。また、訓練モデルの予測の期待テスト損失を含む範囲を推定する方法も提案しています。理論的な分析に加え、人工データを用いた回帰実験およびベンチマークデータセットを用いた低品質画像分類実験でその有用性を確認しました。MU学習に関する研究論文は、Artificial Intelligence and Statistics 2023(AISTATS 2023)に採択されました。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
初年度は、MU学習に関する論文(AISTATS2023)に取り組み、また、複数の研究プロジェクト(未公表のため詳細を省略させていただきます)を進めることができました。そのため、進捗状況としましては、おおむね順調に進展していると考えています。
|
今後の研究の推進方策 |
令和5年度から令和8年度の残り4年間となりましたが、本研究課題の研究計画に対して、大きな変更点はありません。弱教師学習や強教師学習(ソフトラベル学習や知識蒸留)の研究などを通して、機械学習の汎化性能と信頼性をさらに向上させるための研究を進めて参ります。
|