• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Development of generative dataset distillation technology based on diffusion model

Research Project

Project/Area Number 24K23849
Research Category

Grant-in-Aid for Research Activity Start-up

Allocation TypeMulti-year Fund
Review Section 1001:Information science, computer engineering, and related fields
Research InstitutionHokkaido University

Principal Investigator

李 広  北海道大学, 数理・データサイエンス教育研究センター, 特任助教 (20994510)

Project Period (FY) 2024-07-31 – 2026-03-31
Project Status Granted (Fiscal Year 2024)
Budget Amount *help
¥2,600,000 (Direct Cost: ¥2,000,000、Indirect Cost: ¥600,000)
Fiscal Year 2025: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2024: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Keywordsデータセット蒸留 / 表現学習 / 拡散モデル
Outline of Research at the Start

本研究では,ラベルなしデータを活用した自己教師あり表現学習を拡散モデルに基づき実現することで,学習プロセスの効率化とデータプライバシー確保を兼ね備えたデータセット蒸留技術の構築を目指す.まず,拡散モデルを用いることで,画像データの多様性問題に対処し,優れた特徴表現の獲得を実現する.続いて,このモデルを応用しラベル付きデータの効率的な蒸留を行い,学習効率の向上とデータの匿名化を同時に達成する.本アプローチは,深層学習の幅広い社会応用に向けた基盤技術の一つとなり得る.

URL: 

Published: 2024-08-01   Modified: 2024-09-13  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi