研究課題
若手研究
深層学習モデルの構造最適化において知識蒸留を用いることで最適化性能が向上することが知られている。本研究ではモデルの精度だけでなくサイズや処理速度を考慮した多目的構造最適化において知識蒸留の導入を実現すべく、新しい探索操作とOnline Distillation方式を採用した多目的構造最適化手法の開発を目指す。また、ベンチマークデータセットを用いた比較実験と実応用実験によって提案手法の有効性を実証する。