• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2022 年度 実績報告書

非積和型演算に基づく超高エネルギー効率 DNN アクセラレータ

研究課題

研究課題/領域番号 22H03555
研究機関東京工業大学

研究代表者

劉 載勲  東京工業大学, 科学技術創成研究院, 准教授 (70726976)

研究分担者 本村 真人  東京工業大学, 科学技術創成研究院, 教授 (90574286)
研究期間 (年度) 2022-04-01 – 2025-03-31
キーワードDNN / アクセラレータ / 非積和 / エネルギー効率
研究実績の概要

令和4年度は、非積和型演算に基づく超高エネルギー効率 DNN アクセラレータの実現に向けて、 強い宝くじ仮説(SLT)に基づく新たな DNN アルゴリズムを提案し、非積和型演算を用いたアクセラレータ実現の基礎を整えた。
SLT は、初期化された乱数重みニューラルネットワークから機能する乱数の部分ニューラルネットワークを抽出する。学習時に乱数生成器によって生成した2値重みを、同一乱数シードで推論時にも再生成できる。そのため、メモリ要求が少なく、積和演算を必要としないの特徴であるが、通常のニューラルネットワークに比べて推論精度の劣化が見られる。
本研究では、SLT の推論精度を向上するための M-Sup の研究と、SLT の更なる圧縮を可能にする HFN の研究を実施し、それぞれの成果を一線級の国際会議と論文誌で公表した。
まず、M-Sup は、SLT で乱数重みの使用有無を表現する Supermask の学習時に発生する問題を数学的に分析し、ほぼ同等の時間で、逆伝播時の情報をより効率良く活用できる多重 Supermask の学習方法を提案した。これにより既存 SLT や通常のニューラルネットワークでは達成できなかったモデルサイズ当たりの推論精度を達成できている。こちらの成果は、人工知能分野のトップ会議である国際学会 ICML で公表されている。
次に、HFNの研究では BMVC 2021 で同メンバーが行った HFN の元提案を更に分析し、HFN を用いたより高度な推論モデル実現の可能性を示した。HFN は SLT におけるネットワークのレイヤーを繰り返し使用するリカレントタイプのネットワークで、DNN とリザーバコンピューティングの中間的な立ち位置にある。こちらの成果は論文誌 IEEE ACCESS で公表されている。

現在までの達成度 (段落)

翌年度、交付申請を辞退するため、記入しない。

今後の研究の推進方策

翌年度、交付申請を辞退するため、記入しない。

  • 研究成果

    (2件)

すべて 2023 2022

すべて 雑誌論文 (1件) (うち査読あり 1件) 学会発表 (1件) (うち国際学会 1件)

  • [雑誌論文] Recurrent Residual Networks Contain Stronger Lottery Tickets2023

    • 著者名/発表者名
      Garcia-Arias Angel Lopez、Okoshi Yasuyuki、Hashimoto Masanori、Motomura Masato、Yu Jaehoon
    • 雑誌名

      IEEE Access

      巻: 11 ページ: 16588~16604

    • DOI

      10.1109/ACCESS.2023.3245808

    • 査読あり
  • [学会発表] Multicoated Supermasks Enhance Hidden Networks2022

    • 著者名/発表者名
      Yasuyuki Okoshi, Angel Lopez Garcia-Arias, Kazutoshi Hirose, Kota Ando, Kazushi Kawamura, Thiem Van Chu, Masato Motomura, Jaehoon Yu
    • 学会等名
      ICML
    • 国際学会

URL: 

公開日: 2023-12-25  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi