• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

Transformerのための高効率ヘテロジニアスカスタムアクセラレータ基盤

研究課題

研究課題/領域番号 24K02994
研究種目

基盤研究(B)

配分区分基金
応募区分一般
審査区分 小区分61030:知能情報学関連
小区分60030:統計科学関連
合同審査対象区分:小区分60030:統計科学関連、小区分61030:知能情報学関連
研究機関東北大学

研究代表者

張山 昌論  東北大学, 情報科学研究科, 教授 (10292260)

研究分担者 Waidyasooriya Ha  東北大学, 情報科学研究科, 准教授 (60723533)
研究期間 (年度) 2024-04-01 – 2028-03-31
研究課題ステータス 交付 (2024年度)
配分額 *注記
17,940千円 (直接経費: 13,800千円、間接経費: 4,140千円)
2027年度: 6,240千円 (直接経費: 4,800千円、間接経費: 1,440千円)
2026年度: 3,250千円 (直接経費: 2,500千円、間接経費: 750千円)
2025年度: 3,120千円 (直接経費: 2,400千円、間接経費: 720千円)
2024年度: 5,330千円 (直接経費: 4,100千円、間接経費: 1,230千円)
キーワードAI / FPGA / 自然言語処理 / 画像処理 / アクセラレータ
研究開始時の研究の概要

深層学習モデル「Transformer」は,自然言語処理からコンピュータ ビジョンまで応用分野が拡大しており,ChatGPTのような大規模言語モデルは社会に影響 を与えるほどの進展を遂げている.しかし,データサイズの増加に伴う計算量とメモリ容量 の増加は,大規模なGPUサーバーを必要とし,新しい研究や応用の障壁となっている. 本研究では,この問題を解決するために,近年,高性能計算分野で注目されている FPGA(再構成可能集積回路)をGPU処理と組み合わることにより,高い計算効率・メモリ利 用効率・エネルギー効率を有するヘテロジニアスアクセラレータのアーキテクチャを開拓する.

URL: 

公開日: 2024-04-11   更新日: 2024-10-24  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi