• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

High-efficiency Heterogeneous Custom Accelerator Foundation for Transformer

Research Project

Project/Area Number 24K02994
Research Category

Grant-in-Aid for Scientific Research (B)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61030:Intelligent informatics-related
Basic Section 60030:Statistical science-related
Sections That Are Subject to Joint Review: Basic Section60030:Statistical science-related , Basic Section61030:Intelligent informatics-related
Research InstitutionTohoku University

Principal Investigator

張山 昌論  東北大学, 情報科学研究科, 教授 (10292260)

Co-Investigator(Kenkyū-buntansha) Waidyasooriya Ha  東北大学, 情報科学研究科, 准教授 (60723533)
Project Period (FY) 2024-04-01 – 2028-03-31
Project Status Granted (Fiscal Year 2024)
Budget Amount *help
¥17,940,000 (Direct Cost: ¥13,800,000、Indirect Cost: ¥4,140,000)
Fiscal Year 2027: ¥6,240,000 (Direct Cost: ¥4,800,000、Indirect Cost: ¥1,440,000)
Fiscal Year 2026: ¥3,250,000 (Direct Cost: ¥2,500,000、Indirect Cost: ¥750,000)
Fiscal Year 2025: ¥3,120,000 (Direct Cost: ¥2,400,000、Indirect Cost: ¥720,000)
Fiscal Year 2024: ¥5,330,000 (Direct Cost: ¥4,100,000、Indirect Cost: ¥1,230,000)
KeywordsAI / FPGA / 自然言語処理 / 画像処理 / アクセラレータ
Outline of Research at the Start

深層学習モデル「Transformer」は,自然言語処理からコンピュータ ビジョンまで応用分野が拡大しており,ChatGPTのような大規模言語モデルは社会に影響 を与えるほどの進展を遂げている.しかし,データサイズの増加に伴う計算量とメモリ容量 の増加は,大規模なGPUサーバーを必要とし,新しい研究や応用の障壁となっている. 本研究では,この問題を解決するために,近年,高性能計算分野で注目されている FPGA(再構成可能集積回路)をGPU処理と組み合わることにより,高い計算効率・メモリ利 用効率・エネルギー効率を有するヘテロジニアスアクセラレータのアーキテクチャを開拓する.

URL: 

Published: 2024-04-11   Modified: 2024-10-24  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi