研究課題
基盤研究(B)
深層学習モデル「Transformer」は,自然言語処理からコンピュータ ビジョンまで応用分野が拡大しており,ChatGPTのような大規模言語モデルは社会に影響 を与えるほどの進展を遂げている.しかし,データサイズの増加に伴う計算量とメモリ容量 の増加は,大規模なGPUサーバーを必要とし,新しい研究や応用の障壁となっている. 本研究では,この問題を解決するために,近年,高性能計算分野で注目されている FPGA(再構成可能集積回路)をGPU処理と組み合わることにより,高い計算効率・メモリ利 用効率・エネルギー効率を有するヘテロジニアスアクセラレータのアーキテクチャを開拓する.