研究課題
基盤研究(B)
現在、爆発的に機械学習・深層学習の需要が増し、深層学習フレームワークや対話的処理環境などの普及により、機械学習処理へ様々なプレイヤーが参入する時代が到来している。しかし近年はGPTに代表されるLLM(大規模言語モデル)の学習処理があまりに膨大で、米国などのビッグテックしか競争に残らない可能性が懸念されている。本研究では、基盤ソフトウェアの立場から、大規模学習をより身近で高速にするために、(a) 演算カーネルレベルの計算資源有効活用、(b) ノード内・ノード間の演算・データスケジューリング、(c) システム全体の資源利用効率向上のためのスケジューリング、などの技術開発を行う。