研究課題
基盤研究(C)
近年、大規模言語モデルをはじめとする大規模系列データモデルでは、そのコアとしてTransformerが用いられている。Transformerは離れた位置のトークン同士の関係を直接活用できる点で優れている。しかしながら、その処理に系列長の2乗に比例する計算量を要するため、長期系列データ活用のボトルネックとなっている。本研究では行列近似の理論に基づいた新規アルゴリズムとその高性能実装を開発することで、高速な長期系列モデルを実現する。本研究の成果が発展することにより、超大規模な言語モデル等の学習を高効率に実行することが可能となり、省コストで持続可能なAI活用社会の実現に資する。